नाशिक : सतीश डोंगरे
चंद्रपूरच्या ब्रह्मपुरी वनविश्रामगृह येथे एक वाघ तेथील एका व्यक्तीवर हल्ला करतो. त्याच्या नरडीचा घोट घेत, तिला फरपटत नेतो. पुन्हा काही क्षणांत त्याला त्याच ठिकाणी घेऊन येतो अन् त्याला पाणीही पाजतो, असे दोन व्हिडिओ समोर आले अन् अनेकांच्या काळजात धस्स झाले. व्हिडिओ इतके हुबेहूब होते की, वनविभागाला ते व्हिडिओ 'एआय'निर्मित असल्याचे स्पष्टीकरण द्यावे लागले. त्यानंतर लोकांमध्ये एआय डीपफेक व्हिडिओच्या फेकाफेकीची एकच चर्चा रंगली. मात्र, हे व्हिडिओ म्हणजे गंडवण्याचा नवा फंडा असून, सद्सद्विवेक बुद्धीचा वापर हाच यातून बचावाचा मार्ग असल्याचे एआय तज्ज्ञ सांगतात.
भारतासह संपूर्ण जगात कृत्रिम बुद्धिमत्तेचा (एआय) मोठा गाजावाजा होत आहे. एकीकडे एआयचे भरमसाठ फायदे सांगितले जात असताना, तुलनेत तितकेच तोटेही समोर येत आहेत. प्रारंभी 'व्हाइस क्लोनिंग' हे एआयचे अत्यंत प्रभावी टूल्स सायबर ठगांना मिळाले. त्यातून त्यांनी अनेकांना कोट्यवधी रुपयांना गंडवल्याचे एकापाठोपाठ एक प्रकार समोर आले. त्यातून लोक धडा घेत नाहीत, तोच एआय आणि 'डीप लर्निंग' तंत्रज्ञानाच्या माध्यमातून बनावट व्हिडिओ समोर येऊ लागले.
'खऱ्या व्यक्तीचा चेहरा, आवाज आणि हावभाव' हे व्हिडिओमध्ये कृत्रिमरीत्या इतके प्रभावीपणे मांडले जाते की, उच्चशिक्षितांचीही फसगत होईल. सध्या या व्हिडिओंचा समाज माध्यमांवर प्रचंड बोलबाला आहे. मागील आठवड्यात तर एआयनिर्मित व्हिडिओने अनेकांच्या डोक्याला मुंग्याच आणल्या. एक म्हणजे वाघ आणि माणसाचा व्हिडिओ अन् दुसरा अभिनेते धर्मेंद्र यांचा व्हिडिओ. अनेकांनी याकडे मनोरंजनाच्या भावनेतून बघितले असले, तरी हे व्हिडिओ किती धोकादायक ठरू शकतात यावर आता मंथन सुरू झाले आहे. हे व्हिडिओ निरीक्षणाअंती ओळखणे शक्य असले, तरी सद्सद्विवेक बुद्धीच अशा प्रकारच्या बनावट व्हिडिओपासून माणसांचा बचाव करू शकते, असे एआय तज्ज्ञ सांगत आहेत.
असे ओळखा 'एआय' व्हिडिओ
व्हिडिओमधील व्यक्तीच्या चेहऱ्याच्या हालचाली, डोळ्यांचा फोकस आणि आवाजातील समन्वयाचे निरीक्षण करावे.
व्हिडिओमध्ये चेहरा स्थिर असतो आणि ओठ हालत असतात. त्यामुळे चेहऱ्यावरील भाव आवाजाशी विसंगत असतात.
व्हिडिओमध्ये सावलीची दिशा आणि शरीराभोवतीचा उजेडही व्हिडिओ बनावट असल्याचे संकेत देतो.
व्हिडिओमध्ये एखादे चिन्ह किंवा वॉटरमार्क दिलेला असतो, त्याचेही निरीक्षण करावे.
व्हिडिओच्या दोन घटना, कोट्यवधींची फसवणूक
सायबर ठगांनी चक्क अमेरिकेचे राष्ट्राध्यक्ष डोनाल्ड ट्रम्प यांच्या नावाचे ॲप तयार केले. त्यावर एआय आणि डीप लर्निंग तंत्रज्ञानाच्या साहाय्याने डोनाल्ड ट्रम्प यांचा व्हिडिओ तयार करत तो प्रसारित केला. त्यात गुंतवणुकीवर मोठ्या परताव्याचे आमिष दाखवले. त्यातून २०० लोकांना दोन कोटींचा गंडा घातला. गेल्या मे महिन्यात बंगळुरू येथे ही घटना समोर आली.
दुसऱ्या घटनेत 'एआय-पावर्ड फेस-स्वॅपिंग' तंत्राद्वारे मित्रानेच मित्राचा बनावट व्हिडिओ तयार केला. तसेच व्हिडिओ कॉलद्वारे मित्राला मदतीच्या नावे एक कोटी रुपयांची मागणी केली. मित्राने तत्काळ एक कोटी रुपये मदत म्हणून पाठवले. मात्र, हा सर्व बनाव असल्याचे समोर आले. ही घटना दिल्लीत समोर आली.
सध्या मोठ्या प्रमाणात डेटा साचलेला असल्याने, एआय तंत्रज्ञानाच्या माध्यमातून 'नेक्स्ट लेव्हल' विचार केला जात आहे. एखादा फोटो असो वा व्हिडिओ क्षणार्धात मिळणे शक्य होत असल्याने, काही अपप्रवृत्तींकडून याचा गैरवापर होणे स्वाभाविक आहे. त्यामुळे प्रत्येकाने माहितीच्या युगात वावरताना सद्सदविवेक बुद्धीचा वापर करायलाच हवा.तन्मय दीक्षित, सायबर तज्ज्ञ, नाशिक.
निवडणुकीत व्हिडिओचा धुमाकूळ
सध्या राज्यात नगर परिषदा निवडणुकांचा धुराळा उडत आहे. त्यातही एआय व्हिडिओची चलती असल्याचे दिसत आहे. एखाद्या सेलिब्रिटीचा चेहरा घेऊन अनेक उमेदवार स्वत:चे कौतुक सांगणारे व्हिडिओ समाज माध्यमांद्वारे लोकांपर्यंत पोहोचवत आहेत. याशिवाय विरोधकांबाबत गैरसमज निर्माण करणे, त्याची प्रतिमा मलिन करणे, त्यांच्याविषयी बदनामीकारक अफवा पसरवण्याचे कामही या व्हिडिओद्वारे केले जात आहे. तूर्त तरी त्यावर फारशी बंधने नसल्याचेच दिसून येत आहे.