AI video's  Pudhari News Network
नाशिक

AI video's : एआय व्हिडिओची 'डीप' फेकाफेक

पुढारी विशेष ! गंडवण्याचा नवा फंडा : सद्सद्विवेक बुद्धीचा वापरच बचावाचा मार्ग

पुढारी वृत्तसेवा

नाशिक : सतीश डोंगरे

चंद्रपूरच्या ब्रह्मपुरी वनविश्रामगृह येथे एक वाघ तेथील एका व्यक्तीवर हल्ला करतो. त्याच्या नरडीचा घोट घेत, तिला फरपटत नेतो. पुन्हा काही क्षणांत त्याला त्याच ठिकाणी घेऊन येतो अन् त्याला पाणीही पाजतो, असे दोन व्हिडिओ समोर आले अन् अनेकांच्या काळजात धस्स झाले. व्हिडिओ इतके हुबेहूब होते की, वनविभागाला ते व्हिडिओ 'एआय'निर्मित असल्याचे स्पष्टीकरण द्यावे लागले. त्यानंतर लोकांमध्ये एआय डीपफेक व्हिडिओच्या फेकाफेकीची एकच चर्चा रंगली. मात्र, हे व्हिडिओ म्हणजे गंडवण्याचा नवा फंडा असून, सद्सद्विवेक बुद्धीचा वापर हाच यातून बचावाचा मार्ग असल्याचे एआय तज्ज्ञ सांगतात.

भारतासह संपूर्ण जगात कृत्रिम बुद्धिमत्तेचा (एआय) मोठा गाजावाजा होत आहे. एकीकडे एआयचे भरमसाठ फायदे सांगितले जात असताना, तुलनेत तितकेच तोटेही समोर येत आहेत. प्रारंभी 'व्हाइस क्लोनिंग' हे एआयचे अत्यंत प्रभावी टूल्स सायबर ठगांना मिळाले. त्यातून त्यांनी अनेकांना कोट्यवधी रुपयांना गंडवल्याचे एकापाठोपाठ एक प्रकार समोर आले. त्यातून लोक धडा घेत नाहीत, तोच एआय आणि 'डीप लर्निंग' तंत्रज्ञानाच्या माध्यमातून बनावट व्हिडिओ समोर येऊ लागले.

'खऱ्या व्यक्तीचा चेहरा, आवाज आणि हावभाव' हे व्हिडिओमध्ये कृत्रिमरीत्या इतके प्रभावीपणे मांडले जाते की, उच्चशिक्षितांचीही फसगत होईल. सध्या या व्हिडिओंचा समाज माध्यमांवर प्रचंड बोलबाला आहे. मागील आठवड्यात तर एआयनिर्मित व्हिडिओने अनेकांच्या डोक्याला मुंग्याच आणल्या. एक म्हणजे वाघ आणि माणसाचा व्हिडिओ अन् दुसरा अभिनेते धर्मेंद्र यांचा व्हिडिओ. अनेकांनी याकडे मनोरंजनाच्या भावनेतून बघितले असले, तरी हे व्हिडिओ किती धोकादायक ठरू शकतात यावर आता मंथन सुरू झाले आहे. हे व्हिडिओ निरीक्षणाअंती ओळखणे शक्य असले, तरी सद्सद्विवेक बुद्धीच अशा प्रकारच्या बनावट व्हिडिओपासून माणसांचा बचाव करू शकते, असे एआय तज्ज्ञ सांगत आहेत.

Nashik Latest News

असे ओळखा 'एआय' व्हिडिओ

  • व्हिडिओमधील व्यक्तीच्या चेहऱ्याच्या हालचाली, डोळ्यांचा फोकस आणि आवाजातील समन्वयाचे निरीक्षण करावे.

  • व्हिडिओमध्ये चेहरा स्थिर असतो आणि ओठ हालत असतात. त्यामुळे चेहऱ्यावरील भाव आवाजाशी विसंगत असतात.

  • व्हिडिओमध्ये सावलीची दिशा आणि शरीराभोवतीचा उजेडही व्हिडिओ बनावट असल्याचे संकेत देतो.

  • व्हिडिओमध्ये एखादे चिन्ह किंवा वॉटरमार्क दिलेला असतो, त्याचेही निरीक्षण करावे.

व्हिडिओच्या दोन घटना, कोट्यवधींची फसवणूक

सायबर ठगांनी चक्क अमेरिकेचे राष्ट्राध्यक्ष डोनाल्ड ट्रम्प यांच्या नावाचे ॲप तयार केले. त्यावर एआय आणि डीप लर्निंग तंत्रज्ञानाच्या साहाय्याने डोनाल्ड ट्रम्प यांचा व्हिडिओ तयार करत तो प्रसारित केला. त्यात गुंतवणुकीवर मोठ्या परताव्याचे आमिष दाखवले. त्यातून २०० लोकांना दोन कोटींचा गंडा घातला. गेल्या मे महिन्यात बंगळुरू येथे ही घटना समोर आली.

दुसऱ्या घटनेत 'एआय-पावर्ड फेस-स्वॅपिंग' तंत्राद्वारे मित्रानेच मित्राचा बनावट व्हिडिओ तयार केला. तसेच व्हिडिओ कॉलद्वारे मित्राला मदतीच्या नावे एक कोटी रुपयांची मागणी केली. मित्राने तत्काळ एक कोटी रुपये मदत म्हणून पाठवले. मात्र, हा सर्व बनाव असल्याचे समोर आले. ही घटना दिल्लीत समोर आली.

सध्या मोठ्या प्रमाणात डेटा साचलेला असल्याने, एआय तंत्रज्ञानाच्या माध्यमातून 'नेक्स्ट लेव्हल' विचार केला जात आहे. एखादा फोटो असो वा व्हिडिओ क्षणार्धात मिळणे शक्य होत असल्याने, काही अपप्रवृत्तींकडून याचा गैरवापर होणे स्वाभाविक आहे. त्यामुळे प्रत्येकाने माहितीच्या युगात वावरताना सद्सदविवेक बुद्धीचा वापर करायलाच हवा.
तन्मय दीक्षित, सायबर तज्ज्ञ, नाशिक.

निवडणुकीत व्हिडिओचा धुमाकूळ

सध्या राज्यात नगर परिषदा निवडणुकांचा धुराळा उडत आहे. त्यातही एआय व्हिडिओची चलती असल्याचे दिसत आहे. एखाद्या सेलिब्रिटीचा चेहरा घेऊन अनेक उमेदवार स्वत:चे कौतुक सांगणारे व्हिडिओ समाज माध्यमांद्वारे लोकांपर्यंत पोहोचवत आहेत. याशिवाय विरोधकांबाबत गैरसमज निर्माण करणे, त्याची प्रतिमा मलिन करणे, त्यांच्याविषयी बदनामीकारक अफवा पसरवण्याचे कामही या व्हिडिओद्वारे केले जात आहे. तूर्त तरी त्यावर फारशी बंधने नसल्याचेच दिसून येत आहे.

लोकल ते ग्लोबल बातम्यांसाठी डाऊनलोड करा दैनिक पुढारीचे Android आणि iOS मोबाईल App.

'Pudhari' is excited to announce the relaunch of its Android and iOS apps. Stay updated with the latest news at your fingertips.

Android and iOS Download now and stay updated, anytime, anywhere.

SCROLL FOR NEXT