AI video's : एआय व्हिडिओची 'डीप' फेकाफेक

पुढारी विशेष ! गंडवण्याचा नवा फंडा : सद्सद्विवेक बुद्धीचा वापरच बचावाचा मार्ग
Image of AI video's
AI video's Pudhari News Network
Published on
Updated on

नाशिक : सतीश डोंगरे

चंद्रपूरच्या ब्रह्मपुरी वनविश्रामगृह येथे एक वाघ तेथील एका व्यक्तीवर हल्ला करतो. त्याच्या नरडीचा घोट घेत, तिला फरपटत नेतो. पुन्हा काही क्षणांत त्याला त्याच ठिकाणी घेऊन येतो अन् त्याला पाणीही पाजतो, असे दोन व्हिडिओ समोर आले अन् अनेकांच्या काळजात धस्स झाले. व्हिडिओ इतके हुबेहूब होते की, वनविभागाला ते व्हिडिओ 'एआय'निर्मित असल्याचे स्पष्टीकरण द्यावे लागले. त्यानंतर लोकांमध्ये एआय डीपफेक व्हिडिओच्या फेकाफेकीची एकच चर्चा रंगली. मात्र, हे व्हिडिओ म्हणजे गंडवण्याचा नवा फंडा असून, सद्सद्विवेक बुद्धीचा वापर हाच यातून बचावाचा मार्ग असल्याचे एआय तज्ज्ञ सांगतात.

भारतासह संपूर्ण जगात कृत्रिम बुद्धिमत्तेचा (एआय) मोठा गाजावाजा होत आहे. एकीकडे एआयचे भरमसाठ फायदे सांगितले जात असताना, तुलनेत तितकेच तोटेही समोर येत आहेत. प्रारंभी 'व्हाइस क्लोनिंग' हे एआयचे अत्यंत प्रभावी टूल्स सायबर ठगांना मिळाले. त्यातून त्यांनी अनेकांना कोट्यवधी रुपयांना गंडवल्याचे एकापाठोपाठ एक प्रकार समोर आले. त्यातून लोक धडा घेत नाहीत, तोच एआय आणि 'डीप लर्निंग' तंत्रज्ञानाच्या माध्यमातून बनावट व्हिडिओ समोर येऊ लागले.

Image of AI video's
कॅमेरासमोर तयार होताना Alia Bhatt चा डीपफेक व्हिडिओ व्हायरल; संतापले फॅन्स 

'खऱ्या व्यक्तीचा चेहरा, आवाज आणि हावभाव' हे व्हिडिओमध्ये कृत्रिमरीत्या इतके प्रभावीपणे मांडले जाते की, उच्चशिक्षितांचीही फसगत होईल. सध्या या व्हिडिओंचा समाज माध्यमांवर प्रचंड बोलबाला आहे. मागील आठवड्यात तर एआयनिर्मित व्हिडिओने अनेकांच्या डोक्याला मुंग्याच आणल्या. एक म्हणजे वाघ आणि माणसाचा व्हिडिओ अन् दुसरा अभिनेते धर्मेंद्र यांचा व्हिडिओ. अनेकांनी याकडे मनोरंजनाच्या भावनेतून बघितले असले, तरी हे व्हिडिओ किती धोकादायक ठरू शकतात यावर आता मंथन सुरू झाले आहे. हे व्हिडिओ निरीक्षणाअंती ओळखणे शक्य असले, तरी सद्सद्विवेक बुद्धीच अशा प्रकारच्या बनावट व्हिडिओपासून माणसांचा बचाव करू शकते, असे एआय तज्ज्ञ सांगत आहेत.

Nashik Latest News

असे ओळखा 'एआय' व्हिडिओ

  • व्हिडिओमधील व्यक्तीच्या चेहऱ्याच्या हालचाली, डोळ्यांचा फोकस आणि आवाजातील समन्वयाचे निरीक्षण करावे.

  • व्हिडिओमध्ये चेहरा स्थिर असतो आणि ओठ हालत असतात. त्यामुळे चेहऱ्यावरील भाव आवाजाशी विसंगत असतात.

  • व्हिडिओमध्ये सावलीची दिशा आणि शरीराभोवतीचा उजेडही व्हिडिओ बनावट असल्याचे संकेत देतो.

  • व्हिडिओमध्ये एखादे चिन्ह किंवा वॉटरमार्क दिलेला असतो, त्याचेही निरीक्षण करावे.

व्हिडिओच्या दोन घटना, कोट्यवधींची फसवणूक

सायबर ठगांनी चक्क अमेरिकेचे राष्ट्राध्यक्ष डोनाल्ड ट्रम्प यांच्या नावाचे ॲप तयार केले. त्यावर एआय आणि डीप लर्निंग तंत्रज्ञानाच्या साहाय्याने डोनाल्ड ट्रम्प यांचा व्हिडिओ तयार करत तो प्रसारित केला. त्यात गुंतवणुकीवर मोठ्या परताव्याचे आमिष दाखवले. त्यातून २०० लोकांना दोन कोटींचा गंडा घातला. गेल्या मे महिन्यात बंगळुरू येथे ही घटना समोर आली.

दुसऱ्या घटनेत 'एआय-पावर्ड फेस-स्वॅपिंग' तंत्राद्वारे मित्रानेच मित्राचा बनावट व्हिडिओ तयार केला. तसेच व्हिडिओ कॉलद्वारे मित्राला मदतीच्या नावे एक कोटी रुपयांची मागणी केली. मित्राने तत्काळ एक कोटी रुपये मदत म्हणून पाठवले. मात्र, हा सर्व बनाव असल्याचे समोर आले. ही घटना दिल्लीत समोर आली.

सध्या मोठ्या प्रमाणात डेटा साचलेला असल्याने, एआय तंत्रज्ञानाच्या माध्यमातून 'नेक्स्ट लेव्हल' विचार केला जात आहे. एखादा फोटो असो वा व्हिडिओ क्षणार्धात मिळणे शक्य होत असल्याने, काही अपप्रवृत्तींकडून याचा गैरवापर होणे स्वाभाविक आहे. त्यामुळे प्रत्येकाने माहितीच्या युगात वावरताना सद्सदविवेक बुद्धीचा वापर करायलाच हवा.

तन्मय दीक्षित, सायबर तज्ज्ञ, नाशिक.

निवडणुकीत व्हिडिओचा धुमाकूळ

सध्या राज्यात नगर परिषदा निवडणुकांचा धुराळा उडत आहे. त्यातही एआय व्हिडिओची चलती असल्याचे दिसत आहे. एखाद्या सेलिब्रिटीचा चेहरा घेऊन अनेक उमेदवार स्वत:चे कौतुक सांगणारे व्हिडिओ समाज माध्यमांद्वारे लोकांपर्यंत पोहोचवत आहेत. याशिवाय विरोधकांबाबत गैरसमज निर्माण करणे, त्याची प्रतिमा मलिन करणे, त्यांच्याविषयी बदनामीकारक अफवा पसरवण्याचे कामही या व्हिडिओद्वारे केले जात आहे. तूर्त तरी त्यावर फारशी बंधने नसल्याचेच दिसून येत आहे.

लोकल ते ग्लोबल बातम्यांसाठी डाऊनलोड करा दैनिक पुढारीचे Android आणि iOS मोबाईल App.

'Pudhari' is excited to announce the relaunch of its Android and iOS apps. Stay updated with the latest news at your fingertips.

Android and iOS Download now and stay updated, anytime, anywhere.

संबंधित बातम्या

No stories found.
logo
Pudhari News
pudhari.news