अभिनेत्री रश्मिका मंदाना हिच्याशी संबंधित असलेल्या डीपफेक व्हिडीओसंदर्भात दिल्ली पोलिसांनी आता एफआयआर नोंदवला असून कार्यवाहीची दिशा ठरवली जात आहे. विविध अभिनेत्री, पंतप्रधान नरेंद्र मोदी यांच्यानंतर आता रतन टाटा यांचादेखील डीपफेक व्हिडीओ व्हायरल झाला आहे. 2017 मध्ये बराक ओबामा हे डोनाल्ड ट्रम्प यांना शिवीगाळ करीत असलेला राजकीय बनावट व्हिडीओ, 2018 मध्ये आर्थिक फायद्यासाठी अभिनेत्री स्कारलेट जोहान्सन हिचा क्रिप्टोकरन्सी घोटाळ्याबाबतचा फेक व्हिडीओ प्रसारित झाला होता. आता 2023 मध्ये अमेरिकन झारा पटेल आणि दक्षिण भारतातील अभिनेत्री रश्मिका मंदाना यांचा 'डीपफेक टेक्नॉलॉजी' वापरत 'मॅनिपुलेटेड व्हिडीओ' व्हायरल झाला आणि भारतात अचानक या बनावट सामग्री बनविणार्या आधुनिक तंत्रज्ञानाबद्दल कमालीची उत्सुकता निर्माण झाली. सत्य शोधण्याच्या नव्या कसोट्या आणि साधने निर्माण करण्याची गरजदेखील निर्माण झाली.
संबंधित बातम्या :
सायबर गुन्हेगारी रोखण्यासाठी स्थानिक आणि जागतिक पातळीवरील मर्यादित व तुटपुंजे मनुष्यबळ आहे. तसेच अॅडव्हान्स इलेक्ट्रॉनिक्स टेक्नॉलॉजीबरोबर अपडेट होण्यासाठी सायबर पोलिस तसेच प्रशिक्षित टेक्नॉलॉजी वॉरियर्स यांच्याबाबत राजकीय अनास्था दिसून येते. यामुळे 'डीपफेक टेक्नॉलॉजी' ही राष्ट्रीय संरक्षणासाठी अत्यंत धोकादायक आहे, असे असले तरी विधायक कार्य, मनोरंजन, जाहिरात, रंजक व प्रभावी पद्धतीने शिक्षण व प्रशिक्षण यासाठी 'डीपफेक टेक्नॉलॉजी'चा वापर केला जात आहे.
'डीपफेक टेक्नॉलॉजी'ची उत्पत्ती ही तंत्रज्ञान विकासाच्या शोधगंगेत आर्टिफिशियल इंटेलिजन्स (एआय) आणि न्यूरल नेटवर्कमधील प्रगतीतून झाली आहे. 'डीपफेक' हा शब्द 'डीप लर्निंग' आणि 'फेक' म्हणजे बनावट या शब्दांच्या एकत्रिकरणातून बनला. थोडक्यात आर्टिफिशियल इंटेलिजन्स आधारित टूल्सद्वारे व्हिडिओ आणि ऑडिओ पूर्णपणे इतके बदलले जाते की, ऐकणार्या व पाहणार्याला ते कळणारही नाही आणि ते तो खरे मानेल. याला 'डीपफेक तंत्रज्ञान' म्हणतात.
सोशल मीडियावर असंख्य फोटो आणि व्हिडीओ टाकत लाईक आणि फॉलोअर्सच्या आभासी मृगजळामागे धावणार्या यूजर्सने लक्षात घ्यायला हवे की, आपला हाच डेटा वापरून उद्या खोटा, अश्लील, बदनामीकारक व्हिडीओ बनवत तुम्हाला चक्रव्यूहात कदाचित अडकविले जाऊ शकते. काही सेकंदांत तुमच्या आयुष्याची सर्व आर्थिक कमाई गायब करीत सायबर हल्ला हा तुमच्या आवाजात होऊ शकतो. तेव्हा काळजीपूर्वक लक्ष दिल्यास डीपफेक व्हिडीओ आणि ऑडिओ ओळखणे शक्य आहे. चेहर्यावरील अनैसर्गिक वैशिष्ट्ये किंवा हालचाली अथवा स्थिरता पाहून डीपफेक व्हिडीओ समजू शकतो. पापण्यांची हालचाल, आवाज आणि ओठांची अनैसर्गिक हालचाल किंवा स्थिरता यातील तफावतीमुळे निरीक्षण केल्यास डीपफेक व्हिडीओ ओळखणे शक्य आहे.
'डीपफेक टेक्नॉलॉजी'चा वापर करीत परवानगीशिवाय एखाद्या व्यक्तीचा ऑडिओ किंवा व्हिडीओ बनविणे हा गुन्हा आहे. माहिती-तंत्रज्ञान कायदा, 2000 आणि त्याचे नियम एखाद्या व्यक्तीची गोपनीयता भंग केल्याबद्दलदेखील खटला दाखल करता येतो. भारतीय माहिती तंत्रज्ञान कायद्याच्या कलम 66 ऊ मध्ये 'तोतयागिरी करून फसवणूक' केल्याबद्दल तीन वर्षांचा तुरुंगवास आणि एक लाख रुपये दंडाची तरतूद आहे. याशिवाय, नियम 3(2)(ल) मध्ये नमूद केले आहे की, इलेक्ट्रॉनिक बनावटीच्या स्वरूपातील कोणत्याही सामग्रीसंदर्भात तक्रार प्राप्त झाल्यापासून चोवीस तासांच्या आत मध्यस्थ म्हणजे प्लॅटफॉर्म सोशल मीडिया कार्यवाही करेल आणि डीपफेक टेक्नॉलॉजीने बनविलेले कंटेंट नियमानुसार ताबडतोब हटवेल व असे पुन्हा घडू नये, यासाठीदेखील आवश्यक सर्व उपाययोजनादेखील करेल.
भारतीय दंड संहितेच्या कलम 499 आणि 500 मध्ये बदनामी व मानहानीच्या तरतुदीनुसार खोटी माहिती पसरवून एखाद्या व्यक्तीच्या प्रतिष्ठेला हानी पोहोचवण्याच्या उद्देशाने डीपफेक व्हिडीओ तयार केला असल्यास, पीडित व्यक्ती निर्मात्याविरुद्ध मानहानीचा खटला दाखल करू शकते.
'डीपफेक टेक्नॉलॉजी' म्हणजे वास्तववादी दिसणारे बनावट व्हिडीओ किंवा ऑडिओ रेकॉर्डिंग यासाठी आर्टिफिशियल इंटेलिजन्स (एआय), इमेज प्रोसेसिंग, मशिन लर्निंग (एमएल), न्यूरल नेटवर्क्स आदी एडव्हान्सड इलेक्ट्रॉनिक्स टेक्नॉलॉजीजचा एकत्रीत वापर हा मूळ चित्रे, व्हिडीओ, ऑडिओ यांच्यात फेरफार करण्यासाठी किंवा बनावट सामग्री निर्माण करण्यासाठी केला जातो.
'डीपफेक तंत्रज्ञाना'चा मुकाबला करण्याचे क्षेत्र म्हणजे संधींचा खजाना आहे. याबरोबरच मायक्रोसॉफ्ट व्हिडीओ ऑथेंटिकेटर, सेंटिनेल, विव्हेरीफायसारखे फॉरेन्सिक सॉफ्टवेअर, एआय ऑर नॉट, हाईव्ह मॉडरेशन, डीपवेअर स्कॅनर आणि डीपवेअर सीआयडीसारखी एआय-आधारित शोध साधने, ब्लॉकचेन तंत्रज्ञान, थर्ड पार्टी सर्व्हिसेस, रिसर्च आणि डीपवेअरसारखी मुक्त-स्रोत साधने यांचा समावेश 'डीपफेक टेक्नॉलॉजी'विरुद्ध करण्यासाठी ते हाताळणारे टेक वॉरिअर्स यांना करिअर संधींची मर्यादाच नाही.
हेही वाचा :