

राजमोहन रासम
आजच्या काळात तंत्रज्ञान झपाट्याने बदलत आहे. कृत्रिम बुद्धिमत्तेच्या (Artificial Intelligence ) माध्यमातून अशक्य गोष्टी शक्य होऊ लागल्या आहेत. याच AI जगातून जन्माला आलेली एक निर्मिती म्हणजे डीपफेक (Deepfake). एकीकडे फायद्याचा विचार करता दुसरीकडे मात्र प्रत्यक्षात हे नुकसान आणि हानिकारक तंत्रज्ञान ठरत आहे.
डीपफेक म्हणजे नेमकं काय?
डीपफेक हे डीप लर्निंग आणि फेक या दोन शब्दांपासून तयार झालं आहे. हे तंत्रज्ञान AI आणि मशिन लर्निंगच्या साहाय्याने एखाद्या व्यक्तीचा चेहरा, आवाज किंवा हालचाली बदलून त्याला इतर व्हिडीओ किंवा फोटोमध्ये बसवतं. परिणाम असा की, तयार झालेला व्हिडीओ अगदी खरा वाटतो; पण तो पूर्णपणे बनावट असतो. सोप्या भाषेत सांगायचं झालं, तर ‘डीपफेक’ तंत्रज्ञान कृत्रिम बुद्धिमत्तेचा एक अंश आहे. हे तंत्रज्ञान अल्गोरिदम आणि पॅटर्न लर्न करते, ज्याचा वापर फोटो किंवा व्हिडीओ अधिक वास्तववादी दिसण्यासाठी केला जाऊ शकतो. परिणामी, व्हिडीओ आणि फोटोंवर लोक सहजपणे विश्वास ठेवतात. हे तंत्रज्ञान बनावट व्हिडीओ आणि फोटो तयार करण्यासाठी जनरेटिव्ह अॅडव्हर्सेरियल नेटवर्क्स वापरते.
डीपफेकसाठी Generative Adversarial Networks (GANs) नावाची पद्धत वापरली जाते. यात दोन AI मॉडेल्स असतात. एक मॉडेल खोटा व्हिडीओ तयार करतं. दुसरं मॉडेल त्यातील चुका शोधतं. दोघांच्या स्पर्धेतून अखेरीस असा व्हिडीओ तयार होतो जो माणसालादेखील खोटा वाटत नाही. जेव्हा एका सेलिब्रिटींचे चेहरे पोर्नोग्राफिक व्हिडीओंवर सुपरइम्पोज करण्यासाठी डीप लर्निंग तंत्रज्ञानाचा वापर केला, त्यावेळी या घटनेने सर्वांचे लक्ष वेधले. 2018 आणि नंतर 2020 च्या उत्तरार्धात डीपफेकचे तंत्रज्ञान समोर येऊ लागले; पण त्याला शोधणे कठीण झाले. काही महिन्यांपूर्वी एका दाक्षिणात्य अभिनेत्याच्या डीपफेक व्हिडीओवरून मोठा वाद निर्माण झाला. त्याच्या चेहर्याचा वापर करून अश्लील कंटेंट तयार करण्यात आला. बॉलीवूड आणि हॉलीवूडमधील अनेक डीपफेक व्हिडीओंनी सोशल मीडियावर खळबळ उडवली होती. एका प्रसिद्ध अमेरिकन कॉमेडियनचा डीपफेक व्हिडीओ तयार करून त्यातून फेक न्यूज पसरवण्यात आली. या घटनांनी स्पष्ट केलं की, डीपफेक फक्त मनोरंजनापुरता मर्यादित नाही, तर तो प्रतिष्ठा, सुरक्षावरही गंभीर परिणाम करू शकतो.
डीपफेकच्या काही सकारात्मक बाजूही आहेत. सगळे वाईट नाही. हे तंत्रज्ञान योग्य वापरल्यास अनेक क्षेत्रांत उपयुक्त ठरू शकते. चित्रपटसृष्टीत जुन्या कलाकारांना पुनर्जीवित करण्यासाठी किंवा ऐतिहासिक व्यक्तिरेखांसाठी डीपफेकचा वापर करता येतो. मालिका, चित्रपट, सीरिजमध्ये दिवंगत कलाकारांचा चेहरा डिजिटलरीत्या पुन्हा दाखवता येतो. शैक्षणिक भाषा शिकवण्यासाठी आणि चेहरा तयार करण्यात डीपफेकची मदत होते. गेमिंग आणि जाहिरातींमध्ये रिअॅलिस्टिक अनुभव देण्यासाठी हे तंत्रज्ञान वापरले जाते; पण तोटे खूप गंभीर आहेत. फेक न्यूज आणि नेत्यांचे किंवा प्रसिद्ध व्यक्तींचे बनावट भाषण तयार करून जनमतावर परिणाम करता येतो. सेलिब्रिटी किंवा सामान्य व्यक्तींचे चेहरे वापरून अश्लील व्हिडीओ तयार होतात. बँकिंग किंवा आयडी व्हेरिफिकेशन सिस्टीम फसवण्यासाठी डीपफेक वापरला जाऊ शकतो. विश्वासाची गोष्ट पाहता कोणता व्हिडीओ खरा आणि कोणता खोटा, हे ओळखणं अवघड होत चाललं आहे.
चित्रपट आणि व्हिज्युअल इफेक्टस् (VFX) उद्योगात, सोशल मीडिया कंटेंट क्रिएशनमध्ये, गेमिंग, अॅडव्हर्टायझिंग, आर्टिफिशियल ट्रेनिंग मॉडेल्स तयार करण्यासाठी डीपफेक तंत्रज्ञानाचा अभ्यास करतात. डीपफेक हे केवळ तांत्रिक प्रयोग राहिलेले नाहीत, तर डिजिटल शस्त्र बनले आहेत. सायबर गुन्हेगार लोकांच्या प्रतिमा वापरून ब्लॅकमेलिंग करतात. काही वेळा राजकीय प्रचारात विरोधकांना बदनाम करण्यासाठी फेक भाषणं वापरली जातात. महिलांविरोधातील ऑनलाईन अत्याचारात डीपफेकचा वाढता वापर चिंताजनक आहे. काही केसेसमध्ये बँकिंग फ्रॉड आणि डीप व्हॉईस कॉल्स वापरून पैसे उकळण्याचे प्रयत्न झाले आहेत. माहिती-तंत्रज्ञान अधिनियमांतर्गत अश्लील किंवा फसवे डिजिटल कंटेंट तयार करणे आणि प्रसारित करणे गुन्हा आहे. खोटी माहिती प्रसारित केल्यास शिक्षा आणि नुकसानभरपाईची तरतूद आहे.
कसा ओळखावा डीपफेक व्हिडीओ?
तुम्हाला वाटत असेल की, एखादा व्हिडीओ वा इमेज डीपफेक आहे, तर बारकाईने त्यात झालेल्या बदलांवर नजर टाकावी. अशा व्हिडीओमध्ये हात-पायाच्या हालचाली अस्पष्ट, धूसर आणि कमी गतिमान असलेली दिसून येते. चेहर्यावरील हावभाव अचानक बदलू शकतात, काही व्हिडीओंमध्ये व्हॉईस आणि द़ृश्य विसंगती असू शकते. व्हिडीओची गुणवत्ता खराब असणे वगैरे... सावधगिरीचे उपाय माहिती तपासल्याशिवाय फॉरवर्ड करू नका. फॅक्ट चेकिंग वेबसाईटचा वापर करा. सोशल मीडियावर संशयास्पद व्हिडीओ दिसल्यास रिपोर्ट करा. स्वतःच्या फोटो, व्हिडीओंचा प्रायव्हसी सेटिंग मजबूत ठेवा. कृत्रिम बुद्धिमत्ता डिटेक्शन टूल्स वापरून व्हिडीओ तपासा. चुकीची माहिती पसरवण्यासाठी, बनावट बातम्या तयार करण्यासाठी आणि प्रेक्षकांना फसविण्यासाठी प्रतिमा आणि व्हिडीओ सामग्रीमध्ये फेरफार करण्याच्या क्षमतेमुळे डीपफेक शोधून त्यांचा प्रतिकार करण्याचे प्रयत्न सुरू आहेत. डीपफेक थांबवण्यासाठी तंत्रज्ञानाचाच वापर आवश्यक आहे. अनेक संशोधक कृत्रिम बुद्धिमत्तेवर आधारित डिटेक्शन सिस्टीम तयार करत आहेत, ज्या चेहर्याच्या हालचाली, प्रकाशाच्या बदलांवरून खोटा व्हिडीओ ओळखतात. तसेच नागरिकांनी डिजिटल साक्षरता वाढवणं ही काळाची गरज आहे.