Latest

Deep Fake : नारायण मूर्ती यांचा ‘डीपफेक’ व्हिडिओ व्हायरल; स्पष्टीकरणात म्हणाले…

सोनाली जाधव

पुढारी ऑनलाईन डेस्क : इन्फोसिसचे संस्थापक नारायण मूर्ती यांच्या ७० तासांचा कामाचा आठवडा या वक्तव्याची चर्चा खूप झाली. त्यांच्या या वक्तव्यावर संमिश्र प्रतिक्रिया आल्या. आता त्यांचा "एका दिवसात अडीच लाखाची कमाई" करण्याचे विधान चर्चेत आले आहे; पण व्हिडिओपाठीमागील सत्य नारायण मूर्ती यांनी आपल्या 'X' खात्यावर पोस्ट करत स्पष्टीकरण दिले आहे. "काही डीपफेक फोटो व व्हिडीओ बनवून त्यांनी बनावट मुलाखती सुद्धा प्रकाशित केल्या आहेत, मी अशा कोणत्याही योजनेशी संबंधित नाही किंवा त्याचे समर्थन करत नाही. इंटरनेट वापरकर्त्यांना असे कोणतेही व्हिडिओ आढळल्यास नियामक अधिकाऱ्यांकडे तक्रार करण्यास सांगितले आहे."

मूर्ती यांचा व्हायरल व्हिडिओ

मूर्ती यांचा एक व्हिडिओ व्हायरल होत आहे.  त्यामध्ये  ते आहेत की, " इलॉन मस्कसह मला आज नवा प्रोजेक्ट सादर करायचा आहे. 'क्वांटम एआय' हे इलॉन आणि माझ्य़ा टीमने विकसित केलेले जगातील पहिले क्वांटम कॉम्प्युटिंग सॉफ्टवेअर आहे. या व्हिडिओमधून मूर्ती 'क्वांटम एआय' मध्ये सामील होण्याचे आवाहन करत म्हणत आहेत की, त्यांच्या कामाच्या पहिल्याच दिवशी $3,000 पर्यंत कमवू शकतात"

या व्हायरल व्हिडिओवर मूर्ती यांनी 'X' अकाउंटवरील पोस्टमध्ये म्हटलं आहे की, "अलिकडच्या काही महिन्यांत सोशल मीडियावर अनेक डीपफेक व्हिडिओ समोर आले आहेत.  काही डीपफेक चित्रे आणि व्हिडिओ वापरून बनावट मुलाखती देखील प्रकाशित करतात. मी अशा प्रकारचा व्हिडिओ माझा नाही. मी लोकांना सावध करतो की या दुर्भावनापूर्ण साइट्सच्या सामग्रीला आणि उत्पादनांना बळी पडू नका." इंटरनेट वापरकर्त्यांना असे कोणतेही डीपफेक व्हिडिओ आढळल्यास नियामक अधिकाऱ्यांकडे तक्रार करावी, असे आवाहनही त्‍यांनी केले आहे.

Deep Fake म्हणजे काय?

हा सिंथेटिक मीडियाचा प्रकार आहे. एखादा फोटो किंवा व्हिडिओतील व्यक्तीचा चेहरा दुसऱ्या व्यक्तीच्या चेहऱ्याने रिप्लेस करता येतो. अशा पद्धतीने बनावट फोटो किंवा व्हिडिओ बनवणे यात फारसे काही नवीन नाही. पण Deep Fake मध्ये आर्टिफिशिअल इंटेलिजन्सचा वापर करून अतिशय तंतोतंत बनावट व्हिडिओ किंवा फोटो बनवला जातो. चेहऱ्यावरील अनैसर्गिक भाग, डोळे आणि डोके यांच्यात समन्वय नसणे यातून Deep Fake व्हिडिओ ओळखता येतो.

हेही वाचा 

SCROLL FOR NEXT