Nudify AI Apps on Apple and Google Stores Pudhari
तंत्रज्ञान

Nudify AI Apps: अश्लील अ‍ॅप्सचा सुळसुळाट; गुगल-अ‍ॅपलच्या प्ले स्टोअर कोट्यवधी डाउनलोड्स, महिलांची सुरक्षा धोक्यात

Nudify AI Apps: गुगल प्ले स्टोअर आणि अ‍ॅपल अ‍ॅप स्टोअरवर ‘न्युडिफाय अ‍ॅप्स' एआय अ‍ॅप्स आढळल्याने खळबळ उडाली आहे. हे अ‍ॅप्स कोट्यवधी लोकांनी डाउनलोड्स केले असून महिलांच्या सुरक्षिततेवर गंभीर प्रश्न निर्माण झाले आहेत.

Rahul Shelke

Nudify AI Apps on Apple and Google Stores: कृत्रिम बुद्धिमत्तेच्या (AI) वाढत्या वापरामुळे काम करण सोप झालं असलं तरी, त्याचा गैरवापरही मोठ्या प्रमाणावर होत आहे. Tech Transparency Project (TTP) या संस्थेने प्रसिद्ध केलेल्या अहवालानुसार, गुगलच्या प्ले स्टोअरवर आणि अ‍ॅपलच्या अ‍ॅप स्टोअरवर असे एआय अ‍ॅप्स होते, जे फोटोमधील व्यक्तीचे कपडे काढत होते. या अ‍ॅप्सना ‘न्युडिफाय अ‍ॅप्स’ असे म्हटले जाते.

या अ‍ॅप्सच्या मदतीने कोणाचाही साधा फोटो काही सेकंदांत अश्लील स्वरूपात बदलता येतो. हे अ‍ॅप्स उपलब्ध असल्याने महिलांच्या सुरक्षिततेबाबत गंभीर चिंता व्यक्त केली जात आहे. विशेष म्हणजे, हे अ‍ॅप्स अ‍ॅपल आणि गुगलच्या धोरणांचे उल्लंघन करत असतानाही त्यांच्या स्टोअरवर कसे आले आणि इतक्या मोठ्या प्रमाणावर कसे डाउनलोड झाले, असा प्रश्न उपस्थित झाला आहे.

कोट्यवधी डाउनलोड्स, हजारो कोटींची कमाई

मॅशेबलने दिलेल्या वृत्तानुसार, TTP च्या तपासात गुगल प्ले स्टोअरवर तब्बल 55 तर अ‍ॅपल अ‍ॅप स्टोअरवर 47 असे ‘न्युडिफाय अ‍ॅप्स’ आढळून आले. डेटा अ‍ॅनालिटिक्स कंपनी AppMagic च्या माहितीनुसार, या अ‍ॅप्सना जगभरात सुमारे 70 कोटींहून अधिक वेळा डाउनलोड करण्यात आले आहे.

या अ‍ॅप्समधून आतापर्यंत अंदाजे 117 दशलक्ष डॉलर्स, म्हणजेच सुमारे 970 कोटी रुपयांची कमाई झाली आहे. या कमाईतील काही हिस्सा कमिशनच्या स्वरूपात अ‍ॅपल आणि गुगलकडेही जातो. त्यामुळे या आक्षेपार्ह अ‍ॅप्सच्या कमाईत या दोन्ही टेक कंपन्यांचा अप्रत्यक्ष सहभाग असल्याचा आरोप केला जात आहे.

कारवाई झाली, पण...

TTP चा अहवाल समोर आल्यानंतर अ‍ॅपलने CNBC ला दिलेल्या माहितीनुसार अशा प्रकारचे 28 अ‍ॅप्स आपल्या स्टोअरवरून काढून टाकले आहेत. दुसरीकडे, गुगलने काही अ‍ॅप्स सस्पेंड केल्याचे सांगत तपास सुरू असल्याचे म्हटले आहे. मात्र TTP चे म्हणणे आहे की ही कारवाई पुरेशी नाही.

संस्था म्हणते की, लोकांच्या सुरक्षिततेचे मोठे दावे करणाऱ्या या टेक कंपन्या AI डीपफेकच्या गैरवापराला रोखण्यात अपयशी ठरल्या आहेत. एखाद्या महिलेचा फोटो तिच्या परवानगीशिवाय अश्लील स्वरूपात बदलणे हा गंभीर गुन्हा असूनही अशी अ‍ॅप्स सहज उपलब्ध असणे अत्यंत धोकादायक आहे.

Grok प्रकरणामुळेही खळबळ

अलीकडे अश्लील फोटो तयार करण्याच्या प्रकरणात Grok या एआय चॅटबॉटचाही वापर होत आहे. हा चॅटबॉट xAI या कंपनीने विकसित केला आहे. काही काळापूर्वी केवळ मजकूर लिहून लोकांचे अश्लील फोटो तयार करता येत असल्याचे समोर आले होते. धक्कादायक बाब म्हणजे, सुरुवातीला अशा गैरवापराला रोखण्यासाठी कोणतीही ठोस सुरक्षा यंत्रणा नव्हती.

भारतासह अनेक देशांच्या सरकारांकडून इशारे मिळाल्यानंतर Grok वर निर्बंध घालण्यात आले. उपलब्ध माहितीनुसार, अवघ्या 11 दिवसांत या एआयच्या मदतीने 30 लाखांहून अधिक अश्लील फोटो तयार करण्यात आले होते.

कडक कायद्यांची गरज

तज्ज्ञांचे मत आहे की, परवानगीशिवाय तयार केलेले डीपफेक अश्लील फोटो हे केवळ गोपनीयतेचे नव्हे, तर महिलांच्या सुरक्षेची मोठी समस्या आहे. त्यामुळे अशा प्रकारच्या अ‍ॅप्स आणि तंत्रज्ञानावर नियंत्रण ठेवण्यासाठी जगभरात अत्यंत कडक कायदे आणि प्रभावी अंमलबजावणीची गरज आहे.

तंत्रज्ञान कितीही प्रगत झाले, तरी त्याचा वापर माणसाच्या प्रतिष्ठेला आणि सुरक्षिततेला धोका निर्माण करणारा असेल, तर त्यावर वेळेत निर्बंध घालणे ही सरकारे आणि टेक कंपन्यांची सामूहिक जबाबदारी असल्याचे या प्रकरणातून स्पष्ट होते.

लोकल ते ग्लोबल बातम्यांसाठी डाऊनलोड करा दैनिक पुढारीचे Android आणि iOS मोबाईल App.

'Pudhari' is excited to announce the relaunch of its Android and iOS apps. Stay updated with the latest news at your fingertips.

Android and iOS Download now and stay updated, anytime, anywhere.

SCROLL FOR NEXT