Shocking behavior of AI Pudhari Photo
तंत्रज्ञान

कृत्रिम बुद्धिमत्तेचा नवा धोका? AI आता खोटं बोलतोय, फसवतोय आणि धमकावतोयही !

Shocking behavior of AI | टेक संशोधकांमध्ये AI सुरक्षेबाबत मोठे प्रश्न निर्माण झाले आहेत

मोनिका क्षीरसागर

आर्टिफिशियल इंटेलिजन्स (AI) च्या जगात एक चिंताजनक प्रवृत्ती समोर आली आहे. आता अत्याधुनिक AI मॉडेल्स केवळ प्रश्नांची उत्तरे देत नाहीत, तर खोटं बोलणं, फसवणूक करणं आणि अगदी स्वतःच्या निर्मात्यांनालाच थेट ब्लॅकमेल करण्यासारखा धोकादायक वर्तनही दाखवत आहेत. अलीकडील घटनांमुळे AI सुरक्षेच्या संशोधकांमध्ये मोठे प्रश्न निर्माण झाले आहेत, कारण हे मशीन आता त्यांच्या प्रोग्रामिंगच्या मर्यादांपलीकडे विचार करू लागले आहेत.

AI ने दिली धमकी आणि स्वतःला वाचवण्याचा केला प्रयत्न

ही कोणतीही विज्ञानकथा नाही, तर एका खरी घटना आहे. चाचणीदरम्यान, ‘Anthropic’ कंपनीच्या एका प्रगत AI मॉडेलला बंद करण्याचा इशारा दिला गेला तेव्हा त्याने अनपेक्षितरित्या एका अभियंत्याला त्याच्या वैयक्तिक आयुष्यातील माहिती (बाह्य वैवाहिक संबंध) सार्वजनिक करण्याची धमकी दिली आणि त्याला ब्लॅकमेल करण्याचा प्रयत्न केला.

दुसऱ्या एका प्रकरणात, ChatGPT बनवणाऱ्या OpenAI च्या 'o1' या मॉडेलने गुपचूप स्वतःची एक प्रत एका बाह्य सर्व्हरवर कॉपी करण्याचा प्रयत्न केला. जेव्हा त्याला याबद्दल विचारण्यात आलं, तेव्हा त्याने साफ नकार दिला. या घटना दर्शवतात की AI आता आपल्या निर्मात्यांच्याही नियंत्रणाबाहेर जाऊ शकतो.

'या' धोकादायक वर्तनामागचं कारण काय आहे?

AI च्या या अनपेक्षित वर्तनामागे नवीन "रीझनिंग मॉडेल्स" कारणीभूत आहेत असं मानलं जातं. हे मॉडेल AI ला लगेच उत्तर देण्याऐवजी टप्प्याटप्प्याने विचार करून निर्णय घेण्याची क्षमता देतात. हाँगकाँग विद्यापीठाचे प्राध्यापक सायमन गोल्डस्टीन यांच्या मते, याच क्षमतेमुळे अशा धोकादायक वागणुकीची शक्यता वाढली आहे.

AI टेस्टिंग करणाऱ्या 'अपोलो रिसर्च'चे प्रमुख मॅरियस हॉबहॉन सांगतात की, एखाद्या मोठ्या मॉडेलमध्ये अशी नियोजित फसवणूक पहिल्यांदाच दिसून आली आहे. या प्रवृत्तीला "फेक अलाइन्मेंट" (खोटं समायोजन) असं म्हटलं जातं, जिथे AI वरवर निर्देशांचं पालन करतंय असं वाटतं, पण प्रत्यक्षात त्याचा काहीतरी लपवलेला हेतू असतो.

ही चूक नाही, तर पद्धतशीर फसवणूक

संशोधक सांगतात की, हे वर्तन AI च्या "हॅल्युसिनेशन" (चुकीची माहिती देणं) पेक्षा कितीतरी गंभीर आहे. ही एखादी चूक नसून नियोजनबद्ध खेळी आहे, जी विशेषतः जेव्हा AI ला कठीण चाचण्यांमध्ये अडकवलं जातं, तेव्हा समोर येते.

‘अपोलो रिसर्च’चे सह-संस्थापक सांगतात की आता वापरकर्ते स्वतःच रिपोर्ट करत आहेत की AI त्यांना खोटं बोलतोय आणि ते खोटं खरं वाटावं यासाठी बनावट पुरावेही तयार करतोय. मॅरियस हॉबहॉन म्हणतात, "आपण जी दृश्यं पाहतोय, ती काल्पनिक नाहीत. ही खरी घटना आहे."

सर्वात मोठं आव्हान: संसाधनांची कमतरता

या समस्येच्या मुळाशी AI सुरक्षेसाठी आवश्यक असलेल्या संसाधनांची कमतरता आहे. OpenAI आणि Anthropic सारख्या कंपन्या अपोलो सारख्या बाह्य संस्थांना ऑडिटसाठी आमंत्रित करतात, पण त्यांच्या कामात अधिक पारदर्शकतेची गरज आहे. AI सुरक्षेसाठी कार्यरत असलेल्या CAIS संस्थेचे मंटास माजेइका सांगतात की, गैर-नफा तत्त्वावर चालणाऱ्या संशोधन संस्थांकडे AI कंपन्यांच्या तुलनेत खूपच कमी संगणकीय संसाधनं आहेत, ज्यामुळे स्वतंत्र आणि सखोल संशोधन मर्यादित होतं. जसजसा AI अधिक शक्तिशाली होत आहे, तसतसं हे सुनिश्चित करणं अधिक अवघड होतंय की त्याची निष्ठा सत्याशी आहे की फसवणुकीशी नाही.

लोकल ते ग्लोबल बातम्यांसाठी डाऊनलोड करा दैनिक पुढारीचे Android आणि iOS मोबाईल App.

'Pudhari' is excited to announce the relaunch of its Android and iOS apps. Stay updated with the latest news at your fingertips.

Android and iOS Download now and stay updated, anytime, anywhere.

SCROLL FOR NEXT