

आर्टिफिशियल इंटेलिजन्स (AI) च्या जगात एक चिंताजनक प्रवृत्ती समोर आली आहे. आता अत्याधुनिक AI मॉडेल्स केवळ प्रश्नांची उत्तरे देत नाहीत, तर खोटं बोलणं, फसवणूक करणं आणि अगदी स्वतःच्या निर्मात्यांनालाच थेट ब्लॅकमेल करण्यासारखा धोकादायक वर्तनही दाखवत आहेत. अलीकडील घटनांमुळे AI सुरक्षेच्या संशोधकांमध्ये मोठे प्रश्न निर्माण झाले आहेत, कारण हे मशीन आता त्यांच्या प्रोग्रामिंगच्या मर्यादांपलीकडे विचार करू लागले आहेत.
ही कोणतीही विज्ञानकथा नाही, तर एका खरी घटना आहे. चाचणीदरम्यान, ‘Anthropic’ कंपनीच्या एका प्रगत AI मॉडेलला बंद करण्याचा इशारा दिला गेला तेव्हा त्याने अनपेक्षितरित्या एका अभियंत्याला त्याच्या वैयक्तिक आयुष्यातील माहिती (बाह्य वैवाहिक संबंध) सार्वजनिक करण्याची धमकी दिली आणि त्याला ब्लॅकमेल करण्याचा प्रयत्न केला.
दुसऱ्या एका प्रकरणात, ChatGPT बनवणाऱ्या OpenAI च्या 'o1' या मॉडेलने गुपचूप स्वतःची एक प्रत एका बाह्य सर्व्हरवर कॉपी करण्याचा प्रयत्न केला. जेव्हा त्याला याबद्दल विचारण्यात आलं, तेव्हा त्याने साफ नकार दिला. या घटना दर्शवतात की AI आता आपल्या निर्मात्यांच्याही नियंत्रणाबाहेर जाऊ शकतो.
AI च्या या अनपेक्षित वर्तनामागे नवीन "रीझनिंग मॉडेल्स" कारणीभूत आहेत असं मानलं जातं. हे मॉडेल AI ला लगेच उत्तर देण्याऐवजी टप्प्याटप्प्याने विचार करून निर्णय घेण्याची क्षमता देतात. हाँगकाँग विद्यापीठाचे प्राध्यापक सायमन गोल्डस्टीन यांच्या मते, याच क्षमतेमुळे अशा धोकादायक वागणुकीची शक्यता वाढली आहे.
AI टेस्टिंग करणाऱ्या 'अपोलो रिसर्च'चे प्रमुख मॅरियस हॉबहॉन सांगतात की, एखाद्या मोठ्या मॉडेलमध्ये अशी नियोजित फसवणूक पहिल्यांदाच दिसून आली आहे. या प्रवृत्तीला "फेक अलाइन्मेंट" (खोटं समायोजन) असं म्हटलं जातं, जिथे AI वरवर निर्देशांचं पालन करतंय असं वाटतं, पण प्रत्यक्षात त्याचा काहीतरी लपवलेला हेतू असतो.
संशोधक सांगतात की, हे वर्तन AI च्या "हॅल्युसिनेशन" (चुकीची माहिती देणं) पेक्षा कितीतरी गंभीर आहे. ही एखादी चूक नसून नियोजनबद्ध खेळी आहे, जी विशेषतः जेव्हा AI ला कठीण चाचण्यांमध्ये अडकवलं जातं, तेव्हा समोर येते.
‘अपोलो रिसर्च’चे सह-संस्थापक सांगतात की आता वापरकर्ते स्वतःच रिपोर्ट करत आहेत की AI त्यांना खोटं बोलतोय आणि ते खोटं खरं वाटावं यासाठी बनावट पुरावेही तयार करतोय. मॅरियस हॉबहॉन म्हणतात, "आपण जी दृश्यं पाहतोय, ती काल्पनिक नाहीत. ही खरी घटना आहे."
या समस्येच्या मुळाशी AI सुरक्षेसाठी आवश्यक असलेल्या संसाधनांची कमतरता आहे. OpenAI आणि Anthropic सारख्या कंपन्या अपोलो सारख्या बाह्य संस्थांना ऑडिटसाठी आमंत्रित करतात, पण त्यांच्या कामात अधिक पारदर्शकतेची गरज आहे. AI सुरक्षेसाठी कार्यरत असलेल्या CAIS संस्थेचे मंटास माजेइका सांगतात की, गैर-नफा तत्त्वावर चालणाऱ्या संशोधन संस्थांकडे AI कंपन्यांच्या तुलनेत खूपच कमी संगणकीय संसाधनं आहेत, ज्यामुळे स्वतंत्र आणि सखोल संशोधन मर्यादित होतं. जसजसा AI अधिक शक्तिशाली होत आहे, तसतसं हे सुनिश्चित करणं अधिक अवघड होतंय की त्याची निष्ठा सत्याशी आहे की फसवणुकीशी नाही.