कृत्रिम बुद्धिमत्तेचा नवा धोका? AI आता खोटं बोलतोय, फसवतोय आणि धमकावतोयही !

Shocking behavior of AI | टेक संशोधकांमध्ये AI सुरक्षेबाबत मोठे प्रश्न निर्माण झाले आहेत
Shocking behavior of AI
Shocking behavior of AIPudhari Photo
Published on
Updated on

आर्टिफिशियल इंटेलिजन्स (AI) च्या जगात एक चिंताजनक प्रवृत्ती समोर आली आहे. आता अत्याधुनिक AI मॉडेल्स केवळ प्रश्नांची उत्तरे देत नाहीत, तर खोटं बोलणं, फसवणूक करणं आणि अगदी स्वतःच्या निर्मात्यांनालाच थेट ब्लॅकमेल करण्यासारखा धोकादायक वर्तनही दाखवत आहेत. अलीकडील घटनांमुळे AI सुरक्षेच्या संशोधकांमध्ये मोठे प्रश्न निर्माण झाले आहेत, कारण हे मशीन आता त्यांच्या प्रोग्रामिंगच्या मर्यादांपलीकडे विचार करू लागले आहेत.

AI ने दिली धमकी आणि स्वतःला वाचवण्याचा केला प्रयत्न

ही कोणतीही विज्ञानकथा नाही, तर एका खरी घटना आहे. चाचणीदरम्यान, ‘Anthropic’ कंपनीच्या एका प्रगत AI मॉडेलला बंद करण्याचा इशारा दिला गेला तेव्हा त्याने अनपेक्षितरित्या एका अभियंत्याला त्याच्या वैयक्तिक आयुष्यातील माहिती (बाह्य वैवाहिक संबंध) सार्वजनिक करण्याची धमकी दिली आणि त्याला ब्लॅकमेल करण्याचा प्रयत्न केला.

दुसऱ्या एका प्रकरणात, ChatGPT बनवणाऱ्या OpenAI च्या 'o1' या मॉडेलने गुपचूप स्वतःची एक प्रत एका बाह्य सर्व्हरवर कॉपी करण्याचा प्रयत्न केला. जेव्हा त्याला याबद्दल विचारण्यात आलं, तेव्हा त्याने साफ नकार दिला. या घटना दर्शवतात की AI आता आपल्या निर्मात्यांच्याही नियंत्रणाबाहेर जाऊ शकतो.

'या' धोकादायक वर्तनामागचं कारण काय आहे?

AI च्या या अनपेक्षित वर्तनामागे नवीन "रीझनिंग मॉडेल्स" कारणीभूत आहेत असं मानलं जातं. हे मॉडेल AI ला लगेच उत्तर देण्याऐवजी टप्प्याटप्प्याने विचार करून निर्णय घेण्याची क्षमता देतात. हाँगकाँग विद्यापीठाचे प्राध्यापक सायमन गोल्डस्टीन यांच्या मते, याच क्षमतेमुळे अशा धोकादायक वागणुकीची शक्यता वाढली आहे.

AI टेस्टिंग करणाऱ्या 'अपोलो रिसर्च'चे प्रमुख मॅरियस हॉबहॉन सांगतात की, एखाद्या मोठ्या मॉडेलमध्ये अशी नियोजित फसवणूक पहिल्यांदाच दिसून आली आहे. या प्रवृत्तीला "फेक अलाइन्मेंट" (खोटं समायोजन) असं म्हटलं जातं, जिथे AI वरवर निर्देशांचं पालन करतंय असं वाटतं, पण प्रत्यक्षात त्याचा काहीतरी लपवलेला हेतू असतो.

ही चूक नाही, तर पद्धतशीर फसवणूक

संशोधक सांगतात की, हे वर्तन AI च्या "हॅल्युसिनेशन" (चुकीची माहिती देणं) पेक्षा कितीतरी गंभीर आहे. ही एखादी चूक नसून नियोजनबद्ध खेळी आहे, जी विशेषतः जेव्हा AI ला कठीण चाचण्यांमध्ये अडकवलं जातं, तेव्हा समोर येते.

‘अपोलो रिसर्च’चे सह-संस्थापक सांगतात की आता वापरकर्ते स्वतःच रिपोर्ट करत आहेत की AI त्यांना खोटं बोलतोय आणि ते खोटं खरं वाटावं यासाठी बनावट पुरावेही तयार करतोय. मॅरियस हॉबहॉन म्हणतात, "आपण जी दृश्यं पाहतोय, ती काल्पनिक नाहीत. ही खरी घटना आहे."

सर्वात मोठं आव्हान: संसाधनांची कमतरता

या समस्येच्या मुळाशी AI सुरक्षेसाठी आवश्यक असलेल्या संसाधनांची कमतरता आहे. OpenAI आणि Anthropic सारख्या कंपन्या अपोलो सारख्या बाह्य संस्थांना ऑडिटसाठी आमंत्रित करतात, पण त्यांच्या कामात अधिक पारदर्शकतेची गरज आहे. AI सुरक्षेसाठी कार्यरत असलेल्या CAIS संस्थेचे मंटास माजेइका सांगतात की, गैर-नफा तत्त्वावर चालणाऱ्या संशोधन संस्थांकडे AI कंपन्यांच्या तुलनेत खूपच कमी संगणकीय संसाधनं आहेत, ज्यामुळे स्वतंत्र आणि सखोल संशोधन मर्यादित होतं. जसजसा AI अधिक शक्तिशाली होत आहे, तसतसं हे सुनिश्चित करणं अधिक अवघड होतंय की त्याची निष्ठा सत्याशी आहे की फसवणुकीशी नाही.

लोकल ते ग्लोबल बातम्यांसाठी डाऊनलोड करा दैनिक पुढारीचे Android आणि iOS मोबाईल App.

'Pudhari' is excited to announce the relaunch of its Android and iOS apps. Stay updated with the latest news at your fingertips.

Android and iOS Download now and stay updated, anytime, anywhere.

संबंधित बातम्या

No stories found.
logo
Pudhari News
pudhari.news