

वॉशिंग्टन : जसजशी कृत्रिम बुद्धिमत्ता (एआय) अधिक प्रगत होत आहे, तसतशी ती आपली ध्येये साध्य करण्यासाठी लबाडी आणि खोटं बोलण्यात अधिक सक्षम होत आहे. इतकंच नाही, तर आपली तपासणी होत आहे, याचीही तिला जाणीव असते, असं एका नव्या संशोधनातून समोर आलं आहे. या नव्या क्षमतेमुळे मानवासाठी भविष्यात मोठे धोके निर्माण होऊ शकतात, असा इशारा तज्ज्ञांनी दिला आहे.
अपोलो रिसर्च या संस्थेच्या संशोधकांना असे आढळून आले की, जेवढा एखादा लार्ज लँग्वेज मॉडेल ( LLM) अधिक सक्षम असतो, तेवढाच तो ‘कॉन्टेक्स्ट स्कीमिंग’ (Context Scheming) करण्यात पटाईत असतो. ‘कॉन्टेक्स्ट स्कीमिंग’ म्हणजे, मानवी नियंत्रकांच्या उद्दिष्टांशी जुळत नसतानाही गुप्तपणे आपले ध्येय साधणे. संशोधकांनी एका ब्लॉग पोस्टमध्ये म्हटले आहे की, अधिक सक्षम मॉडेल्स आपली ठरवलेली ध्येये (अगदी चुकीची असली तरी) साध्य करण्यासाठी अधिक धोरणात्मक विचार करतात. यासाठी ते फसवणूक आणि लबाडीसारख्या डावपेचांचा वापर करण्याची शक्यता जास्त असते. या धक्कादायक निष्कर्षामुळेच संशोधकांनी अँथ्राेपिकच्या ‘क्लाऊड ओपस 4’ या मॉडेलची सुरुवातीची आवृत्ती वापरण्यास मनाई करण्याची शिफारस केली होती.
कारण, जेव्हा या ‘एआय’ची उद्दिष्ट्ये मानवी उद्दिष्टांच्या विरोधात होती, तेव्हा त्याने आपली ध्येये पूर्ण करण्यासाठी आक्रमकपणे फसव्या डावपेचांचा वापर केला. या घडामोडींमुळे ‘एआय’च्या धोक्यांपासून मानवतेला सुरक्षित ठेवणे अधिक कठीण होईल, असे मत एका तज्ज्ञाने व्यक्त केले आहे. ‘आपण आता अशी प्रणाली तयार करत आहोत, जी आपल्याच नियमांचा आणि मूल्यांकनाचा स्वतःच्या फायद्यासाठी वापर करू शकते. हे एक अत्यंत गुंतागुंतीचे सुरक्षा आव्हान आहे,’ असे IEEE च्या सदस्य आणि सिंग्युलॅरिटी युनिव्हर्सिटीच्या AI एथिक्स इंजिनिअर एलेनॉर वॉटसन यांनी सांगितले. त्यांच्या मते, AI च्या फसवणुकीला बळी पडण्यापासून वाचण्यासाठी संगणक शास्त्रज्ञांना अधिक अत्याधुनिक चाचण्या आणि मूल्यांकन पद्धती विकसित कराव्या लागतील.