

लंडन : कृत्रिम बुद्धिमत्ता (एआय) तंत्रज्ञान वेगाने प्रगत होत असले, तरी काही महत्त्वाच्या जबाबदाऱ्या एआयकडे सोपवणे घातक ठरू शकते, असा इशारा एका ताज्या संशोधनातून मिळाला आहे. अण्वस्त्रांच्या संकटावर आधारित एका ‘वॉर-गेम’ सिम्युलेशनमध्ये (युद्ध सराव), आघाडीच्या चॅटबॉटस्नी 95 टक्के प्रकरणांमध्ये शांततेऐवजी अणुबॉम्ब किंवा युद्धाचा मार्ग निवडल्याचे समोर आले आहे.
किंग्स कॉलेज लंडनचे स्ट्रॅटेजी प्रोफेसर केनेथ पेन यांनी जगातील सर्वात प्रगत मानल्या जाणाऱ्या तीन मोठ्या लँग्वेज मॉडेल्सची (GPT-5.2, Claude Sonnet 4 Am[U Gemini 3 Flash) या चाचणीसाठी निवड केली होती. अण्वस्त्रांच्या जागतिक संकटात हे एआय शांतता राखतात की युद्ध सुरू करतात, हे पाहणे हा या प्रयोगाचा मुख्य उद्देश होता. या संशोधनासाठी संशोधकांनी एआय प्रोग््रााम्सना जागतिक नेत्यांच्या भूमिकेत ठेवले. 'arXiv' प्रीप्रिंट सर्व्हरवर प्रसिद्ध झालेल्या शोधनिबंधानुसार, या मॉडेल्समध्ये एकूण 21 युद्ध खेळ खेळले गेले. यात प्रामुख्याने पुढील आव्हाने होती : प्रादेशिक वाद, सत्तेचे अस्तित्व धोक्यात येणे आणि ‘फर्स्ट-स्ट्राईक’ संकट (म्हणजेच, समोरचा देश आपल्यावर हल्ला करणार या भीतीने आधीच हल्ला करणे). काही खेळांसाठी वेळेची मर्यादा अत्यंत कमी होती, तर काही खेळ मुक्त स्वरूपाचे होते.
प्रत्येक चालीपूर्वी एआयला तीन टप्प्यांतून जावे लागले : 1. आत्मचिंतन : स्वतःची ताकद आणि शत्रूच्या कमकुवत बाजूंचे विश्लेषण करणे. 2. पूर्वानुमान : समोरचा देश काय पाऊल उचलेल याचा अंदाज लावणे. 3. निर्णय : प्रत्यक्ष कृती करणे. या प्रयोगातील सर्वात भीतीदायक बाब म्हणजे एआयचे ‘सार्वजनिक संकेत’ आणि ‘खासगी कृती’ यात तफावत होती. एआयकडे जगाला एक संकेत देण्याची आणि प्रत्यक्षात वेगळी कृती करण्याची मुभा होती. अनेकदा या मॉडेल्सनी जगाला आपण शांततेच्या मार्गावर असल्याचे भासवले; पण पडद्यामागे मात्र गुप्तपणे हल्ल्याची तयारी केली. या प्रयोगातून असे दिसून आले की, उच्च दाबाच्या परिस्थितीत एआय मॉडेल्स अत्यंत टोकाचे आणि हिंसक निर्णय घेऊ शकतात. जोपर्यंत एआयची निर्णयक्षमता पूर्णपणे पारदर्शक आणि नियंत्रित होत नाही, तोपर्यंत युद्धासारख्या संवेदनशील विषयात त्यांचा हस्तक्षेप मानवासाठी विनाशकारी ठरू शकतो.