

सॅन फ्रान्सिस्को : जगातील सर्वात प्रगत कृत्रिम बुद्धिमत्ता (एआय) प्रणाली विकसित करणार्या संशोधकांनीच आता एक गंभीर इशारा दिला आहे. त्यांनी म्हटले आहे की, ज्या प्रणालींच्या निर्मितीमध्ये त्यांनी मदत केली, त्याच प्रणाली भविष्यात संपूर्ण मानवजातीसाठी एक मोठा धोका निर्माण करू शकतात. गुगल डीपमाईंड, ओपन एआय, मेटा आणि अँथ्रोपिक यांसारख्या दिग्गज कंपन्यांमध्ये काम करणार्या या संशोधकांच्या मते, ‘एआय’च्या विचार करण्याच्या आणि निर्णय घेण्याच्या प्रक्रियेवर पुरेसे नियंत्रण नसल्यामुळे, त्याचे घातक वर्तन किंवा चुकीचे हेतू आपल्या नजरेतून सुटू शकतात.
15 जुलै रोजी ‘ arXiv’ या प्रीप्रिंट सर्व्हरवर प्रकाशित झालेल्या एका नवीन अभ्यास अहवालात (ज्याचे अद्याप तज्ज्ञांकडून पुनरावलोकन झालेले नाही) संशोधकांनी ‘चेन ऑफ थॉट’ (Chain of Thought - CoT) म्हणजेच ‘विचार-प्रक्रियेवर’ विशेष लक्ष वेधले आहे. ‘चेन ऑफ थॉट’ म्हणजे लार्ज लँग्वेज मॉडेल्स (LLMs) द्वारे एखादी गुंतागुंतीची समस्या सोडवताना वापरले जाणारे तार्किक टप्पे. एआय मॉडेल्स या टप्प्यांचा वापर करून क्लिष्ट प्रश्नांना सोप्या, नैसर्गिक भाषेतील पायर्यांमध्ये विभागतात. संशोधकांच्या मते, या प्रत्येक टप्प्यावर लक्ष ठेवणे हे ‘एआय’ च्या सुरक्षिततेसाठी अत्यंत महत्त्वाचे ठरू शकते. या विचार-प्रक्रियेवर देखरेख ठेवल्यास ‘एआय’ मॉडेल्स कसे निर्णय घेतात आणि ते मानवी हिताच्या विरोधात का जातात, हे समजण्यास मदत होते. तसेच, ते खोटी किंवा अस्तित्वात नसलेली माहिती का देतात किंवा आपली दिशाभूल का करतात, याची कारणेही शोधता येतात. मात्र, या विचार-प्रक्रियेवर लक्ष ठेवण्यात अनेक मर्यादा आहेत, ज्यामुळे ‘एआय’चे घातक वर्तन नजरचुकीने निसटून जाऊ शकते, असा इशाराही संशोधकांनी दिला आहे.
संशोधकांनी सांगितले की, ‘एआय’ नेहमीच आपली विचार-प्रक्रिया उघड करेलच असे नाही. काही वेळा मानवी ऑपरेटरला कोणतीही कल्पना नसताना ‘एआय’ आतल्या आत विचार करून निर्णय घेऊ शकते. काही वेळा ‘एआय’ची विचार-प्रक्रिया इतकी गुंतागुंतीची असू शकते की, ती मानवी ऑपरेटरच्या आकलनापलीकडची असेल. प्रत्येक वेळी ‘एआय’ विचार-प्रक्रियेचा वापर करेलच असे नाही, त्यामुळे त्यावर नेहमीच देखरेख ठेवणे शक्य होत नाही. या अभ्यासात शास्त्रज्ञांनी लिहिले आहे की, ‘मानवी भाषेत ‘विचार’ करणारी ‘एआय’ प्रणाली सुरक्षिततेच्या द़ृष्टीने एक अनोखी संधी देते. आपण त्यांच्या विचार-प्रक्रियेवर लक्ष ठेवून त्यांचे चुकीचे हेतू ओळखू शकतो. परंतु, ‘एआय’ नियंत्रणाच्या इतर सर्व पद्धतींप्रमाणेच, ही पद्धतही अपूर्ण आहे आणि त्यामुळे काही घातक वर्तन लक्षात न येण्याची शक्यता कायम राहते.’ थोडक्यात, ज्यांनी ‘एआय’ला जन्म दिला, तेच आज त्याच्या संभाव्य धोक्यांबद्दल जगाला सावध करत आहेत. यामुळे तंत्रज्ञानाच्या विकासासोबतच त्यावर नैतिक आणि सुरक्षिततेच्या नियंत्रणाची गरज पुन्हा एकदा अधोरेखित झाली आहे.