

न्यूयॉर्क : अनेक मार्गांनी कृत्रिम बुद्धिमत्तेची (एआय) चाचणी करता येते...संभाषणातील सहजता, आकलन क्षमता किंवा अत्यंत कठीण भौतिकशास्त्राची कोडी; पण काही चाचण्या, ज्या मानवांना तुलनेने सोप्या आणि मनोरंजक वाटतात, त्या एआयला गोंधळात पाडण्याची अधिक शक्यता असते. जरी एआय मानवी कौशल्याची उच्च पातळी आवश्यक असलेल्या कामांमध्ये उत्कृष्ट कामगिरी करत असले, तरी याचा अर्थ ते कृत्रिम सामान्य बुद्धिमत्तेच्या (AGI) जवळ पोहोचले आहेत, असे नाही. एजीआयला अत्यंत कमी माहितीचा वापर करून नवीन परिस्थितीत सामान्यीकरण आणि जुळवून घेण्याची क्षमता आवश्यक असते. मानवी शिकण्याचा आधार असलेली ही क्षमता एआयसाठी आजही एक आव्हान आहे.
एआयच्या सामान्यीकरण क्षमतेचे मूल्यांकन करण्यासाठी Abstraction and Reasoning Corpus (ARC) नावाची एक चाचणी तयार केली आहे. ही लहान, रंगीत-ग्रीड कोड्यांचा संग्रह आहे, ज्यामध्ये सोडवणार्याला एक छुपे नियम ओळखायला आणि तो नवीन ग्रीडवर लागू करायला सांगितले जाते. एआय संशोधक फ्रान्सवा चोलेट यांनी 2019 मध्ये ही चाचणी विकसित केली, जी नंतर ARC Prize Foundation चा आधार बनली. ही एक ना-नफा संस्था आहे जी ही चाचणी आयोजित करते, आता ही चाचणी सर्व प्रमुख एआय मॉडेल्ससाठी एक उद्योग बेंचमार्क म्हणून वापरली जाते.
ही संस्था नवीन चाचण्यादेखील विकसित करते आणि दोन चाचण्यांचा नियमित वापर करत आहे (ARC- AGI-1 आणि त्याची अधिक आव्हानात्मक आवृत्ती ARC- AGI-2). या आठवड्यात संस्था ARC- AGI-3 लाँच करत आहे, जे विशेषतः एआय एजंटची चाचणी घेण्यासाठी तयार केले आहे आणि ते व्हिडीओ गेम्स खेळण्यावर आधारित आहे. एआरसी (ARC) Prize Foundation चे अध्यक्ष, एआय संशोधक आणि उद्योजक ग्रेग कामरॅट यांच्याशी ‘सायंटिफिक अमेरिकन’ने चर्चा केली. या चाचण्या एआयचे मूल्यांकन कसे करतात, एजीआयच्या संभाव्यतेबद्दल त्या काय सांगतात आणि खोल-शिक्षण (deep-learning) मॉडेल्ससाठी त्या का आव्हानात्मक असतात, हे समजून घेण्यासाठी ही चर्चा करण्यात आली. जरी अनेक मानवांना या चाचण्या तुलनेने सोप्या वाटत असल्या, तरी एआयला त्या अवघड वाटतात.