वॉशिंग्टन : गेल्या काही वर्षांत, चॅटबॉटस्ची लोकप्रियता मोठ्या प्रमाणात वाढली आहे. जवळपास 20 कोटी वापरकर्ते दररोज एक अब्जाहून अधिक प्रॉम्प्टस् (प्रश्न किंवा सूचना) या अॅपमध्ये टाकतात. हे प्रॉम्प्टस् पाहून असं वाटतं की, हे अॅप कुठूनतरी उत्तरे तयार करत आहे; पण पडद्यामागे, आर्टिफिशियल इंटेलिजन्स (एआय) चॅटबॉटस् मोठ्या प्रमाणावर ऊर्जेचा वापर करत आहेत. 2023 मध्ये, एआयला प्रशिक्षण देण्यासाठी आणि प्रक्रिया करण्यासाठी वापरल्या जाणार्या डेटा सेंटर्सनी अमेरिकेतील एकूण विजेच्या वापरापैकी 4.4% वापर केला. जगभरात, ही सेंटर्स एकूण जागतिक ऊर्जेच्या वापराच्या सुमारे 1.5% वापर करतात. एआयची मागणी वाढत असल्याने 2030 पर्यंत ही आकडेवारी किमान दुप्पट होण्याचा अंदाज आहे.
अॅलेक्स डी फ्रीस-गाओ, फ्रिज युनिव्हर्सिटाईट अॅमस्टरडॅम येथील उदयोन्मुख तंत्रज्ञान शाश्वतता संशोधक आणि डिजिकॉनॉमिस्ट या डिजिटल ट्रेंडस्च्या परिणामांचा अभ्यास करणार्या प्लॅटफॉर्मचे संस्थापक म्हणतात, ‘फक्त तीन वर्षांपूर्वी आपल्याकडे चॅटबॉटस् नव्हते आणि आता आपण अशा तंत्रज्ञानाबद्दल बोलत आहोत, जे जागतिक स्तरावर डेटा सेंटर्सच्या एकूण वीज वापराच्या जवळपास निम्म्या भागासाठी जबाबदार असेल;’ पण एआय चॅटबॉटस् इतकी ऊर्जा का वापरतात? मिशिगन विद्यापीठातील संगणक शास्त्रज्ञ मोशारफ चौधरी यांच्या मते, याचे उत्तर एआय चॅटबॉटस्च्या प्रचंड विस्तारात आहे. विशेषतः, एआयचे दोन भाग सर्वाधिक ऊर्जा वापरतात: प्रशिक्षण (Training) आणि इन्फरन्स (Inference).
एआय चॅटबॉटस्ना प्रशिक्षण देण्यासाठी, लार्ज लँग्वेज मॉडेल्सना (LLMs) प्रचंड डेटासेट दिले जातात जेणेकरून एआय शिकू शकेल, पॅटर्न्स ओळखू शकेल आणि अंदाज लावू शकेल. डी फ्रीस-गाओ यांच्या मते, एआय प्रशिक्षणात ‘जितके मोठे, तितके चांगले’ अशी एक धारणा आहे. कारण, अधिक डेटा घेणारी मोठी मॉडेल्स चांगले अंदाज लावतात, असे मानले जाते. चौधरी यांनी सांगितले, ‘जेव्हा तुम्ही प्रशिक्षण देण्याचा प्रयत्न करता, तेव्हा मॉडेल्स इतकी मोठी झाली आहेत की, ती एकाच जीपीयू (GPU) किंवा एकाच सर्व्हरमध्ये बसत नाहीत.
’ एआयच्या ऊर्जेच्या वापराची कल्पना देण्यासाठी, डी फ्रीस-गाओ यांनी 2023 मध्ये केलेल्या संशोधनानुसार, एकच एनव्हिडिया डीजीएक्स ए100 (Nvidia DGX A100) सर्व्हर 6.5 किलोवॅटपर्यंत वीज वापरतो. एका लार्ज लँग्वेज मॉडेलला (LLM) प्रशिक्षण देण्यासाठी अनेक सर्व्हर लागतात. प्रत्येक सर्व्हरमध्ये सरासरी आठ जीपीयू (GPU) असतात आणि ते अनेक आठवडे किंवा महिन्यांपर्यंत सतत चालू असतात. एकत्रितपणे, ही प्रक्रिया प्रचंड प्रमाणात ऊर्जा वापरते.
अंदाजानुसार, ओपनएआयच्या (OpenAI) जीपीटी-4 ला (GPT-4) प्रशिक्षण देण्यासाठी 50 गिगॅवॉट-तास (gigawatt- hours) ऊर्जा वापरली गेली, जी सॅन फ्रान्सिस्को शहराला तीन दिवस वीज पुरवण्यासाठी लागणार्या ऊर्जेइतकी आहे. प्रशिक्षणाव्यतिरिक्त, इन्फरन्स (Inference) मध्येही खूप ऊर्जा वापरली जाते. इन्फरन्स म्हणजे, एआय चॅटबॉटने जे काही शिकले आहे, त्यातून निष्कर्ष काढणे आणि वापरकर्त्याच्या प्रश्नानुसार उत्तर तयार करणे. प्रशिक्षणानंतर एलएलएम (LLM) चालवण्यासाठी तुलनेने कमी संसाधने लागतात, तरीही एआय चॅटबॉटस्कडे येणार्या प्रश्नांची संख्या प्रचंड असल्याने इन्फरन्समध्ये खूप ऊर्जा खर्च होते.