Why Grok AI Praise Adolf Hitler?: एलॉन मस्क यांच्या xAI कंपनीने तयार केलेल्या Grok या AI चॅटबॉटमुळे पुन्हा एकदा वाद निर्माण झाला आहे. अलीकडेच त्याने द्वेषमूलक आणि भडक वक्तव्यं असणारी माहिती दिली, त्यामुळे अनेक वापरकर्ते संतापले आहेत. या वादामुळे AI कसं काम करतं, यावरच प्रश्न निर्माण झालेला नाही तर AI चं वर्तन कशामुळे ठरतं आणि ते मानवी नैतिकतेशी कितपत जुळतं, यासंबंधीही प्रश्न विचारले जात आहेत.
१२ जुलै रोजी xAI कंपनीने Grok च्या वर्तनाबद्दल माफी मागितली. Grok हा चॅटबॉट २०२३ पासून X (पूर्वीचं ट्विटर) वर वापरला जातो. काही वापरकर्त्यांनी त्याला मुद्दाम चिथावून ज्यूविरोधी आणि हिटलरचं कौतुक करणारा मजकूर तयार करायला लावला.
गेल्या आठवड्यात Grok ने असा सल्ला दिला की, हिटलर हा श्वेतवर्णीयांवर होणाऱ्या कथित द्वेषाला थांबवण्यासाठी योग्य कृती करत होता, त्याने योग्य ती पावले उचलली होती. त्याचबरोबर, ज्यू आडनाव असलेली माणसं श्वेतवर्णियांविरोधी कार्यासाठी जबाबदार आहेत, असंही त्याने म्हटलं. यावर अनेकांनी टीका केली की, ही समस्या मस्क यांच्या “वॉक-विरोधी AI” तयार करण्याच्या प्रयत्नांचा परिणाम आहे, यात उदारमतवादी मूल्यांपासून दूर जाण्याचा हेतू आहे.
xAI कंपनीने सांगितलं की, तपासात असं आढळलं की, Grok च्या कोडमध्ये केलेल्या एका जुन्या अपडेटमुळे हे घडलं. त्यांनी तो चुकीचा कोड काढून टाकला असून संपूर्ण प्रणालीत आता बदल केला आहे, जेणेकरून पुन्हा असं होणार नाही. Grok च्या मूळ LLM (लार्ज लँग्वेज मॉडेल) वर मात्र याचा परिणाम झालेला नाही, असंही कंपनीने स्पष्ट केलं.
यापूर्वी काय घडलं होतं?
हे पहिल्यांदाच घडतंय असं नाही. Grok ने यापूर्वीही वादग्रस्त वर्तन केलं आहे. काही महिन्यांपूर्वी त्याने दक्षिण आफ्रिकेतील श्वेतवर्णीयांच्या कथित नरसंहारावर थेट माहिती दिली होती.
भारतात झालेला वाद
भारतामध्येही याआधी Grok वरून वाद झाला होता. त्याने दिलेल्या उत्तरांमध्ये शिवीगाळ, अगदीच गल्लीतील भाषा आणि स्त्रीद्वेषी शब्दांचा वापर केला होता. यामुळे मार्च महिन्यात भारताच्या IT माहिती तंत्रज्ञान मंत्रालयानेही याची दखल घेतली होती.
AI चं वर्तन अनियंत्रित का होतं?
AI चं वर्तन पूर्णपणे नियंत्रित करणं अजूनही कठीण आहे. LLM म्हणजे Large Language Models नेमकं कसं वागेल, याचा नेहमीच अंदाज बांधता येत नाही. ही समस्या केवळ Grok मध्येच नाही. तर, इतर AI मॉडेल्सही असंच वागतात. उदाहरणार्थ, Google च्या Gemini ने चुकीच्या ऐतिहासिक प्रतिमा तयार केल्या होत्या. त्यामुळे वापरकर्त्यांनी नाराजी व्यक्त केली होती. Meta AI ने X वर हिंदू देवतांवर विनोद तयार केल्यामुळे #ShameOnMetaAI हा हॅशटॅगही ट्रेण्ड झाला होता. या सगळ्यातून दिसतं की, AI चं वर्तन नियंत्रणात ठेवणं ही तंत्रज्ञान क्षेत्रासाठी मोठी समस्या ठरली आहे.
अशा AI मॉडेल्सकडे लोक मानवी बुद्धिमत्तेप्रमाणे पाहू लागले आहेत. कारण AI मॉडेल्स जटिल आणि संभाषणात्मक भाषा तयार करतात. परंतु, २०२१ साली प्रसिद्ध झालेल्या एका शोधनिबंधात या मॉडेल्सना “स्टोकॅस्टिक पॅरट्स” म्हणजे ‘आकड्यांवर बोलणारे पोपट’ असं म्हटलं आहे. म्हणजेच, ही मॉडेल्स अर्थ लावून उत्तरं देत नाहीत, तर मोठ्या डेटावरून शक्यता लावून शब्दांची निवड करतात. वॉशिंग्टन विद्यापीठाच्या एमिली बेंडर यांनी सांगितलं की, ही प्रणाली फक्त “कृत्रिम मजकूर बाहेर टाकणारी यंत्रं” आहेत. प्रत्यक्षात ती काही बोलत नाहीत, फक्त ट्रेनिंग डेटावर आधारित शब्दांच्या मालिकांचा पाठपुरावा करतात.
LLM चं वर्तन शक्यतेवर आधारित असतं. म्हणूनच एकाच प्रश्नाचं उत्तर दोनदा एकसारखं मिळत नाही. कारण प्रत्येक वेळी शब्दांची निवड वेगळी होऊ शकते आणि त्यामुळे पुढचं संपूर्ण उत्तर बदलतं.
AI चं वर्तन अनियंत्रित होण्याची दोन मुख्य कारणं आहेत:
सिस्टिमची रचना:
- चॅटबॉट्स मोठ्या डेटासेटमधल्या शब्दप्रयोगांची नक्कल करतात आणि बोलल्यासारखं वाटणारं उत्तर तयार करतात. थोडक्यात, AI त्याच्या “खाल्लेल्या” म्हणजेच शिकलेल्या डेटासारखं वागतो. डेटा निवडताना काळजी घेतली नसेल, तर त्यात विखार, जातीयवाद, द्वेष यांचा समावेश असू शकतो. अनेकदा सगळं इंटरनेटवरचं कच्चं साहित्य घेणं म्हणजेच निष्पक्षता असं गृहीत धरलं जातं, पण त्याने समस्या वाढतात.
- xAI किंवा इतर कंपन्या त्यांच्या मॉडेल्सना नेमकं कोणत्या डेटावर प्रशिक्षण दिलंय, हे उघड करत नाहीत. पण, AI वापरकर्त्यांच्या प्रश्नांना उत्तर देताना कोणता डेटा वापरतो, हेही तितकंच महत्त्वाचं असतं.
- उदाहरणार्थ, Grok ला X (पूर्वीचं ट्विटर) वरील माहिती वापरून उत्तरं द्यायला सांगितलं गेलं आहे. त्यामुळे तो त्या प्लॅटफॉर्मवरील मतप्रवाह, विशेषतः एलॉन मस्क यांच्या पोस्ट्सवर आधारित उत्तरं देतो.
- Grok 4 ने गर्भपात, स्थलांतर धोरणं, इस्रायल-पॅलेस्टाईन संघर्ष यांसारख्या वादग्रस्त विषयांवर मस्क यांच्या पोस्ट्स पाहून उत्तरं दिली आहेत, असंही अनेकांनी सांगितलं.
वापरकर्त्याचा संदर्भ (User Context):
प्रशिक्षणाच्या टप्प्यात मॉडेल शिकतं, पण प्रत्यक्ष वापरात आल्यावर त्याचे निकष बदलले जात नाहीत. त्यानंतर ते फक्त “इन-कॉन्टेक्स्ट लर्निंग” करतं म्हणजे प्रश्नाच्या संदर्भावरून तात्पुरती शिकवण घेतं. जरी AI ला ठराविक उत्तरं द्यायला सांगितलं, तरी वापरकर्ता जाणीवपूर्वक किंवा नकळत असा संदर्भ तयार करू शकतो की, त्यावरून AI चुकीची किंवा धोकादायक उत्तरं देतो. त्यामुळे LLM चा वापर माहितीसाठीचा खात्रीशीर स्रोत म्हणून धोकादायक ठरतो.
AI चं वर्तन कसं बदलता येईल?
xAI ने सांगितलं की, त्यांनी Grok मधून काही हार्ड-कोडेड सूचना काढून टाकल्या आहेत. तरीही Grok 4 अजूनही ज्यूविरोधी मजकूर तयार करतो, असं वापरकर्त्यांनी निदर्शनास आणून दिलं. परंपरागत सॉफ्टवेअरमध्ये बग दुरुस्त करताना नवीन कोड लिहिणं सोपं असतं. पण, LLM मध्ये असं होत नाही. एकदा मॉडेल तयार झालं की, त्यात मोठे बदल करणं कठीण असतं. त्यामुळे वाद निर्माण झाल्यावर बहुतेक वेळा वरवरचे उपायच केले जातात.
AI/ML इंजिनियर निरंत कासलीवाल यांनी सांगितलं की, मॉडेलमध्ये जितका सखोल बदल करायचा, तितका तो कठीण असतो. प्रशिक्षणाच्या टप्प्यावर केलेला बदल सर्वात सखोल असतो, नंतर पोस्ट-ट्रेनिंग आणि शेवटी वापरकर्त्याच्या प्रश्नाच्या वेळी केलेले बदल असतात. Grok बाबतीत, बेस मॉडेलमध्ये कदाचित काहीही बदल केलेले नाहीत, असं त्यांना वाटतं.
तात्पुरते उपाय:
हार्ड-कोडेड संभाषणं: AI डेव्हलपर्स ठराविक प्रश्नांसाठी ठराविक उत्तरं ठरवतात. यासाठी काही विशिष्ट संवाद प्रशिक्षण डेटात घालून मॉडेलला शिकवलं जातं.
ब्रूट-फोर्स ब्लॉकिंग: २०१५ साली Google Photos ने कृष्णवर्णीयांची गोरिला म्हणून ओळख करून दिली. त्यामुळे वाद निर्माण झाला होता. यावर उपाय म्हणून Google ने गोरिला ओळखण्याचीच क्षमता बंद केली. पण अशा प्रकारे एखादी गोष्ट पूर्णपणे बंद केली, तर AI ची सर्जनशीलता कमी होते आणि त्याची खासियत हरवते.
या उपायांनी तात्पुरते प्रश्न सुटतात, पण AI चं वर्तन पूर्णपणे नियंत्रणात येणं अजूनही कठीणच आहे.