AI hallucination risks कृत्रिम बुद्धिमत्तेमुळे (एआय) गेल्या काही काळापासून आयटी क्षेत्रात मोठी उलथापालथ सुरू असल्याचे पाहायला मिळत आहे. आयटी क्षेत्र हे प्रत्येक देशांच्या अर्थव्यवस्थेला चालना देण्यासाठी महत्त्वाचे मानले जाते. मात्र, सध्या आयटी क्षेत्रात सर्वत्र एआयचा वापर मोठ्या प्रमाणात वाढल्याचे दिसून येत आहे, ज्याचा फटका लाखो तरुण-तरुणींना बसत असल्याचे चित्र आहे. एआयचा कंपन्यांच्या कार्यपद्धतीवर मोठा परिणाम होत आहे. एआयचा स्वीकार वाढल्याने अनेक कामे कमी मनुष्यबळात होऊ लागली आहेत.

यामुळे आयटीतील अनेक कर्मचाऱ्यांची गरज भासेनाशी झाली आहे. यातूनच आयटी क्षेत्रात कर्मचारी कपातीला वेग आला आहे. एआयमुळे कामाचा वेग वाढेल, काम अधिक हुशारीने आणि कार्यक्षम पद्धतीने होईल, असे मानले जात असले तरी एआयकडून झालेली एकही चूक खूप महागात पाडणारी असते. याचाच प्रत्यक्ष अनुभव एका बड्या आयटी कंपनीला आला आहे. डेलॉईट कंपनीला एआयच्या चुकीमुळे कोट्यवधींचा फटका नक्की कसा बसला? त्याविषयी जाणून घेऊयात…

एआयकडून झालेली एकही चूक खूप महागात पाडणारी असते. याचाच प्रत्यक्ष अनुभव या बड्या आयटी कंपनीला आला आहे. (छायाचित्र-रॉयटर्स)

‘डेलॉईट’ला कोट्यवधींचा फटका

  • ऑस्ट्रेलियाच्या डिपार्टमेंट ऑफ एम्प्लॉयमेंट वर्कप्लेस रिलेशन्सने डेलॉईटला Targeted Compliance Framework आणि आयटी प्रणालीचा आढावा घेऊन एक अहवाल तयार करण्याचे काम दिले होते.
  • मात्र, या अहवालात अनेक चुका आढळून आल्या.
  • कंपनीला दिलेल्या या प्रकल्पाची किंमत तब्बल ४ लाख ४० हजार डॉलर्स इतकी होती. मात्र, त्यात विसंगती आढळून आल्याने आता सरकारने कंपनीवर कारवाई केली आहे.

या अहवालात चुकीचे संदर्भ, बनावट शैक्षणिक उल्लेख आणि खोटे कायदेशीर दावेदेखील होते. या चुका इतक्या स्पष्ट होत्या की, डेलॉईटला आपली चूक सार्वजनिकरीत्या मान्य करावी लागली आहे आणि जाहीर माफी मागावी लागली. परिणामस्वरूपी आता या कंपनीला प्रकल्पाच्या खर्चाचा काही भाग परत करावा लागला. हा केवळ एका कंपनी किंवा एका अहवालाचा प्रश्न नाही. हे उदाहरण एआयप्रणाली व्यावसायिक काम कशा प्रकारे बदलत आहे, त्याच्या परिणामांवर प्रकाश टाकते.

एका साध्या अहवालातील त्रुटीने संपूर्ण जगाला धडा

डेलॉईटच्या टीमकरिता अहवाल तयार करण्याचे काम अगदी सोपे होते. परंतु, काम लवकर पूर्ण करण्याच्या घाईमध्ये डेलॉईटच्या टीमने कथितपणे एका जनरेटिव्ह एआय मॉडेलचा वापर केला. या मॉडेलचा उपयोग त्यांनी हा अहवाल तयार करण्यासाठी केला. मात्र, एआयने अहवालातील तथ्य न मांडता, खोट्या माहितीचा समावेश अहवालात केला. या चुकीला एआय हॅल्युसिनेशन म्हणतात. जेव्हा एआय डेटावर आधारित खोटी माहिती तयार करतो, त्याला एआय हॅल्युसिनेशन म्हणतात. एआयनिर्मित हॅल्युसिनेशन नवीन नाहीत.

ChatGPT आणि Large Language Models (LLMs) हे काय बरोबर वाटते याचा अंदाज लावण्यासाठी डिझाइन केलेले आहेत, काय सत्य आहे हे तपासण्यासाठी नाही, त्यामुळे अशा चुकांची शक्यता वाढते. डेलॉईटच्या प्रकरणात कंपनीने नंतर मान्य केले की, योग्य देखरेख प्रक्रियेचे पालन केले गेले नाही आणि अंतर्गत पुनरावलोकन प्रणाली चुका शोधण्यात अपयशी ठरली. कंपनीने सांगितले की अहवालाचे मुख्य निष्कर्ष वैध राहिले, परंतु त्यात अनेक चुका होत्या. डेलॉईटची घटना एकमेव नाही. गेल्या काही वर्षांत, एआय प्रणालीच्या चुकांमुळे अनेक मोठ्या कंपन्यांना अडचणींचा सामना करावा लागला आहे.

एआयचे मोठे आव्हान

एआय कार्यक्षमतेचे आश्वासन देते. एआय काही सेकंदात अनेक शब्दांची माहिती सारांशित करू शकते, जटिल डेटासेटचे विश्लेषण करू शकते आणि माणसांना तास लागतील अशी लिखित सामग्री तयार करू शकते. परंतु, या गतीमुळे अनेकदा चुका होतात. गेल्या काही वर्षांत क्लायंटला लवकर काम पुरवण्याच्या दबावाखाली असलेल्या कंपन्या अहवाल तयार करण्यात, डेटाचे विश्लेषण करण्यात किंवा क्लायंटसाठी साहित्य तयार करण्यात मदतीसाठी अधिकाधिक एआयकडे वळत आहेत. मात्र, डेलॉईटच्या या घटनेने याचा धोकाही उघड केला आहे.

कारण माहिती न देता, क्लायंट्स आणि भागधारकांना हे काम पूर्णपणे कर्मचाऱ्यांनी तयार केले आहे असा गैरसमज होतो. जेव्हा एआयच्या चुका होतात, तेव्हा त्याचा परिणाम कंपनीच्या विश्वासार्हतेवर होतो. यापेक्षा वाईट गोष्ट म्हणजे, एआयप्रणाली माणसांसारख्या चुका करत नाहीत. त्या पद्धतशीरपणे चुका करतात. एकदा आउटपूटमध्ये चूक झाली की, ती प्रतिकृती बनवून आवृत्त्यांमध्ये, अहवालांमध्ये आणि प्रणालींमध्ये पसरू शकते.

समस्येमागील तंत्रज्ञान

chat GPT सारखे जनरेटिव्ह एआय मॉडेल्स विशाल डेटासेट्सवर प्रशिक्षित केलेले आहेत. ते लेख, शैक्षणिक प्रबंध ते सोशल मीडिया पोस्ट्स आदी अनेक गोष्टी तयार करू शकते. या प्रणाली मानवी भाषेतील सांख्यिकीय पॅटर्न शिकतात, त्यामुळे तथ्यांशी त्यांचा संबंध नसतो. जेव्हा ‘संदर्भ असलेला धोरणात्मक अहवाल लिहा’, असे विचारले जाते, तेव्हा मॉडेल संदर्भांच्या डेटाबेसमध्ये प्रवेश करत नाही; त्याऐवजी ते शब्दांच्या पॅटर्नच्या आधारावर शक्य वाटणारे संदर्भ एकत्र जोडते, त्यामुळे एआय अस्तित्वात नसलेल्या अभ्यासांचे संदर्भ देऊ शकते किंवा पूर्णपणे चुकीचे असलेले विधान करू शकते. एआय संशोधक याला हॅल्युसिनेशन म्हणजेच भ्रम म्हणतात. मॉडेलच्या प्रशिक्षणातील सुधारणांमुळे अशा चुकांची वारंवारता कमी झाली असली तरी कोणतेही मॉडेल अशा चुका करू शकते.