डॉ. मेघश्री दळवी
एका मोठ्या अमेरिकी कंपनीने नोकऱ्यांसाठी आलेल्या अर्जांची छाननी करण्यासाठी कृत्रिम बुद्धिमत्तेची मदत घेतली. दुर्दैवाने या प्रणालीने निवडलेले बहुतांशी अर्ज गोऱ्या पुरुषांचे होते. पुरेशी पात्रता असतानाही स्त्रिया आणि कृष्णवर्णीयांना नाकारताना तिने पक्षपात केला होता. अशीच घटना आणखी एका कंपनीसोबत घडली. तिथे नोकरीच्या ऑनलाइन जाहिराती दाखवणाऱ्या प्रणालीने जास्त पगाराच्या नोकऱ्या स्त्रियांपेक्षा पुरुषांना अधिक वेळा दाखवल्या.
गुन्हेगारांची पार्श्वभूमी लक्षात घेऊन त्यातील किती जण पुन्हा गुन्हे करतील याचा अमेरिकेत एका गटावर अभ्यास करण्यात आला. तिथेही कृष्णवर्णीय गुन्हेगार अधिक गुन्हे करतील असा निष्कर्ष काढणाऱ्या प्रणालीत पूर्वग्रह दिसला. या प्रणालींकडे असे विचित्र पूर्वग्रह कसे आले असतील याचा शोध घेताना लक्षात आले की त्यांना शिकवण्याकरिता वापरलेल्या प्रशिक्षण (ट्रेनिंग) डेटामध्ये खूप वेगवेगळ्या शक्यता दाखवलेल्या नव्हत्या. समाजात जे निरनिराळे घटक आहेत, जी सामाजिक, आर्थिक, वांशिक, लैंगिक, शैक्षणिक विभिन्नता आहे, तिचे प्रतिनिधित्व त्या प्रशिक्षण डेटामध्ये योग्य प्रकारे आलेले नव्हते. त्यामुळे प्रत्यक्ष काम करताना प्रणालींना या बहुविध घटकांचे काय करायचे हे समजले नसावे. त्यांच्या निर्णयामध्ये भेदभाव दिसला. कृत्रिम बुद्धिमतेत दिसणारा पक्षपाताचा हा धोका निश्चितच मोठा आहे.
हेही वाचा : कुतूहल: कृत्रिम बुद्धिमत्ता आणि न्यायप्रणाली
मग हा धोका टाळण्यासाठी प्रशिक्षण डेटावर लक्ष केंद्रित करणे पुरेसे आहे का? काही प्रणाल्या फक्त त्यांना पुरवलेल्या प्रशिक्षण डेटावरून शिकतात. काही प्रणाल्या मात्र ऑनलाइन उपलब्ध असलेला डेटा मुक्तपणे वापरतात. शिवाय जगभरातल्या अनेकांनी त्यांच्याशी केलेल्या संवादावरूनही त्या शिकतात. अर्थात या सर्व स्राोतांकडून बऱ्यासोबत वाईट गोष्टीही त्या आत्मसात करत जातात. त्यामुळे मग चॅटजीपीटी चुकीची उत्तरे द्यायला लागला किंवा समाजमाध्यमांवरील चर्चेतून शिकून मायक्रोसॉफ्टचा चॅटबॉट शिवराळ बोलायला लागला तर नवल नाही.
हेही वाचा : कुतूहल: वैद्यकीय क्षेत्रात कृत्रिम बुद्धिमत्ता
आपण माणसे सारासार विचार करतो, कोणत्या माहितीवर विश्वास ठेवावा याचे भान बाळगतो, कोणत्या प्रसंगी कसे वागायचे यावर लक्ष देतो. तशा प्रकारे प्रणाल्यांना डेटा वापरताना योग्य त्या चाळण्या लावणे गरजेचे आहे. उपलब्ध माहितीवर वस्तुनिष्ठपणे प्रक्रिया करण्यात कृत्रिम बुद्धिमत्तेची क्षमता थिटी पडू शकते. तिथेही सुधारणा व्हावी लागेल. गेल्या एक-दोन वर्षांत कृत्रिम बुद्धिमत्तेने खूप मोठी झेप घेतली असली तरी त्यातल्या त्रुटी हळूहळू स्पष्ट होत आहेत. त्या दूर होतील तेव्हाच तिचा वापर खऱ्या अर्थाने सुरक्षित ठरेल.
डॉ. मेघश्री दळवी
मराठी विज्ञान परिषद
ईमेल : office@mavipa.org
संकेतस्थळ : http://www.mavipa.org