मानवी तज्ज्ञांना मात देऊ शकणारी यंत्रे तयार करूनही सखोल शिक्षण हा आजच्या क्षणाला तरी कृत्रिम बुद्धिमत्तेच्या क्षेत्रातील शेवटचा शब्द नाही. त्याच्या अनेक मर्यादा आजवर लक्षात आल्या आहेत. या पद्धतीने शिकलेल्या यंत्राला ‘ब्लॅक बॉक्स’ असे म्हणतात. म्हणजे या पद्धतीने शिकलेले यंत्र प्रश्न विचारल्यावर उत्तर देते. पण त्या उत्तरामागची कारणमीमांसा कळण्याची कोणतीही सोय या पद्धतीत नाही.

सखोल शिक्षणात यंत्राला एखाद्या प्रांतात तज्ज्ञ बनवण्यासाठी दोन पायऱ्या असतात. एक सखोल शिक्षण देऊन ते तज्ज्ञ होण्याची आणि त्यानंतर तज्ज्ञ म्हणून काम करताना जर काही चुका झाल्या तर त्यातून सुधारण्याची. यातील पहिल्या पायरीसाठी जी विदा वापरली जाते ती केवळ आकाराने प्रचंड असून चालत नाही तर ती सर्वसमावेशक, संतुलित आणि अस्सल असणेही आवश्यक असते. जर ती विदा अशी नसेल तर यंत्राचे सखोल शिक्षणही चुकीचे होऊन ते यंत्र सर्वार्थाने उपयोगी ठरू शकणार नाही.

homosexual Women
समलिंगी स्त्रियांना असतो अकाली मृत्यूचा धोका, पण नेमकं कारण काय? संशोधनातून धक्कादायक माहिती उघड!
Loksatta kutuhal Artificial intelligence Technology The Turing Test Mirror test
कुतूहल: स्वजाणिवेच्या पात्रता कसोट्या
How to prevent heart attacks
Heart Attack : हृदयविकाराचा धोका कसा टाळायचा? वयाच्या विसाव्या वर्षापासून लावा ‘या’ सवयी, तज्ज्ञ सांगतात…
Loksatta explained Is Apple ReALM better than ChatGPT
ॲपलचे ReALM चॅटजीपीटीपेक्षा सरस? येत्या जूनपासून ‘एआय’ क्षेत्रात धुमाकूळ?

अशी विदा मिळवण्यासाठी एकतर वास्तविक जगातील लोकांना त्यावर काम करण्यास सांगून त्यातून मिळणाऱ्या विदेतून यंत्राचे सखोल शिक्षण करायचा प्रयत्न केला जातो किंवा समाजमाध्यमे अथवा इतर माध्यमांतून गोळा झालेल्या अनेक व्यक्तींच्या विदेवर आधारित सखोल शिक्षण होते. या दोन्ही पद्धतींत ज्या व्यक्तींची विदा सखोल शिक्षणासाठी वापरली जाते, त्या व्यक्तींच्या गोपनीयतेच्या अधिकाराचा भंग होतो, असा एक रास्त विचारप्रवाह आहे. कारण या प्रक्रियेत त्या व्यक्तीला विश्वासात घेतले जात नाही. तो एका कामासाठी सामायिक करत असलेल्या विदेचा त्याच्या परोक्ष होणारा वापर आक्षेपार्ह समजला जातो.

जर यंत्रशिक्षणाच्या काळात त्याला दिलेली विदा ही चुकून किंवा मुद्दाम चुकीची दिली गेली तर ते यंत्र चुकीचे शिकून अपेक्षेप्रमाणे काम करू शकत नाही. उदाहरणार्थ २०१६ मध्ये मायक्रोसॉफ्टने एक टाय (टीएवाय झ्र् िथकिंग अबाउट यू) नावाचा तरुण अमेरिकन स्त्रीची नक्कल करणारा चॅटबॉट बनवला होता. पण टाय या पद्धतीने शिकत असताना काही वात्रट लोकांनी तिच्याशी विचित्र आणि वाईट शब्द वापरून संवाद साधला. अर्थात तेही शब्द ती शिकली आणि इतरांशी बोलताना त्या शब्दांचा वापर करू लागली. हे लक्षात आल्यावर हा चॅटबॉट बंद केला गेला. अशा मर्यादांवर मात करत नजीकच्या भविष्यकाळात स्वयंचलित गाडय़ांसारख्या अनेक क्षेत्रांत सखोल शिक्षणाची यशस्वी मुसाफिरी अपेक्षित आहे.

मकरंद भोंसले,मराठी विज्ञान परिषद