कृत्रिम बुद्धिमत्ता (एआय)चा वापर आज प्रत्येक क्षेत्रात केला जातोय. कुठे याचा दुरुपयोग केला जातोय, तर कुठे सदुपयोग. निवडणुकीच्या या काळात गेल्या काही दिवसांत एआय तंत्रज्ञानाचा वापर करून तयार करण्यात आलेले अनेक फोटो, व्हिडीओ पाहायला मिळालेत. जानेवारीमध्ये एआय तंत्रज्ञानाचा वापर करून तामिळनाडूतील सत्ताधारी डीएमकेतील एका गटाने द्रविडीयन आयकॉन एम. करुणानिधी यांचा एक व्हिडीओ तयार केला. एका कार्यक्रमात व्हिडीओद्वारे पाहुणे म्हणून त्यांनी हजेरी लावली. करुणानिधी यांनी त्यांचे पुत्र एम. के स्टॅलिन यांच्या नेतृत्वाखालील सरकारचे कौतुकही केले. २०१८ सालीच करुणानिधी यांचे निधन झाले.

निवडणुकांमध्ये ‘एआय’चा वापर

आगामी लोकसभा निवडणुकीच्या पार्श्वभूमीवर राजकीय पक्षांसाठी एआय हे एक शस्त्र आहे. फेसबुक, इन्स्टाग्राम, यूट्यूब आणि एक्ससारख्या सोशल मीडिया प्लॅटफॉर्मवर शेअर करण्यात येणारे व्हिडिओ, फोटो एआयद्वारे तयार केल्या जात आहेत. विरोधकांची खिल्ली उडवण्यासाठी, मतदारांचे लक्ष्य वेधण्यासाठी आणि त्यांना आकर्षित करण्यासाठी एआयचा वापर केला जातोय. तज्ज्ञांचा असा अंदाज आहे की, यंदाच्या निवडणुकीत एआयचा वापर मोठ्या प्रमाणात केला जाईल. २०१४ च्या निवडणुकीत सोशल मीडियाच्या वापराचा परिणाम सर्वांनी पाहिला. त्याचप्रमाणे यंदा एआय तंत्रज्ञानाच्या वापरावर जोर दिला जात आहे, असे तज्ज्ञांचे सांगणे आहे.

Map , Akola district, human chain,
मानवी साखळीतून साकारला अकोला जिल्ह्याचा नकाशा
congress in gujarat loksabha
गुजरातमधील काँग्रेसचे ‘जायंट-किलर’ रूपालांविरोधात निवडणुकीच्या रिंगणात; भाजपाचं गणित बिघडणार?
Will contest and win the Lok Sabha elections from people contribution says Raju Shetty
लोकवर्गणीतून लोकसभा निवडणूक लढवून जिंकणार; राजू शेट्टी यांचा विश्वास
Andhasraddha Nirmulan Samiti
अर्ज भरण्यासाठी मुहूर्त पाहणाऱ्या उमेदवारांमुळे अंधश्रद्धेला खतपाणी – अंनिसचा आक्षेप

या वर्षाच्या अगदी सुरुवातीपासून भाजपा आणि काँग्रेससह राजकीय पक्षांनी त्यांच्या अधिकृत इन्स्टाग्राम हँडलवर अनेकदा एआय तंत्रज्ञानाद्वारे तयार केलेले फोटो, व्हिडीओ शेअर केले आहेत; यातील अनेक गोष्टींद्वारे राजकीय नेत्यांची खिल्लीही उडवण्यात आली आहे. सामान्य भाषेत याला ‘डीपफेक’ म्हणतात.

विविध पक्षांनी शेअर केलेले डीपफेक फोटो आणि व्हिडीओ

१६ मार्चला भाजपाने इन्स्टाग्रामवर राहुल गांधींचा एक डीपफेक व्हिडीओ शेअर केला; ज्यात ते, “मी काहीही करत नाही”, असे बोलले आहेत. भाजपाने अलीकडेच आणखी एक असाच फेरफार केलेला व्हिडीओ शेअर केला; ज्यामध्ये विरोधी पक्षनेत्या ममता बॅनर्जी, अरविंद केजरीवाल आणि अखिलेश यादव यांच्यासह इतरांचा आवाज तयार करण्यासाठी एआय तंत्रज्ञानाचा वापर करण्यात आला.

काँग्रेसच्या अधिकृत इन्स्टाग्राम हँडलने ‘चोर’ या लोकप्रिय गाण्याचे गायक जस्ट यांच्या चेहऱ्यावर पंतप्रधान नरेंद्र मोदींचा चेहरा असलेला डीपफेक व्हिडीओ शेअर केला. मोदींच्या आवाजाशी जवळीक साधण्यासाठी यात एआय तंत्रज्ञानाचा वापर करण्यात आला. गेल्या वर्षी तेलंगणातील विधानसभा निवडणुकीपूर्वी तेलंगणा काँग्रेसच्या अधिकृत हँडलने बीआरएस नेते के. टी. रामाराव यांचा एक डीपफेक व्हिडीओ शेअर केला होता, ज्यात त्यांनी लोकांना त्यांच्याच पक्षाविरुद्ध मतदान करण्याचे आवाहन केले होते.

फेब्रुवारीमध्ये द्रविड मुन्नेत्र कळघमच्या अधिकृत हँडलवरून, दिग्गज जयललिता यांचा एक व्हॉईस संदेश शेअर केला गेला; ज्यामध्ये त्यांनी लोकांना त्यांचे विद्यमान नेते एडप्पादी पलानीस्वामी यांना पाठिंबा देण्याचे आवाहन केले. जयललिता यांचे २०१६ मध्ये निधन झाले आहे.

व्हॉइस क्लोनिंग निवडणुकीत ठरणार फायद्याचे

राजकीय पक्ष एआयद्वारे तयार केलेल्या उमेदवारांच्या व्हॉइस क्लोनचा उपयोग मतदारांना आकर्षित करण्यासाठी करतात. “उमेदवाराला मतदान करण्याचा आग्रह करण्यासाठी रेकॉर्ड केलेल्या संदेशात, आता एआयच्या मदतीने मतदाराचे नावदेखील जोडता येईल. प्रचार मोहिमेदरम्यान याचा चांगला उपयोग होईल”, असे या वर्षीची निवडणूक लढवणाऱ्या एका नेत्याने सांगितले. यासाठी पक्षांनी राजकीय सल्लागार कंपन्यांशीही संपर्क साधला आहे.

दिव्येंद्र सिंह जदौन अशीच एक कंपनी चालवतात. अजमेरमधील ‘पॉलिमॅथ सोल्यूशन’ या एआय सेवा कंपनीचे ते संस्थापक आहेत. जदौन यांचे इंडियन डीपफेकर’ नावाने लोकप्रिय इन्स्टाग्राम हँडलदेखील आहे. त्यांनी ‘इंडियन एक्स्प्रेस’ला सांगितले, “अनेक राजकीय पक्ष एआयच्या मदतीने उमेदवाराच्या आवाजात संदेश तयार करण्याला पसंती देत आहेत. एआयच्या मदतीने उमेदवार या संदेशात प्रत्येक मतदाराचे नाव घेऊ शकणार आहे, जे राजकीय पक्षांसाठी पसंतीचे ठरत आहे.” त्यांनी पुढे सांगितले, “आम्ही अनेक पक्षांच्या संपर्कात आहोत आणि यावर काम करत आहोत.”

‘इंडियन एक्स्प्रेस’ने भारतीय निवडणूक आयोगाला एक प्रश्नावली पाठवली; ज्यात पक्षांनी त्यांच्या अधिकृत हँडलद्वारे शेअर केलेल्या डीपफेकची तुम्ही दखल घेतली का? प्रचारात एआयच्या वापरावर काही बंधने असतील का? यासंबंधित काही निर्देश दिले जातील का? अशी विचारणा करण्यात आली होती. मात्र, निवडणुकीच्या तारखा जाहीर झाल्यानंतर आणि आचारसंहिता लागू झाल्यानंतरही राजकीय पक्ष प्रचारासाठी एआय तंत्रज्ञानाचा वापर करत आहेत; मात्र यावर निवडणूक आयोग मौन बाळगून आहे.

तज्ञांनी दिला सावधगिरी बाळगण्याचा सल्ला

तज्ज्ञांनी एआय तंत्रज्ञानाचा वापर करताना सावधगिरी बाळगण्याचा सल्ला दिला आहे. यासाठी निवडणूक आयोगाने पावले उचलावीत, असेही त्यांनी सांगितले आहे. “अशा गोष्टी व्हायरल होण्यासाठी काही तास पुरेसे असतात. जोवर आपण या व्हायरल गोष्टींचा शोध घेतो, तोवर व्हायचे ते नुकसान झालेले असते”, असे असोसिएशन फॉर डेमोक्रॅटिक रिफॉर्म्स (एडीआर) आणि नॅशनल इलेक्शन वॉचचे प्रमुख अनिल वर्मा यांनी ‘इंडियन एक्स्प्रेस’ला सांगितले. “कंपन्यांनी अशा व्हिडीओंना लेबलिंग आणि वॉटरमार्किंग देण्यास सांगितले आहे. परंतु, आपली लोकसंख्या पाहता आणि राजकीय पक्ष पाहता व्हॉट्सॲपद्वारे अशा गोष्टी सहज पसरू शकतात. त्यामुळे सर्वांना हे लागू करणे कठीण आहे”, असेही ते म्हणाले.

हेही वाचा : ब्रिटिशांना आपल्या आवाजाने ‘सळो की पळो’ करून सोडणार्‍या उषा मेहतांची कहाणी

मेटाने त्यांच्या अलीकडील अहवालात असे म्हटले आहे की, जाहिरातदारांनी राजकीय किंवा सामाजिक जाहिरात तयार करण्यासाठी एआयचा वापर केल्यास ते कळवणे आवश्यक आहे. कंपनीने असेही सांगितले आहे की, गूगल, ओपन एआय, मायक्रोसॉफ्ट, ॲडाॅब, मॅडजर्णी आणि शटरस्टॉकवर एआयचा वापर करून तयार केलेल्या छायाचित्रांना लेबल/लोगो करण्यासाठी मेटा साधने तयार करत आहेत. गूगलने अलीकडेच म्हटले आहे की, ते निवडणुकीशी संबंधित प्रश्नावर एआय चॅटबॉट ‘मिथुन’च्या वापरावर मर्यादा आणतील, तर यूट्यूबनेही म्हटले आहे की, जेव्हा एआयचा वापर करून व्हिडिओ किंवा फोटो तयार केला जाईल, तेव्हा दर्शकांना स्पष्ट सांगावे लागेल.