एआय डीपफेक तंत्रज्ञान काही दिवसांपासून चर्चेत आहे. दाक्षिणात्य अभिनेत्री रश्मिका मंदानाचा डीपफेक व्हिडीओ व्हायरल झाल्यानंतर अनेक क्षेत्रांमधून याबद्दल चिंता व्यक्त करण्यात आली. पंतप्रधान नरेंद्र मोदी यांनीही या तंत्रज्ञानाच्या गैरवापराबद्दल भाष्य केले. डीपफेक तंत्रज्ञानाने आता निवडणूक प्रचारातही शिरकाव केल्याचे चित्र पाच राज्यांतील विधानसभा निवडणुकांच्या निमित्ताने समोर आले. तेलंगणामध्ये गुरुवारी (३० नोव्हेंबर) विधानसभेसाठी मतदान पार पडले. भारत राष्ट्र समितीचे प्रमुख व मुख्यमंत्री के. चंद्रशेखर यांनी निवडणूक आयोगाला पत्र लिहून काँग्रेसने प्रचारात डीपफेक तंत्रज्ञानाने तयार केलेला व्हिडीओ वापरून मतदारांची दिशाभूल केल्याचा आरोप केला आहे.

तेलंगणाच्या निवडणूक प्रचारादरम्यान सोशल मीडियावर अनेक डीपफेक व्हिडीओ आणि ऑडिओ प्रसारित झाल्यामुळे मतदार गोंधळात पडल्याची परिस्थिती निर्माण झाल्याची उदाहरणे पाहायला मिळाली आहेत. फक्त तेलंगणाच नाही, तर इतर ठिकाणीही राजकारण्यांनी कृत्रिम प्रज्ञेद्वारे (Artificial Intelligence – AI) फोटो, व्हिडीओ आणि ऑडिओ संदेश तयार करून, निवडणुकीत प्रसारित केल्याची उदाहरणे समोर आली आहेत. फर्स्टपोस्ट संकेतस्थळाने या घटनांचा सविस्तर आढावा घेतला आहे. राजकीय क्षेत्रात डीपफेकसारख्या तंत्रज्ञानाचा शिरकाव किती चिंताजनक असू शकतो? यावर टाकलेली एक नजर…

NCP Sharad Pawar group leader Jitendra Awad allegation regarding the project contractor thane
प्रकल्प कंत्राटदार आधीच ठरतो मग, कंत्राट काढले जाते; राष्ट्रवादी (शरद पवार गट) चे नेते जितेंद्र आव्हाड यांचा आरोप
aarya jadhao missing in Bigg boss marathi reunion
Bigg Boss Marathi 5: सर्व एलिमिनेटेड सदस्यांची घरात…
Loksatta explained Why did the controversy rise over the same policy of Barty Sarathi Mahajyoti
विश्लेषण: बार्टी, सारथी, महाज्योतीच्या समान धोरणावरून वाद का चिघळला?
Mercedes-Benz, Supriya Sule, Supriya Sule latest news,
मर्सिडिज बेंझला नोटीस देण्याच्या टायमिंगवर शंका; खासदार सुप्रिया सुळे म्हणाल्या, “शासनाने…”
Fake blood donation by bjp leader
भाजपा नेत्याची चमकोगिरी; मोदींच्या वाढदिवसानिमित्त केलं बोगस रक्तदान, व्हिडीओ व्हायरल होताच म्हणाले…
Minister of State for Labour, EY, CA girl EY,
‘ईवाय’मधील ‘सीए’ तरुणीच्या मृत्यूप्रकरणी केंद्रीय कामगार राज्यमंत्र्यांची मोठी घोषणा
pm Narendra modi birthday
पहिली बाजू : नरेंद्र मोदी : शासकतेतील सर्जनशीलता!
non conventional energy sector india marathi news
अपारंपरिक ऊर्जा क्षेत्रात भारत उद्दिष्टाच्या पुढे, केंद्रीय मंत्री प्रल्हाद जोशी यांचे प्रतिपादन

हे वाचा >> डीपफेक तंत्राचा राजकीय क्षेत्रावर परिणाम काय? चुकीची माहिती कशी ओळखाल? जाणून घ्या…

तेलंगणामध्ये डीपफेकचा ओझरता वापर

गुरुवारी (३० नोव्हेंबर) तेलंगणा विधानसभा निवडणुकीसाठी मतदार रांगेत उभे राहून मतदान करीत असताना काँग्रेस पक्षाच्या एक्स या सोशल मीडिया हँडलवर भारत राष्ट्र समितीचे कार्याध्यक्ष व तेलंगणाचे मंत्री के. टी. रामा राव (केटीआर) यांचा एक व्हिडीओ शेअर करण्यात आला. या व्हिडीओमध्ये ते स्वतःच्याच पक्षाच्या विरोधात बोलत असून, काँग्रेसला मतदान करण्याचे आवाहन करताना दिसत आहेत. हा व्हिडीओ तेलुगू भाषेत आहे.

भारत राष्ट्र समितीने हे प्रकरण गंभीरपणे घेतले असून, तेलंगणा प्रदेश काँग्रेस समितीविरोधात निवडणूक आयोगाकडे तक्रार दाखल केली आहे. “तेलंगणा प्रदेश काँग्रेसकडून डीपफेक तंत्रज्ञानाचा आणि कृत्रिम प्रज्ञेचा वापर करून बनावट ऑडिओ आणि व्हिडीओ सामग्री निर्माण करून, ती प्रसारित करण्यात येत आहे”, असा आरोप बीआरएसने निवडणूक आयोगाला पाठविलेल्या पत्रात केला.

हे वाचा >> ‘डीपफेक’चं वास्तव

या प्रकरणात निवडणूक आयोगाने तत्काळ लक्ष घालावे; जेणेकरून निवडणूक निष्पक्षतेला बाधा पोहोचणार नाही. काँग्रेसने मतदानाच्या दिवशी सकाळी ७ वाजून १९ मिनिटांनी के. टी. रामा राव यांचा व्हिडrओ एक्स साईटवर टाकल्यानंतर अवघ्या २० मिनिटांत बीआरएसने निवडणूक आयोगाकडे तक्रार दाखल केली आणि एक्सवरून त्याची माहितीही दिली.

न्यूज १८ वाहिनीशी बोलताना केटीआर यांनी काँग्रेस पक्षावर आरोप करताना ‘काँग्रेस डीपफेक पक्ष’ असल्याचे म्हटले.

हा व्हिडीओ प्रसारित होण्याच्या दोन दिवस आधीच केटीआर यांनी बीआरएसच्या कार्यकर्त्यांना काँग्रेसच्या डीपफेक प्रचारापासून सावध राहण्यास सांगितले होते. “स्कॅमग्रेस यांच्याकडून पुढील काही दिवसांत बोगस आणि डीपफेक तंत्रज्ञान वापरून निरर्थक प्रचार केला जाऊ शकतो. त्यामुळे कार्यकर्त्यांनी सावधगिरी बाळगावी”, असे आवाहन केटीआर यांनी शुक्रवारी (२४ नोव्हेंबर) केले होते.

तेलंगणाच्या निवडणूक प्रचारात डीपफेक तंत्रज्ञानाला बळी पडलेले केटीआर हे एकमेव नेते नाहीत. त्याआधी बीआरएसचे आणखी एक नेते व तेलंगणाचे मंत्री मल्ला रेड्डी यांचा नाचतानाचा व्हिडीओ व्हायरल झाला होता. “केसीआर यांना मत द्या आणि नोकरी मिळवा”, असे मल्ला रेड्डी बोलत असल्याचे व्हिडीओमध्ये दिसत होते.

वायएसआर तेलंगणा पक्षाच्या प्रमुख वाय. एस. शर्मिला यांनी तेलंगणा निवडणुकीतून माघार घेतली असली तरी निवडणूक काळात त्यांचाही एक डीपफेक व्हिडीओ व्हायरल झाला होता. रुग्णालयात उपचार घेताना त्या तंबाखूच्या सेवनाचे घातक परिणाम सांगत असल्याचा हा व्हिडीओ होता.

तेलंगणा काँग्रेसचे प्रदेशाध्यक्ष ए. रेवंथ रेड्डी यांचाही एक डीपफेक व्हिडीओ व्हायरल झाला. त्यात ते बीआरएसबद्दल प्रतिकूल मत व्यक्त करताना दिसत होते.

इतर राजकीय नेत्यांचे डीपफेक व्हिडीओ-ऑडिओ

फक्त तेलगंणाच नाही, तर इतर राज्यांतील राजकारण्यांचेही डीपफेक व्हिडीओ-ऑडिओ व्हायरल झाले आहेत. १७ नोव्हेंबर रोजी मध्य प्रदेशमध्ये विधानसभेचे मतदान पार पडत असताना पंतप्रधान नरेंद्र मोदी यांचा महिलांसह गरबा खेळतानाचा एक डीपफेक व्हिडीओ व्हायरल झाला. या व्हिडीओबद्दल एका जाहीर सभेत पंतप्रधान मोदी म्हणाले, “हा व्हिडीओ इतका चांगल्या पद्धतीने बनवला गेला की, मीदेखील हैराण झालो; पण मला लहानपणापासून कधीही गरबा खेळण्याची संधी मिळाली नाही,” असे स्पष्टीकरण त्यांनी दिले.

मध्य प्रदेश विधानसभा निवडणुकीशी निगडित कौन बनेगा करोडपती या लोकप्रिय शोमधील एक व्हिडीओ व्हायरल झाला होता. या व्हिडीओत कौन बनेगा करोडपती या शोचे सूत्रसंचालक अमिताभ बच्चन हे मध्य प्रदेशमधील सरकारविरोधी भावनेबाबतचा (anti-incumbency) एक प्रश्न विचारताना दिसतात.

या वर्षी एप्रिल महिन्यात भाजपाचे तमिळनाडू प्रदेशाध्यक्ष के. अण्णामलाई यांनी द्रमुक पक्षाचे नेते व राज्याचे अर्थमंत्री पी. त्यागराजन यांच्या एका वादग्रस्त ऑडिओ क्लिपचा हवाला देऊन सरकारवर आरोप केले होते. या ऑडिओ क्लिपमध्ये अर्थमंत्री पी. त्यागराजन त्यांच्याच पक्षाच्या एका नेत्यावर बेकायदा ३० हजार कोटी जमवल्याचा आरोप करीत होते. त्यागराजन यांनी मात्र या ऑडिओची सत्यता नाकारली. ही ऑडिओ क्लिप बोगस व मशीनद्वारे निर्मित केल्याचा आरोप त्यांनी केला.

आणखी वाचा >> अग्रलेख : आधीच ‘फेक’; त्यात ‘डीपफेक’!

तज्ज्ञांचे म्हणणे काय?

अभिनेत्री रश्मिका मंदानाचा व्हिडीओ व्हायरल झाल्यानंतर कतरिना कैफ, आलिया भट, काजोल यांचेही डीपफेक व्हिडीओ व्हायरल झाले. त्यामुळे डीपफेक तंत्रज्ञानाबद्दल गंभीरपणे चर्चा झाली. डीपफेक व्हिडीओंची संख्या वाढू लागल्यानंतर माहिती व तंत्रज्ञानमंत्री अश्विनी वैष्णव यांनी डीपफेक तंत्रज्ञानाद्वारे तयार केलेली बोगस सामग्री लोकशाहीसाठी घातक असल्याचे म्हटले.

एवढेच नाही, तर तपास यंत्रणांनाही डीपफेक सामग्रीची ओळख करणे कठीण झाले आहे. पोलिसांनी सांगितले की, डीपफेक तंत्रज्ञानावर आधारित अनेक ॲप्लिकेशन्स आल्यामुळे खरी आणि फेरफार केलेली सामग्री यांच्यात फरक करणे कठीण झाले आहे; ज्यामुळे निवडणुकीच्या काळात गोंधळ उडण्याची शक्यता आहे.

हैदराबाद सायबर गुन्हे अन्वेषण विभागाचे अतिरिक्त आयुक्त शिवा मूर्ती यांनी सांगितले की, कृत्रिम प्रज्ञेचा वापर अधिकाधिक वाढल्यामुळे आमच्यासमोर आव्हान निर्माण झाले आहे. कृत्रिम प्रज्ञेद्वारे तयार केलेले व्हिडीओ आणि डीपफेक ॲप्स हे निवडणूक प्रक्रियेसाठी धोकादायक बनले आहेत. याबाबत सायबर तज्ज्ञांसह आम्ही चर्चा करीत असून, या नव्या तंत्रज्ञानाला सक्षमपणे कसे तोंड देता येईल, याचा प्रयत्न आम्ही करीत आहोत.

२०२३ या वर्षात डीपफेक तंत्रज्ञानामुळे अश्लील (pornographic) सामग्रीला बळी पडण्यात भारताचा जगातून सहावा क्रमांक; तर दक्षिण कोरियाचा प्रथम क्रमांक आहे. दक्षिण कोरियातील ५३ टक्के गायक व अभिनेत्रींचे डीपफेक व्हिडीओ तयार करण्यात आले आहेत.

डीपफेक तंत्रज्ञान आणि कृत्रिम प्रज्ञा (AI) यांचा चुकीचा वापर निवडणुकांवर नकारात्मक परिणाम करू शकतो, असे अनेक तज्ज्ञ सांगत आहेत. यूव्हीए सायबर प्रायव्हसीच्या तज्ज्ञ डॅनिएल सिट्रॉन यांनी २०१९ साली लिहिलेल्या शोधनिबंधात नमूद केले की, जी कृती एखाद्या लोकप्रिय व्यक्तिमत्त्वाने कधी केलीच नाही, अशी कृती एआयमुळे व्हिडीओ आणि ऑडिओद्वारे तयार करून दाखविणे शक्य होते. फर्स्टपोस्टने सिट्रॉन यांच्या प्रतिक्रियेचा दाखला दिला आहे. त्यात त्या पुढे म्हणतात, “निवडणुकीच्या निकालावर एआय तंत्रज्ञान प्रभाव टाकू शकते. विशेष करून, अशी सामग्री तयार करून वितरित करण्यासाठी निर्माणकर्त्याकडे पुरेसा वेळ असेल आणि त्या सामग्रीच्या पीडित व्यक्तीकडे ती रोखण्यासाठी वेळ उरलेला नसेल, तर याचा मोठा परिणाम निकालावर दिसू शकतो.”

भारतासारख्या देशात तर याचे गंभीर परिणाम दिसू शकतात. जिंदाल विद्यापीठातील व्याख्याते दिग्विजय राणा यांची एक प्रतिक्रिया फर्स्टपोस्टने दिली आहे. त्यात ते म्हणाले, जगातील इतर देशांच्या तुलनेत भारतामध्ये इंटरनेट डेटा स्वस्त आहे. त्यामुळे एआय तंत्रज्ञानाद्वारे तयार केलेली सामग्री लगेच व्हायरल होऊ शकते. त्यामुळे भारत या तंत्रज्ञानाला अधिक बळी पडू शकतो.