scorecardresearch

Premium

तेलंगणाच्या निवडणुकीत डीपफेक तंत्रज्ञानाचा वापर; मुख्यमंत्र्याच्या मुलाचा व्हिडिओ व्हायरल

अभिनेत्री रश्मिका मंदाना आणि आलिया भट यांचा डीपफेक व्हिडीओ व्हायरल झाल्यानंतर तेलंगणाचे मंत्री केटी रामा राव यांचाही डीपफेक व्हिडिओ मतदानाच्या दिवशी व्हायरल झाला. राजकीय क्षेत्रात कृत्रिम प्रज्ञेद्वारे तयार केलेले व्हिडीओ आणि ऑडिओ मतदारांवर किती प्रभाव टाकू शकतात? निवडणूक प्रक्रियेवर याचा परिणाम होईल का?

how-is-ai-used-in-indian-politics
तेलंगणाचे मंत्री आणि भारत राष्ट्र समितीचे नेते केटी रामा राव यांचा डीपफेक व्हिडिओ व्हायरल करण्यात आला. (Photo – PTI)

एआय डीपफेक तंत्रज्ञान काही दिवसांपासून चर्चेत आहे. दाक्षिणात्य अभिनेत्री रश्मिका मंदानाचा डीपफेक व्हिडीओ व्हायरल झाल्यानंतर अनेक क्षेत्रांमधून याबद्दल चिंता व्यक्त करण्यात आली. पंतप्रधान नरेंद्र मोदी यांनीही या तंत्रज्ञानाच्या गैरवापराबद्दल भाष्य केले. डीपफेक तंत्रज्ञानाने आता निवडणूक प्रचारातही शिरकाव केल्याचे चित्र पाच राज्यांतील विधानसभा निवडणुकांच्या निमित्ताने समोर आले. तेलंगणामध्ये गुरुवारी (३० नोव्हेंबर) विधानसभेसाठी मतदान पार पडले. भारत राष्ट्र समितीचे प्रमुख व मुख्यमंत्री के. चंद्रशेखर यांनी निवडणूक आयोगाला पत्र लिहून काँग्रेसने प्रचारात डीपफेक तंत्रज्ञानाने तयार केलेला व्हिडीओ वापरून मतदारांची दिशाभूल केल्याचा आरोप केला आहे.

तेलंगणाच्या निवडणूक प्रचारादरम्यान सोशल मीडियावर अनेक डीपफेक व्हिडीओ आणि ऑडिओ प्रसारित झाल्यामुळे मतदार गोंधळात पडल्याची परिस्थिती निर्माण झाल्याची उदाहरणे पाहायला मिळाली आहेत. फक्त तेलंगणाच नाही, तर इतर ठिकाणीही राजकारण्यांनी कृत्रिम प्रज्ञेद्वारे (Artificial Intelligence – AI) फोटो, व्हिडीओ आणि ऑडिओ संदेश तयार करून, निवडणुकीत प्रसारित केल्याची उदाहरणे समोर आली आहेत. फर्स्टपोस्ट संकेतस्थळाने या घटनांचा सविस्तर आढावा घेतला आहे. राजकीय क्षेत्रात डीपफेकसारख्या तंत्रज्ञानाचा शिरकाव किती चिंताजनक असू शकतो? यावर टाकलेली एक नजर…

Semiconductor project
सेमीकंडक्टर चिपच्या १.२६ लाख कोटींच्या ३ प्रकल्पांना मोदी सरकारची मंजुरी; ३ पैकी २ प्रकल्प गुजरातमध्ये
ministry of women and child development internship program marathi news, two months internship program for woman marathi news
शासकीय योजना : स्वावलंबी भारतासाठी इंटर्न व्हा
The black paper released by the Congress on Thursday criticized the bjp
१० वर्षांत ४११ आमदारांची फोडाफोडी; काँग्रेसच्या काळय़ापत्रिकेत भाजपवर टीकास्त्र
Prime Minister Narendra Modi believes that billions will be invested in the energy sector in the future
भविष्यात ऊर्जाक्षेत्रात अब्जावधींची गुंतवणूक; पंतप्रधान नरेंद्र मोदी यांचा विश्वास

हे वाचा >> डीपफेक तंत्राचा राजकीय क्षेत्रावर परिणाम काय? चुकीची माहिती कशी ओळखाल? जाणून घ्या…

तेलंगणामध्ये डीपफेकचा ओझरता वापर

गुरुवारी (३० नोव्हेंबर) तेलंगणा विधानसभा निवडणुकीसाठी मतदार रांगेत उभे राहून मतदान करीत असताना काँग्रेस पक्षाच्या एक्स या सोशल मीडिया हँडलवर भारत राष्ट्र समितीचे कार्याध्यक्ष व तेलंगणाचे मंत्री के. टी. रामा राव (केटीआर) यांचा एक व्हिडीओ शेअर करण्यात आला. या व्हिडीओमध्ये ते स्वतःच्याच पक्षाच्या विरोधात बोलत असून, काँग्रेसला मतदान करण्याचे आवाहन करताना दिसत आहेत. हा व्हिडीओ तेलुगू भाषेत आहे.

भारत राष्ट्र समितीने हे प्रकरण गंभीरपणे घेतले असून, तेलंगणा प्रदेश काँग्रेस समितीविरोधात निवडणूक आयोगाकडे तक्रार दाखल केली आहे. “तेलंगणा प्रदेश काँग्रेसकडून डीपफेक तंत्रज्ञानाचा आणि कृत्रिम प्रज्ञेचा वापर करून बनावट ऑडिओ आणि व्हिडीओ सामग्री निर्माण करून, ती प्रसारित करण्यात येत आहे”, असा आरोप बीआरएसने निवडणूक आयोगाला पाठविलेल्या पत्रात केला.

हे वाचा >> ‘डीपफेक’चं वास्तव

या प्रकरणात निवडणूक आयोगाने तत्काळ लक्ष घालावे; जेणेकरून निवडणूक निष्पक्षतेला बाधा पोहोचणार नाही. काँग्रेसने मतदानाच्या दिवशी सकाळी ७ वाजून १९ मिनिटांनी के. टी. रामा राव यांचा व्हिडrओ एक्स साईटवर टाकल्यानंतर अवघ्या २० मिनिटांत बीआरएसने निवडणूक आयोगाकडे तक्रार दाखल केली आणि एक्सवरून त्याची माहितीही दिली.

न्यूज १८ वाहिनीशी बोलताना केटीआर यांनी काँग्रेस पक्षावर आरोप करताना ‘काँग्रेस डीपफेक पक्ष’ असल्याचे म्हटले.

हा व्हिडीओ प्रसारित होण्याच्या दोन दिवस आधीच केटीआर यांनी बीआरएसच्या कार्यकर्त्यांना काँग्रेसच्या डीपफेक प्रचारापासून सावध राहण्यास सांगितले होते. “स्कॅमग्रेस यांच्याकडून पुढील काही दिवसांत बोगस आणि डीपफेक तंत्रज्ञान वापरून निरर्थक प्रचार केला जाऊ शकतो. त्यामुळे कार्यकर्त्यांनी सावधगिरी बाळगावी”, असे आवाहन केटीआर यांनी शुक्रवारी (२४ नोव्हेंबर) केले होते.

तेलंगणाच्या निवडणूक प्रचारात डीपफेक तंत्रज्ञानाला बळी पडलेले केटीआर हे एकमेव नेते नाहीत. त्याआधी बीआरएसचे आणखी एक नेते व तेलंगणाचे मंत्री मल्ला रेड्डी यांचा नाचतानाचा व्हिडीओ व्हायरल झाला होता. “केसीआर यांना मत द्या आणि नोकरी मिळवा”, असे मल्ला रेड्डी बोलत असल्याचे व्हिडीओमध्ये दिसत होते.

वायएसआर तेलंगणा पक्षाच्या प्रमुख वाय. एस. शर्मिला यांनी तेलंगणा निवडणुकीतून माघार घेतली असली तरी निवडणूक काळात त्यांचाही एक डीपफेक व्हिडीओ व्हायरल झाला होता. रुग्णालयात उपचार घेताना त्या तंबाखूच्या सेवनाचे घातक परिणाम सांगत असल्याचा हा व्हिडीओ होता.

तेलंगणा काँग्रेसचे प्रदेशाध्यक्ष ए. रेवंथ रेड्डी यांचाही एक डीपफेक व्हिडीओ व्हायरल झाला. त्यात ते बीआरएसबद्दल प्रतिकूल मत व्यक्त करताना दिसत होते.

इतर राजकीय नेत्यांचे डीपफेक व्हिडीओ-ऑडिओ

फक्त तेलगंणाच नाही, तर इतर राज्यांतील राजकारण्यांचेही डीपफेक व्हिडीओ-ऑडिओ व्हायरल झाले आहेत. १७ नोव्हेंबर रोजी मध्य प्रदेशमध्ये विधानसभेचे मतदान पार पडत असताना पंतप्रधान नरेंद्र मोदी यांचा महिलांसह गरबा खेळतानाचा एक डीपफेक व्हिडीओ व्हायरल झाला. या व्हिडीओबद्दल एका जाहीर सभेत पंतप्रधान मोदी म्हणाले, “हा व्हिडीओ इतका चांगल्या पद्धतीने बनवला गेला की, मीदेखील हैराण झालो; पण मला लहानपणापासून कधीही गरबा खेळण्याची संधी मिळाली नाही,” असे स्पष्टीकरण त्यांनी दिले.

मध्य प्रदेश विधानसभा निवडणुकीशी निगडित कौन बनेगा करोडपती या लोकप्रिय शोमधील एक व्हिडीओ व्हायरल झाला होता. या व्हिडीओत कौन बनेगा करोडपती या शोचे सूत्रसंचालक अमिताभ बच्चन हे मध्य प्रदेशमधील सरकारविरोधी भावनेबाबतचा (anti-incumbency) एक प्रश्न विचारताना दिसतात.

या वर्षी एप्रिल महिन्यात भाजपाचे तमिळनाडू प्रदेशाध्यक्ष के. अण्णामलाई यांनी द्रमुक पक्षाचे नेते व राज्याचे अर्थमंत्री पी. त्यागराजन यांच्या एका वादग्रस्त ऑडिओ क्लिपचा हवाला देऊन सरकारवर आरोप केले होते. या ऑडिओ क्लिपमध्ये अर्थमंत्री पी. त्यागराजन त्यांच्याच पक्षाच्या एका नेत्यावर बेकायदा ३० हजार कोटी जमवल्याचा आरोप करीत होते. त्यागराजन यांनी मात्र या ऑडिओची सत्यता नाकारली. ही ऑडिओ क्लिप बोगस व मशीनद्वारे निर्मित केल्याचा आरोप त्यांनी केला.

आणखी वाचा >> अग्रलेख : आधीच ‘फेक’; त्यात ‘डीपफेक’!

तज्ज्ञांचे म्हणणे काय?

अभिनेत्री रश्मिका मंदानाचा व्हिडीओ व्हायरल झाल्यानंतर कतरिना कैफ, आलिया भट, काजोल यांचेही डीपफेक व्हिडीओ व्हायरल झाले. त्यामुळे डीपफेक तंत्रज्ञानाबद्दल गंभीरपणे चर्चा झाली. डीपफेक व्हिडीओंची संख्या वाढू लागल्यानंतर माहिती व तंत्रज्ञानमंत्री अश्विनी वैष्णव यांनी डीपफेक तंत्रज्ञानाद्वारे तयार केलेली बोगस सामग्री लोकशाहीसाठी घातक असल्याचे म्हटले.

एवढेच नाही, तर तपास यंत्रणांनाही डीपफेक सामग्रीची ओळख करणे कठीण झाले आहे. पोलिसांनी सांगितले की, डीपफेक तंत्रज्ञानावर आधारित अनेक ॲप्लिकेशन्स आल्यामुळे खरी आणि फेरफार केलेली सामग्री यांच्यात फरक करणे कठीण झाले आहे; ज्यामुळे निवडणुकीच्या काळात गोंधळ उडण्याची शक्यता आहे.

हैदराबाद सायबर गुन्हे अन्वेषण विभागाचे अतिरिक्त आयुक्त शिवा मूर्ती यांनी सांगितले की, कृत्रिम प्रज्ञेचा वापर अधिकाधिक वाढल्यामुळे आमच्यासमोर आव्हान निर्माण झाले आहे. कृत्रिम प्रज्ञेद्वारे तयार केलेले व्हिडीओ आणि डीपफेक ॲप्स हे निवडणूक प्रक्रियेसाठी धोकादायक बनले आहेत. याबाबत सायबर तज्ज्ञांसह आम्ही चर्चा करीत असून, या नव्या तंत्रज्ञानाला सक्षमपणे कसे तोंड देता येईल, याचा प्रयत्न आम्ही करीत आहोत.

२०२३ या वर्षात डीपफेक तंत्रज्ञानामुळे अश्लील (pornographic) सामग्रीला बळी पडण्यात भारताचा जगातून सहावा क्रमांक; तर दक्षिण कोरियाचा प्रथम क्रमांक आहे. दक्षिण कोरियातील ५३ टक्के गायक व अभिनेत्रींचे डीपफेक व्हिडीओ तयार करण्यात आले आहेत.

डीपफेक तंत्रज्ञान आणि कृत्रिम प्रज्ञा (AI) यांचा चुकीचा वापर निवडणुकांवर नकारात्मक परिणाम करू शकतो, असे अनेक तज्ज्ञ सांगत आहेत. यूव्हीए सायबर प्रायव्हसीच्या तज्ज्ञ डॅनिएल सिट्रॉन यांनी २०१९ साली लिहिलेल्या शोधनिबंधात नमूद केले की, जी कृती एखाद्या लोकप्रिय व्यक्तिमत्त्वाने कधी केलीच नाही, अशी कृती एआयमुळे व्हिडीओ आणि ऑडिओद्वारे तयार करून दाखविणे शक्य होते. फर्स्टपोस्टने सिट्रॉन यांच्या प्रतिक्रियेचा दाखला दिला आहे. त्यात त्या पुढे म्हणतात, “निवडणुकीच्या निकालावर एआय तंत्रज्ञान प्रभाव टाकू शकते. विशेष करून, अशी सामग्री तयार करून वितरित करण्यासाठी निर्माणकर्त्याकडे पुरेसा वेळ असेल आणि त्या सामग्रीच्या पीडित व्यक्तीकडे ती रोखण्यासाठी वेळ उरलेला नसेल, तर याचा मोठा परिणाम निकालावर दिसू शकतो.”

भारतासारख्या देशात तर याचे गंभीर परिणाम दिसू शकतात. जिंदाल विद्यापीठातील व्याख्याते दिग्विजय राणा यांची एक प्रतिक्रिया फर्स्टपोस्टने दिली आहे. त्यात ते म्हणाले, जगातील इतर देशांच्या तुलनेत भारतामध्ये इंटरनेट डेटा स्वस्त आहे. त्यामुळे एआय तंत्रज्ञानाद्वारे तयार केलेली सामग्री लगेच व्हायरल होऊ शकते. त्यामुळे भारत या तंत्रज्ञानाला अधिक बळी पडू शकतो.

Latest Comment
View All Comments
Post Comment

मराठीतील सर्व लोकसत्ता विश्लेषण बातम्या वाचा. मराठी ताज्या बातम्या (Latest Marathi News) वाचण्यासाठी डाउनलोड करा लोकसत्ताचं Marathi News App.

Web Title: How artificial intelligence is wreaking havoc for politicians brs leader kt rama rao falls prey to deepfake kvg

First published on: 01-12-2023 at 15:10 IST

संबंधित बातम्या

तुम्ही या बातम्या वाचल्या आहेत का? ×