अनिश पाटील

बॉलीवूड अभिनेता आमिर खान पाठोपाठ अभिनेता रणवीर सिंहची डीफफेक तंत्रज्ञानाचा वापर करून तयार केलेली चित्रफीत सर्वत्र प्रसारित झाली. निवडणुकीच्या पार्श्वभूमीवर कृत्रिम प्रज्ञेचा (आर्टिफिशियल इंटेलिजन्स -एआय) वापर करून दोन्ही चित्रफिती तयार करण्यात आल्या होत्या. समाज माध्यमांच्या आभासी दुनियेला भूल पाडण्यासाठी डीपफेकचा गैरवापर होऊ शकतो, असे भाकीत करण्यात आले होते. सध्या ते खरे ठरताना दिसत आहे. यापूर्वी रश्मिका मंधाना, काजोल, क्रिकेटपटू सचिन तेंडूलकर यांच्या चित्रफितीतही एआयच्या मदतीने फेरफार करण्यात आले होते. पण आता निवडणुकांच्या रणधुमाळीत राजकीय क्षेत्रातही डीपफेकचा वापर होत आहे. निवडणुकीच्या काळात एखाद्या नेत्याच्या नावे बनावट ध्वनिफिती, चित्रफिती समाजमाध्यमांत पसरवल्या जाण्याची शक्यता आहे. डीपफेक तंत्रज्ञान वापरून नेत्याच्या नावाने चुकीची माहिती पसरवली जाऊ शकते. त्यामुळे अशा ध्वनिचित्रफितींबाबत सतर्कता गरजेची आहे.

कोणकोणत्या अभिनेत्यांना डीपफेकचा फटका?

निवडणुकीच्या पार्श्वभूमीवर अभिनेता आमिर खान राजकीय पक्षाचा प्रचार करत असल्याची प्रसारित झालेली चित्रफीत डीपफेक तंत्रज्ञानच्या वापरातून तयार करण्यात आली होती. या प्रकरणी खार पोलिसांनी गुन्हा दाखल केला. या चित्रफितीत आमिरचा आवाज बदलण्यात आला आहे. ही चित्रफीत ‘सत्यमेव जयते’ कार्यक्रमातील आहे. त्यात आमिर भाजपावर टीका करत असल्याचे तसेच काँग्रेसला पाठिंबा देत असल्याचे दाखवण्यात आले आहे. चित्रफीतीबाबत समजल्यानंतर आमिर खानने स्वतः या प्रकरणी खुलासा करून चित्रफीत खोटी असल्याचे सांगितले. यावेळी ३५ वर्षांच्या कारकिर्दीत मी कधीही कोणत्याही राजकीय पक्षाचा प्रचार केलेला नाही, असे त्याने स्पष्ट केले. याप्रकरणी खार पोलीस ठाण्यात तक्रार दाखल करण्यात आली. त्यानंतर आता अभिनेता रणवीर सिंह याचीही राजकीय पक्षाचे समर्थन करणारी ध्वनिचित्रफीतही प्रसारित झाली. ती चित्रफीत वाराणसी दौऱ्यावेळी त्याने केलेल्या चित्रीकरणापासून तयार करण्यात आला होती. रणवीरने याबाबत समाज माध्यमांवर ‘डीपफेकपासून सावध राहा, मित्रांनो’ असे लिहून चित्रफीत खोटी असल्याचे सांगितले. तसेच दादर पोलीस ठाण्यात तक्रार केली होती. या प्रकरणी महाराष्ट्र सायबर पोलिसांनी गुन्हा दाखल केला आहे.

readers comments on loksatta editorial readers reaction on loksatta articles
लोकमानस : अजित पवार गटाच्या मर्यादा स्पष्ट
Andhra Pradesh Muslim Reservation
“आंध्रात मुस्लीमांचे आरक्षण कायम राहणार”, टीडीपीच्या नेत्याची स्पष्ट भूमिका; भाजपाची कुचंबणा?
Sushma Andhare, Devendra Fadnavis,
“देवेंद्र फडणवीसांच्या अतिमहत्त्वाकांक्षेमुळेच…”, सुषमा अंधारेंची टीका; म्हणाल्या, “बाप हा बाप असतो”!
trump guilty verdict loksatta analysis how trump guilty verdict will impact the 2024 presidential election
विश्लेषण : ट्रम्प यांच्या विरोधातील इतर तीन खटल्यांचे काय? त्यांच्या निकालांचा अध्यक्षीय उमेदवारीवर कितपत परिणाम?
khatakhat Rahul Gandhi word Narendra Modi in loksabha election 2024
खटाखट टू टकाटक व्हाया सफाचट! आरोप-प्रत्यारोपांमध्ये यमक जुळवणाऱ्या शब्दांनी कशी रंगली लोकसभेची निवडणूक?
bjp promised us 80 to 90 seats in assembly polls says chhagan bhujbal
८० ते ९० जागा देण्याचा भाजपचा शब्द ; वादानंतर छगन भुजबळ यांचे स्पष्टीकरण
loksatta anvyarth How will the problem of OBC reservation be solved
अन्वयार्थ: ओबीसी आरक्षणाचा प्रश्न सुटणार कसा?
AAP also accused in Delhi liquor scam But can an entire political party be accused in a case
दिल्ली मद्य घोटाळ्यात ‘आप’ही आरोपी… पण एखाद्या प्रकरणात संपूर्ण राजकीय पक्षच आरोपी होऊ शकतो का?

हेही वाचा >>>हिजाब न घातल्याने महिलांना लाथा-बुक्क्यांनी मारहाण, इराणमध्ये नक्की काय घडत आहे?

डीपफेक तंत्रज्ञान काय आहे?

तंत्रज्ञानाच्या माध्यामातून एखाद्या ध्वनिचित्रफीतीतल किंवा छायाचित्रातील व्यक्तीचा चेहरा, आवाज बदलता येतो. एखाद्या व्यक्तीचा हुबेहुब चेहरा या तंत्रज्ञानाच्या माध्यमातून वापरता येतो. ज्या व्यक्तीचा चेहरा वापरायचा आहे त्याचा चेहरा हे तंत्रज्ञान स्कॅन करून घेते आणि ध्वनिचित्रफितीतील व्यक्तीच्या चेहऱ्यावर मुखवट्याप्रमाणे चिकटवते. पंतप्रधान नरेंद्र मोदी यांनी काही दिवसांपूर्वी या तंत्राच्या वापराबाबत चिंता व्यक्त केली होती. गंभीर बाब म्हणजे या तंत्रज्ञानाच्या मदतीने कोणाच्या तोंडी स्फोटक व प्रक्षोभक विधाने टाकून मोठा वादही निर्माण केला जाऊ शकतो. त्यामुळे वेळीच या तंत्रज्ञानाच्या गैरवापराला अटकाव करणे आवश्यक आहे.

एआयच्या माध्यमातून ध्वनिफीतही?

इंटरनेटवर एआयचा वापर करून ध्वनिफीत तयार करणारी अनेक संकेतस्थळे उपलब्ध आहेत. त्याचा वापर करून अवघ्या पाच मिनिटांत बनावट ध्वनिफीत तयार करता येते. ही ध्वनिफीत तयार करण्यासाठी संबंधीत व्यक्तींची तीन ते पाच मिनिटांची खरी ध्वनिफीत आवश्यक असते. त्यातील बोलण्याची पद्धत, आवाजातील चढउतार हेरून एआयद्वारे त्या व्यक्तीच्या आवाजाची बनावट ध्वनिफीत तयार केली जाते. गंमत म्हणून अनेकजण आवडत्या गायक अथवा व्यक्तीच्या आवाजात गाणीही तयार करतात. मात्र, तेही कायदेशीर नाही.

हेही वाचा >>>EVM वापरून झालेल्या पहिल्या निवडणुका सर्वोच्च न्यायालयाने केल्या होत्या रद्द, नेमके काय घडले होते?

डीपफेक ध्वनिचित्रफिती ओळखणे कठीण का?

डीपफेकचा तंत्रज्ञानात सातत्याने अद्ययावत होत आहे. त्यातून सामान्य नागरिकांमध्ये बुद्धिभ्रम निर्माण करता येऊ शकतो. तांत्रिक पातळीवर चांगला दर्जा असलेल्या ध्वनिचित्रफिती तयार केल्या जातात. त्यामुळे त्या सहजी ओळखता येत नाहीत. काहीवेळा ध्वनिचित्रफितीतील व्यक्तीच्या पापण्यांची उघडझाप होत नाही, चित्रफितीच्या कडेला प्रकाश दिसतो. पण या बाबी झाकून टाकणारे अद्ययावत तंत्रही आता उपलब्ध झाले आहे. त्यामुळे डीपफेक चित्रफिती ओळखणे सोपे राहिलेले नाही. त्यामुळे या सर्व तंत्रज्ञानाबाबत जनजागृती करणे आवश्यक आहे.

निवडणुकीच्या काळात काय काळजी घ्यावी?

निवडणुकांच्या काळात या तंत्रज्ञानाचा मोठ्या प्रमाणावर गैरवापर होत असल्याचे दिसते आहे. आगामी काळात एखाद्या राजकीय नेत्याच्या चित्रफीतीही तयार केल्या जाऊ शकतात. अशा चित्रफितींचा, ध्वनिफितींचा जनमतावर प्रभाव पडू शकतो. तसेच निवडणुकीतील उमेदवाराच्या अथवा पक्षाच्या प्रतिमेलाही धक्का पोहोचवण्याची शक्यता नाकारता येत नाही. त्यामुळे निवडणुकीच्या काळात डीपफेक चित्रफीत व ध्वनिफितींपासून सावध राहणे आवश्यक आहे. राजकारणात रोज अनेक घडामोडी घडत असतात. त्यामुळे आपल्या देशात, राज्यात काय घडत आहे, त्याकडे लक्ष द्यावे. कोणता राजकीय नेता काय म्हणाला, हे तुम्हाला माहीत असायला हवे. बदनामीकारक ध्वनिफीत अथवा चित्रफीती कुणालाही पाठवू नये. तसेच समाज माध्यमांवरील ध्वनिफीत अथवा चित्रफीती पडताळणी केल्याशिवाय कोणालाही पाठवू नये. अशा ध्वनिफीत व चित्रफीत अपलोड करणाऱ्याविरोधात गुन्हाही दाखल होऊ शकतो.