Aamir Khan Deepfake Video गेल्या महिन्यात बॉलिवूडमधील अभिनेत्री रश्मिका मंदाना, आलिया भट्टसह अनेक प्रसिद्ध लोकांचे डीपफेक व्हिडिओ व्हायरल झाले होते. डीपफेक व्हिडिओबद्दल ज्या व्यक्तिला माहिती नाही, त्याला हे व्हिडिओ खरेही वाटतात. याचाच फायदा लोकसभा निवडणुकीत घेतला जात आहे. निवडणुकीत बॉलीवूड अभिनेते पक्षात प्रचार करत असलेले डीपफेक व्हिडिओ व्हायरल होत आहेत. लोकसभा निवडणुकीच्या पहिल्या टप्प्यातील मतदान शुक्रवारी (१९ एप्रिल) पार पडले. गेल्या काही आठवड्यांपासून, सोशल मीडियावर अनेक चुकीच्या गोष्टी व्हायरल होत आहेत. अलीकडेच अभिनेता आमिर खान याचे दोन व्हिडिओ व्हायरल झाले, ज्यात तो काँग्रेसचा प्रचार करताना दिसत आहे.

अभिनेता आमिर खानचे व्हायरल झालेले दोन्ही व्हिडिओ त्याच्या लोकप्रिय टीव्ही मालिका सत्यमेव जयतेचा प्रोमो व्हिडिओ घेऊन तयार करण्यात आले आहे. या व्हीडिओत अभिनेता आमिर खान स्पष्टपणे काँग्रेस पक्षाला पाठिंबा देताना दिसत आहे, तर दुसऱ्या व्हीडिओमध्ये न्याय मिळण्याविषयी बोलताना दिसत आहे. ‘न्याय’ हा काँग्रेसचा निवडणुकीतील प्रमुख मुद्दा आहे आणि काँग्रेसच्या जाहीरनाम्याचे शीर्षकही ‘न्याय पत्र’ आहे.

Prashant Kishor on Yogendra Yadav
‘जिंकणार तर भाजपाच, काँग्रेसला किती जागा?’ योगेंद्र यादव यांच्या अंदाजानंतर प्रशांत किशोर यांचा टोला
Uttar Pradesh Loksabha Election 2024 Bahujan Samaj Party BSP Mayawati Jatav community
राष्ट्रीय पक्ष असलेला बसपा या निवडणुकीत आहे कुठे? उत्तर प्रदेशमध्ये काय आहे अवस्था?
yogi adityanath and narendra modi
“बुलडोझर कुठे चालवायचा हे योगींकडून शिका”, पंतप्रधान नरेंद्र मोदींचा विरोधकांना खोचक सल्ला
panchayat 3 trailer out
Panchayat 3 Trailer : “देख रहा है विनोद…”, पंचायत वेबसीरीजमध्येही निवडणुकीची लगबग
Narendra Modi Lok Sabha election strategy
VIDEO : नरेंद्र मोदींची लोकसभा निवडणुकीची रणनिती काय? भाजपा ४०० पार होणार? गिरीश कुबेर यांचे विश्लेषण
narendra modi
काँग्रेस ५० जागाही जिंकणे कठीण; पंतप्रधान नरेंद्र मोदी यांची टीका
NCP MP Supriya Sule
बारामतीच्या निवडणुकीबाबत सुप्रिया सुळेंची सूचक प्रतिक्रिया; म्हणाल्या, “मला कशाचीच भिती…”
How did the existence of Congress decrease from Mumbai How many chances in the Lok Sabha elections
काँग्रेसच्या हातातून मुंबई कशी निसटली? लोकसभा निवडणुकीत किती संधी?

हेही वाचा : जीवनावश्यक वस्तू खरेदी करणेही कठीण; कर्ज फेडू न शकणाऱ्यांना चीन कशी शिक्षा करत आहे?

आमिर खानसह अभिनेता रणवीर सिंहदेखील डीपफेक तंत्रज्ञानाचा बळी ठरला आहे. बेरोजगारी आणि महागाईच्या मुद्द्यांवर पंतप्रधान नरेंद्र मोदी यांच्यावर टीका करतानाचा त्याचा एक व्हिडिओ मोठ्या प्रमाणात व्हायरल झाला. मात्र, मूळ व्हडिओत तो पंतप्रधानांची स्तुती करत आहे. त्यामुळे जे लोक याबद्दल जागरूक नाहीत, अशा अनेकांच्या मनात संभ्रम निर्माण होतो. अनेकांना डीपफेक व्हीडिओज किंवा चुकीची व्हायरल होत असलेली माहिती खरी वाटते. त्यामुळे या निवडणूक काळात चुकीची माहिती कशी ओळखायची? डीपफेक व्हिडिओ कसे तयार केले जातात? डीपफेक व्हिडिओ कसे ओळखायचे? याबद्दल जाणून घेऊ या.

व्हॉइस स्वॅप तंत्रज्ञान

एआय प्रणालीचा वापर करून तयार करण्यात आलेले व्हिडिओ किंवा इतर गोष्टी ओळखण्यासाठी आयआयटी जोधपूरने itisaar.ai नावाचे एक तंत्रज्ञान तयार केले आहे. या तंत्रज्ञानानुसार व्हायरल होत असलेले व्हिडिओ ‘व्हॉइस स्वॅप’ तंत्रज्ञान वापरून तयार केले गेले आहेत. आपल्या नावाप्रमाणेच हे तंत्रज्ञान खर्‍या ऑडिओ क्लिपची मदत घेऊन एखाद्या व्यक्तीच्या आवाजातील बनावट ऑडिओ क्लिप तयार करू शकते. त्यात एआय अल्गोरिदमचा वापर होतो. व्हिडिओ अधिकाधिक खरे वाटावे, यासाठी हे तंत्रज्ञान वापरुन आवाजातील वैशिष्ट्ये, जसे की, उच्चारण, टोन, गती आदि सर्वच गोष्टींवर काम करता येते.

सध्या, वापरण्यास अगदी सोयिस्कर अशी ‘व्हॉइस स्वॅप’ साधने विनामूल्य उपलब्ध आहेत. एखाद्या व्यक्तीच्या बनावट आवाजाची निर्मिती करायची असल्यास, केवळ खर्‍या ऑडिओ क्लिपची गरज असते. अपलोड केलेला ऑडिओ आवाज खरा वाटावा यासाठी या तंत्रज्ञानात काही सेटिंग्स बदलाव्या लागतात. विशेष म्हणजे अवघ्या काही मिनिटात हे खरे वाटणारे डिपफेक ऑडिओ किंवा व्हिडिओ तयार होतात.

डीपफेक कसे ओळखायचे?

डीपफेक व्हिडिओ किंवा ऑडिओ ओळखणे कठीण असले, तरी सोशल मीडिया स्क्रोल करताना खाली दिलेल्या काही गोष्टींचे पालन केल्यास, हे व्हिडिओ किंवा ऑडिओ ओळखायला मदत होऊ शकते.

-सतर्क रहा: सोशल मीडियावरील आपले खाते प्रायव्हेट करून ठेवणे आणि त्याची मर्यादा ओळखीच्या लोकांपर्यंत ठेवणे आवश्यक आहे.

-स्रोत तपासा: अपरिचित स्त्रोतांकडून एखादा ऑडिओ किंवा व्हिडिओ आल्यास, त्यावर लगेच विश्वास टाकू नका. अशा संशयास्पद विशेषत: विवादास्पद सामग्रीपासून दूर रहा. कोणत्याही संशयास्पद सामग्रीची विश्वासार्हता तपासण्यासाठी विश्वसनीय माध्यम संस्थांकडून संदर्भ घेऊन ती तपासा.

-ऑडिओ लक्षपूर्वक ऐका: डीपफेक ऑडिओमध्ये काही चुकीच्या गोष्टी आढळतात, जसे की टोन, रोबोटिक भाषाशैली आणि बोलताना चुकीच्या ठिकाणी थांबणे. ऑडिओ लक्षपूर्वक ऐकल्यास त्याची सत्यता आपल्याला कळते.

-व्हिडिओ सामग्रीची पडताळणी: डीपफेक ऑडिओमध्ये अनेकदा फेरफार केलेली व्हिडिओ सामग्री असते. एखादा खरा व्हिडिओ घेऊन त्यात डीपफेक ऑडिओ टाकला जातो. अशावेळी, एखाद्या व्हडिओवर संशय असल्यास त्यातल्या हालचालींचे निरीक्षण करा. बोलताना व्हीडिओतील व्यक्तीचे ओठ, तो काय बोलतोय याच्याशी जुळत आहेत का, याकडे लक्ष द्या. त्यावरूनही डीपफेक व्हिडिओ ओळखता येतात.

-अपडेट राहणे : डीपफेकशी संबंधित घडामोडी आणि त्याचा धोका ओळखण्यासाठी दैनंदिन बातम्या माहिती असणे आणि अपडेट राहणे महत्त्वाचे आहे. आपल्या आजूबाजूला काय घडत आहे, याची जाणीव असलेले लोक अशा जाळ्यात अडकत नाहीत.

हेही वाचा : Nestle Controversy : नेस्लेच्या बेबी फूडमध्ये साखरेचे प्रमाण जास्त; साखर आरोग्यासाठी घातक का?

-एआय व्हॉइस डिटेक्टर वापरा: ऑप्टिकचे ‘एआय ऑर नॉट’ सारखे काही एआय डिटेक्टर विनामूल्य वापरण्यासाठी उपलब्ध आहेत. तुम्ही अशा डिटेक्टरवर कोणताही संशयास्पद ऑडिओ किंवा व्हिडिओ अपलोड करू शकता, जो तुम्हाला या सामग्रीची सत्यता सांगेल.