काळानुसार कृत्रिम बुद्धीमत्ता (एआय) तंत्रज्ञानात बरेच बदल होत आहेत. आज आपण रोज अनेक ऑडिओ आणि व्हिडीओ असे पाहतो, ज्यात किती तथ्यता आहे, हे आपल्यालाच माहिती नसते. आजच्या काळात एखाद्या व्यक्तीची बनावट (डीपफेक) व्हिडीओ किंवा ऑडिओ क्लीप तयार करणे फार सोपे झाले आहे. सध्या निवडणुकीचा काळ आहे. डीपफेकचे हे तंत्रज्ञान याआधी राजकीय क्षेत्रातही वापरले गेले आहे. या तंत्रज्ञानातील प्रगती पाहून या निवडणुकीच्या काळात एखाद्या नेत्याच्या नावे बनावट ऑडिओ किंवा व्हिडीओ समाजमाध्यमांत पसरवला जाण्याची शक्यता आहे. डीपफेकचे तंत्रज्ञान वापरून नेत्याच्या नावाने चुकीची माहिती पसरवली जाऊ शकते. याच पार्श्वभूमीवर एखाद्या नेत्याच्या नावाचा बनावट व्हिडीओ किंवा ऑडिओ कसा ओळखावा? आपण जागरूक कसे राहवे? हे जाणून घेऊ या…

डीपफेकसाठी कृत्रिम बुद्धीमत्तेचा केला जातो वापर

सध्या देशभरात निवडणुकीचे वातावरण आहे. अशा काळात राजकीय नेत्यांच्या नावे चुकीची माहिती पसरण्याची शक्यता आहे. त्यासाठी डीपफेक तंत्रज्ञान वापरले जाऊ शकते. त्यामुळे अशा प्रकारच्या बनावट व्हिडीओ आणि ऑडिओ क्लीप ओळखणे गरजेचे आहे. मुळात डीपफेक व्हिडीओ किंवा ऑडिओ हे कृत्रिम बुद्धीमत्तेचा वापर करून तयार केले जातात. त्यासाठी डीप लर्निंग अल्गोरिदमचा वापर केला जातो. गेल्या काही वर्षांत हे तंत्रज्ञान आणखी प्रगत झालेले आहे. त्यामुळे डीप लर्निंग अल्गोरिदमचा वापर करून एखाद्या व्यक्तीचा हुबेहुब आवाज आणि चेहरा निर्माण करता येऊ शकतो.

deep fake Aamir khan  Ranveer singh Victims of Deepfake Political Audio Tapes How to Identify Deepfake Technology print exp
आमिर, रणवीर करताहेत चक्क राजकीय प्रचार? नाही… हा तर डीपफेकचा भूलभुलय्या!
Rahul Gandhi Congress Sam Pitroda Narendra Modi Caste Census wealth re-distribution
जातगणना, वारसा कर आणि संपत्तीचे फेरवाटप; काँग्रेसचे काय म्हणणे आहे?
loksatta explained article, bahujan vikas aghadi, hitendra thakur, politics, Vasai, Palghar
विश्लेषण : पालघर-वसईत हितेंद्र ठाकुरांशी सर्वच पक्षांना जुळवून का घ्यावे लागते? ठाकुरांच्या यशाचे रहस्य काय?
Who will give the manifesto of health guarantee for the elderly
वृद्धांच्या आरोग्याच्या हमीचा ‘जाहीरनामा’ कोण देणार?

बनावट ऑडिओ क्लीप कशी तयार केली जाते?

कोणत्याही व्यक्तीच्या बनावट आवाजाची निर्मिती करणे फार सोपे आहे. त्यासाठी फक्त चांगले इंटरनेट कनेक्शन आणि ज्या व्यक्तीच्या बनावट आवाजाची निर्मिती करायची आहे, त्याच्या एका खऱ्या ऑडिओ क्लीपची गरज असते. या दोन गोष्टी असल्यास बनावट ऑडिओ तयार करता येतो. अशाच प्रकारचे ऑडिओ तयार करणाऱ्या शिवा नावाच्या एका व्यक्तीशी ‘इंडियन एक्स्प्रेस’ने चर्चा केली. या व्यक्तीने सांगितल्यानुसार covers.ai सारखे संकेतस्थळ वापरून अवघ्या पाच मिनिटांत बनावट ऑडिओ क्लीप तयार करता येते. “या जगात प्रत्येकजण आपला बनावट व्हिडीओ तयार करू शकतो. त्यासाठी थोडेफार पैसे द्यावे लागतात. बनावट ऑडिओ क्लीप तयार करायची असेल तर संबंधित व्यक्तीची कमीत कमी ३ मिनिटांची खरीखुरी ऑडिओ क्लीप गरजेची असते. त्या ऑडिओ क्लीपच्या मदतीने बनावट ऑडिओ क्लीप तयार केली जाते. त्यासाठी भरपूर संकेतस्थळ उपलब्ध असून काही पैसे दिल्यास आपल्याला हवा असलेला आवाज तयार करून मिळतो. अशाच बनावट ऑडिओ क्लीपच्या मदतीने गाणीदेखील तयार करता येतात,” असे या व्यक्तीने सांगितले.

यासह बनावट आवाज तयार करण्यासाठी वेगवेगळे शेकडो ऑनलाईन टूल्स उपलब्ध आहेत. एआयच्या मदतीने आवाजाची निर्मिती करण्याची प्रक्रिया सांगणारे शेकडो व्हिडीओ यूट्यूबवर उपलब्ध आहेत.

डीपफेक ऑडिओ शोधणे कठीण का?

यापूर्वी डीपफेक ऑडिओ ओळखणे तुलनेने सोपे असायचे. कारण अशा प्रकारचे ऑडिओ हे रोबोटिक होते. हा खराखुरा आवाज नाही, असे लगेच ओळखायला यायचे. मात्र आता तंत्रज्ञानात मोठी प्रगती झाली आहे. याबाबत बोलताना एशिया सोफोस या आयटी सेक्युरिटी कंपनीचे पदाधिकारी अरॉन बुगल यांनी माहिती दिली. “सध्या समाजमाध्यांवर अनेक प्रकारचे व्हिडीओ आणि ऑडिओ अपलोड केले जातात. याच कन्टेंचा वापर करून अधिक प्रगत एआयच्या मदतीने डीपफेक व्हिडीओ आणि फोटो तयार केले जात आहेत. हे टाळायचे असेल तर समाजमाध्यमांवरील आपले खाते प्रायव्हेट करून ठेवणे तसेच खाते आपल्या ओळखीच्या लोकांपर्यंतच मर्यादित ठेवणे हा एक पर्याय आहे. मात्र आपल्या ओळखीच्या लोकांपैकी कोणाही अशा प्रकारे डीपफेक व्हिडीओ, ऑडिओ किंवा फोटो तयार करणार नाही, याची शास्वती नाही,” असे अरॉन यांनी सांगितले.

बनावट ऑडिओ, व्हिडीओ रोखण्याचा पर्याय काय?

डीपफेक तंत्रज्ञानाचा चुकीचा गैरवापर टाळायचा असेल तर प्रशासनाने अशा प्रकारच्या ऑडिओ, व्हिडीओंना प्रोत्साहन देणारी समाजमाध्यमावरची खाती बंद करायला हवीत, असे अरॉन यांनी सांगितले. “भारतातील इलेक्ट्रॉनिक्स आणि माहिती तंत्रज्ञान विभागाने समाजमाध्यम मंचांना डीपफेक ऑडिओ आणि व्हिडीओंचा सामना करण्याचा सल्ला द्यायला हवा. डीपफेक ऑडिओ आणि व्हिडीओ हटवण्यात अपयश आल्यास अशा प्रकारच्या सोशल मीडिया मंचांना कारवाईस सामोरे जावे लागेल, असेही सरकारने सांगितले पाहिजे. सरकारने अशा प्रकारची भूमिका घेतल्यास डीफफेक ऑडिओ, व्हिडीओ किंवा फोटोंचे प्रमाण कमी होण्यास मदत होईल,” असे बुगल यांनी सांगितले.

कन्टेंट डिजिटली साक्षांकित असणे हा पर्याय

“सध्या इंटरनेटवर असणारे व्हिडीओ खरे आहेत हे ग्रहित धरण्यासाठी निश्चित अशी प्रक्रिया असायला हवी. त्यासाठी व्हिडीओ डिजिटली साक्षांकित असायला हवेत. म्हणजेच जे व्हिडीओ डिजिटली साक्षांकित आहेत ते खरेखुरे आहेत, असे ग्राह्य धरता येईल. सध्या तंत्रज्ञानाचा विकास होत असून अगदी कमी काळात डीपफेक कन्टेंट तयार होत आहे. विशेष म्हणजे डीपफेक कन्टेंटच्या गुणवत्तेतही काळानुसार सुधारणा होत आहे. भविष्यात असाही काळ येऊ शकतो, जेव्हा खरा आणि बनावट व्हिडीओ ओळखणे कठीण होऊ शकते. त्यामुळे इंटरनेटवर असणारे कन्टेंट खरे आहे हे समजण्यासाठी ते डिजिटली सांक्षांकित किंवा प्रमाणित करणे गरजेचे आहे,” असेही बुगल म्हणाले.

डीपफेक ऑडिओ, व्हिडीओ कसा ओळखावा?

एआयच्या मदतीने एखाद्या राजकीय व्यक्तीचा तयार करण्यात आलेला डीपफेक व्हिडीओ आणि ऑडिओ ओळखण्यासाठी नेहमी जागरूक असणे गरजेचे आहे. त्यासाठी खालील गोष्टी करता येतील.

राजकारणातील माहिती ठेवणे : राजकारणात रोज अनेक घडामोडी घडत असतात. त्यामुळे आपल्या देशात, राज्यात काय घडत आहे, त्याकडे लक्ष द्यावे. कोणता राजकीय नेता काय म्हणाला? हे तुम्हाला माहीत असायला हवे. त्यामुळे एखादा डीपफेक व्हिडीओ किंवा ऑडिओ समोर आलाच, तर नेमके सत्य काय? हे तुम्हाला समजू शकेल. तुम्ही खोट्या प्रचाराला बळी पडणार नाहीत.

शेअर करण्याआधी सत्यता तपासा : एखादा व्हिडीओ किंवा ऑडिओ तुमच्याकडे आलाच तर तो शेअर करण्याआधी त्याची सत्यता तपासा. व्हिडीओ किंवा ऑडिओची सत्यता तपासण्यासाठी इंटरनेटवर अनेक एआय व्हिडीओ डिटेक्टर्स उपलब्ध आहेत. ऑडिओची सत्यता तपासण्यासाठीदेखील अशा प्रकारचे एआय टूल उपलब्ध आहेत. aivoicedetector.com, play.ht अशी त्याची काही उदाहरणे आहेत. त्यांची मदत घेऊन व्हिडीओ आणि ऑडिओची सत्यता तपासली जाऊ शकते.

निवडणुकीच्या काळात आपण का काळजी घ्यावी?

डीपफेक ऑडिओ आणि व्हिडीओ तयार करण्यासाठी फक्त दोन किंवा तीन मिनिटांची क्लीप पुरेशी आहे. इंटरनेटवर राजकीय नेत्यांच्या अनेक ऑडिओ आणि व्हिडीओ क्लीप उपलब्ध आहेत. त्यामुळे अशा प्रकारचे डीपफेक ऑडिओ किंवा व्हिडीओ तयार करणे फार अवघड बाब नाही. अशा व्हिडीओ किंवा ऑडिओंमुळे जनमतावर प्रभाव पडू शकतो. तसेच निवडणुकीतील उमेदवाराच्या प्रतिमेलाही धक्का पोहोचू शकतो. लोकशाही पद्धतीने घेतल्या जाणाऱ्या निवडणुकीवर त्याचा परिणाम पडू शकतो. त्यामुळे निवडणुकीच्या काळात डीपफेक व्हिडीओ आणि ऑडिओंपासून सावध राहिले पाहिजे. अशा प्रकारचे व्हिडीओ समोर आलेच तर पोलीस भारतीय दंड संहिता आणि आयटी कायद्याच्या कलमाअंतर्गत कारवाई करतात.