Deepfake technology is becoming dangerous २०१७ साली अमेरिकेत एक व्हिडीओ प्रसारित झाला आणि त्यानंतर एकच खळबळ उडाली. या व्हिडीओमध्ये अमेरिकेचे माजी राष्ट्राध्यक्ष बराक ओबामा काही बोलत होते, तसेच त्यांच्या मागे अमेरिकेचा राष्ट्रध्वज असल्याचेही या ध्वनिचित्रफितीत आपण पाहू शकतो. या व्हिडीओमध्ये ते प्रतिस्पर्धी डोनाल्ड ट्रम्प यांच्याविषयी अश्लाघ्य भाषेत टीका करताना दिसत आहेत. ज्या क्षणी हा व्हिडीओ व्हायरल झाला, त्या वेळेपासून पुढील तीन ते चार महिन्यांच्या कालावधीतच सुमारे ५० लाखांहून अधिक वेळा तो पाहिला गेला. महत्त्वाचे म्हणजे हा व्हिडीओ बनावट असून AI (ए आय) – डीपफेक तंत्रज्ञानाच्या मदतीने तयार करण्यात आला होता. हा व्हिडीओ प्रत्यक्षात अभिनेता-दिग्दर्शक जॉर्डन पीले यांनी तयार केला होता. या व्हिडीओमुळे हे तंत्रज्ञान किती घातक ठरू शकते याची प्रचिती जगाला आली. हा फक्त एक प्रयोग होता. परंतु त्यानंतर जगात या तंत्रज्ञानाचा असा काही उपयोग करण्यात आला, ज्यामुळे अनेकांना मानहानी, मानसिक त्रास सहन करावा लागला, किंबहुना लागत आहे. विशेष म्हणजे या तंत्रज्ञानाने बळी घेतलेल्या पीडितांमध्ये महिलांचे प्रमाण जास्त आहे. आता याच तंत्रज्ञानाचा वापर करून तयार केलेला अभिनेत्री रश्मिका मंदानाचा एक आक्षेपार्ह व्हिडीओ सोशल मीडियावर व्हायरल होत आहे. 
त्यामुळेच नेमके हे तंत्रज्ञान काय आहे ? त्यापासून संभाव्य धोके कोणते? व त्यासंदर्भात कोणत्या प्रकारची सावधानता बाळगणे गरजेचे आहे. हे जाणून घेणे गरजेचे आहे.

डीपफेक नेमके काय आहे?

डीपफेक हे आधुनिक तंत्रज्ञान युगातील एक भयंकर शस्त्र मानले जाते. मूलतः हे एक डिजिटल माध्यम असून, या तंत्रज्ञानात आर्टिफिशिअल इंटेलिजन्सच्या माध्यमातून व्हिडीओ, ऑडिओ आणि प्रतिमा (दृक्-श्राव्य माध्यमे) हाताळल्या जातात. तसेच त्यांच्यात बदल केले जातात. या तंत्रज्ञानाचा जितका सकारात्मक उपयोग आहे, तितकाच विध्वंसकवृत्तीने उपयोग करण्यात येत असल्याचे दिसते. हे शस्त्र अणुबॉम्बसारखे नसले तरी या कथित शस्त्राने रक्तपाताशिवाय अनेकांच्या आयुष्यांची राख-रांगोळी करण्याचे काम केले आहे. डीपफेक तंत्रज्ञान मुळात हायपर-रिअॅलिस्टिक डिजिटल फॉल्सिफिकेशन आहे. हे माध्यम, व्यक्ती किंवा संस्था यांना हानी पोहचविण्याकरिता वापरण्यात येते. अगदीच सोप्या भाषेत एखादे उदाहरण द्यायचे झाले तर, एखाद्या प्रतिमेत किंवा व्हिडीओमध्ये प्रत्यक्ष तुम्ही हजर नसलात तरी दुसऱ्या एखाद्या व्यक्तीच्या चेहऱ्यावर तुमचा फोटो (प्रतिमा) चपखल या तंत्रज्ञानाच्या साहाय्याने लावता येतो. म्हणूनच या तंत्रज्ञानाचा वापर मोठ्या प्रमाणात अश्लील डीपफेक व्हिडीओ तयार करण्यासाठी केला जात आहे. एखाद्या व्यक्तीचा चेहरा वापरून अश्लील दृक्-श्राव्य चित्रण, या माध्यमात केले जाते. आर्टिफिशियल इंटेलिजन्स (AI) निर्मित सिंथेटिक मीडिया किंवा डीपफेकचे काही विशिष्ट क्षेत्रांमध्ये फायदे असले तरी, या सिंथेटिक मीडिया तंत्रज्ञानाचा वापर जसजसा वाढत आहे, त्याच वेगाने त्याच्या वापरातून निर्माण होणारा शोषणाचा धोकाही वाढताना दिसत आहे. इतकेच नाही तर डीपफेकचा वापर अप्रतिष्ठेसाठी, एखाद्याच्या विरोधात खोटे पुरावे तयार करण्यासाठी, जनतेची फसवणूक करण्यासाठी होताना दिसत आहे.

Clean Intestine In 20 Minutes In Morning With These Simple Five Asanas How Much Luke Warm Water To Drink First After Waking Up
Video: सकाळी उठताच १५ मिनिटांत पोट स्वच्छ होण्यासाठी करा ‘या’ पाच कृती; कोमट पाणी पिण्याचं प्रमाणही पाहा
woman mistakenly sat on another person bike instead of boyfriend funny video
तरुणी प्रियकराऐवजी अनोळखी व्यक्तीच्या गाडीवर जाऊन बसली अन् मग..विचित्र घटनेचा VIDEO
Women Health
स्त्री आरोग्य : लग्नानंतर लगेच मूल होत नाहीए?
Declaration of self-reliance and policy of import dependence
घोषणा आत्मनिर्भतेच्या आणि धोरण आयातनिर्भरतेचे

आणखी वाचा : विश्लेषण: मोहम्मद बिन तुघलकला ‘लहरी मोहम्मद’ का म्हणायचे? जितेंद्र आव्हाडांनी थेट नोटबंदीच्या निर्णयाशी त्याचा संबंध का लावलाय?

डीपफेक तंत्रज्ञानाच्या सर्वाधिक बळी या ‘महिला’

या आधी नमूद केल्याप्रमाणे या तंत्रज्ञानाचा वापर अश्लील व्हिडीओ तयार करण्यासाठी मोठ्या प्रमाणावर होत आहे. म्हणूनच या तंत्रज्ञानाच्या बळी बहुतांश महिला आणि मुली आहेत. महिलांच्या चेहऱ्याचा वापर पॉर्न व्हिडीओमध्ये करण्यात येतो. म्हणूनच तज्ज्ञांच्या मते हे तंत्रज्ञान महिलांवरील हिंसाचाराला मुक्तपणे खतपाणी घालण्याचे माध्यम झाले आहे. किंबहुना sensity.ai यांनी नोंदविलेल्या आकडेवारीनुसार ९६ टक्के पोर्नोग्राफिक व्हिडीओ हे डीपफेक तंत्रज्ञानाच्या माध्यमातून तयार करण्यात आलेले आहेत. तसेच अशा स्वरूपाच्या पोर्नोग्राफिक व्हिडीओंना दीड कोटीपेक्षा अधिक व्ह्यूज असल्याचेही नोंदविले आहे. हे प्रकरण इतक्यावरच थांबत नाही तर अशा स्वरूपाचे खोटे व्हिडीओ तयार करणारे, ज्या महिलांचे खरे फोटो आहेत त्या महिलांना ब्लॅकमेल करून खंडणी मिळविण्याचा प्रयत्न करतात. यामुळे अनेक स्त्रियांवर मानसिक त्रासाला सामोरे जाण्याची वेळ आली आहे. कित्येकींवर यामुळे सामाजिक मानहानीला सामोरे जात आपल्या नोकऱ्या गमविण्याची वेळ आली आहे. मेगन फारोखमानेश यांनी ‘वायर्ड’ या मासिकातील The Debate on Deepfake Porn Misses the Point’ या लेखात नमूद केल्याप्रमाणे डीपफेक तंत्रज्ञानाच्या मदतीने जरी खोटा व्हिडीओ तयार केलेला असला तरी त्यातून पीडितेवर झालेला परिणाम कमी होणारा नसतो. एका पीडितेने दिलेल्या प्रतिक्रियेनुसार व्हिडीओत दाखवलेले शरीर तुमचे नसले तरी ते तुमचेच आहे असे दाखविले जाते, हेदेखील तुमच्या मर्यादांचे उल्लंघन करण्यासारखे आहे. पोर्नोग्राफी आणि महिलांवरील लैंगिक हिंसाचार यांच्यात जवळचा संबंध आहे. अशा प्रकारे सामान्य महिलांच्या चेहऱ्याचा पोर्नोग्राफीतील वापर हा त्यांच्यावरील हिंसाराचात वाढीचेच काम करतो अशी चिंता तज्ज्ञ व्यक्त करत आहेत.

डीपफेकचे परिणाम

डीपफेकद्वारे एखाद्या व्यक्तीला कुठल्याही असामाजिक कृत्यात गुंतविता येते. हे तंत्रज्ञान प्रगत असल्याने व्हिडीओ किंवा प्रतिमेत दाखविलेली व्यक्ती खरी की खोटी हेच प्रथमदर्शनी सांगणे कठीण होते. या तंत्रज्ञानाचा बळी पडलेली व्यक्ती या विरोधात न्याय मागू शकते. परंतु या विरोधात ठोस कायदे अद्याप झालेले नाहीत. किंबहुना या न्यायदानाच्या प्रक्रियेत उशीर झाल्याचेच चित्र समोर आले आहे. त्यामुळे पीडितेला गंभीर मानसिक आजार व सामाजिक हानीला बळी पडावे लागते. डीपफेक हे लघू तसेच दीर्घकालीन परिणाम करणारे आहे.

आणखी वाचा : विश्लेषण: अणुबॉम्बचे जनक ओपेनहायमर यांना कुरुक्षेत्रावरील श्रीकृष्णाचे विराट रूप का आठवले होते?

डीपफेकचे संभाव्य परिणाम

डीपफेक तंत्रज्ञानाच्या माध्यमातून राष्ट्राराष्ट्रांतील संबंधांमध्येही तणाव निर्माण होऊ शकतात. देशात अराजक निर्माण करून राष्ट्राच्या सुरक्षेला बाधा पोहोचविण्याचे काम या माध्यमातून तडीस नेले जाऊ शकते. त्यामुळे सामान्यांमधील देशाच्या सुरक्षायंत्रणेवरील विश्वासार्हतेला तडा जाऊ शकतो. या माध्यमाचा वापर करून लोकांमध्ये असंतोषाची भावना निर्माण करून दंगलींसारखे प्रकार घडविण्यात येऊ शकतात. राजकारणात आपल्या विरोधकांची या तंत्रज्ञानाच्या माध्यमातून बेअब्रू करता येऊ शकते.

उपाय

‘मीडिया लिटरसी’ म्हणजेच प्रसारमाध्यम-साक्षरता हा डीपफेक तंत्रज्ञानाच्या नकारात्मक परिणामांवर उत्तम उपाय मानला जात आहे. खोटी माहिती पसरविणाऱ्या माध्यमांना आळा बसविण्यात प्रसारमाध्यम-साक्षरता उपयोगी ठरू शकते असे मानले जाते, किंबहुना अनेक सोशल मीडिया प्लॅटफॉर्मनी AI तंत्रज्ञानाचा चुकीचा वापर टाळण्यासाठी आपल्या पातळीवर काही अटी व नियमावली केल्या आहेत. डीपफेकसारख्या गोष्टींवर नियंत्रण मिळविण्याकरिता कायदेशीर नियमावलींचीदेखील गरज आहे.
तसेच आपल्या वैयक्तिक पातळीवर समाजमाध्यमांवर काहीही शेअर करताना काळजी घेणे गरजेचे आहे. किंबहुना जगभरातील अनेक तज्ज्ञांनी या तंत्रज्ञाविषयी चिंता व्यक्त केली आहे. त्यात युवल नोह हरारी यांचे मत विचारात घेणे गरजेचे आहे. युवल नोह हरारी ‘सेपियन्स’ या सर्वाधिक खपाच्या पुस्तकाचे लेखक आहेत. त्यांनी AI तंत्रज्ञानावर कडक नियमावली लागू करावी, असा आग्रह धरला आहे. त्यांनी व्यक्त केलेल्या मतानुसार ‘एआय’ नियंत्रणाबाहेर जाण्यापूर्वी आपल्याला त्वरित काहीतरी करणे गरजेचे आहे. ज्याप्रमाणे एखादी औषध कंपनी औषधाची पूर्ण चाचणी केल्याशिवाय ते औषध बाजारात आणू शकत नाही, त्याप्रमाणे या तंत्रज्ञानाची पूर्ण पडताळणी केल्याशिवाय हे तंत्रज्ञान वापरणे चुकीचे आहे.