Deepfake technology is becoming dangerous २०१७ साली अमेरिकेत एक व्हिडीओ प्रसारित झाला आणि त्यानंतर एकच खळबळ उडाली. या व्हिडीओमध्ये अमेरिकेचे माजी राष्ट्राध्यक्ष बराक ओबामा काही बोलत होते, तसेच त्यांच्या मागे अमेरिकेचा राष्ट्रध्वज असल्याचेही या ध्वनिचित्रफितीत आपण पाहू शकतो. या व्हिडीओमध्ये ते प्रतिस्पर्धी डोनाल्ड ट्रम्प यांच्याविषयी अश्लाघ्य भाषेत टीका करताना दिसत आहेत. ज्या क्षणी हा व्हिडीओ व्हायरल झाला, त्या वेळेपासून पुढील तीन ते चार महिन्यांच्या कालावधीतच सुमारे ५० लाखांहून अधिक वेळा तो पाहिला गेला. महत्त्वाचे म्हणजे हा व्हिडीओ बनावट असून AI (ए आय) – डीपफेक तंत्रज्ञानाच्या मदतीने तयार करण्यात आला होता. हा व्हिडीओ प्रत्यक्षात अभिनेता-दिग्दर्शक जॉर्डन पीले यांनी तयार केला होता. या व्हिडीओमुळे हे तंत्रज्ञान किती घातक ठरू शकते याची प्रचिती जगाला आली. हा फक्त एक प्रयोग होता. परंतु त्यानंतर जगात या तंत्रज्ञानाचा असा काही उपयोग करण्यात आला, ज्यामुळे अनेकांना मानहानी, मानसिक त्रास सहन करावा लागला, किंबहुना लागत आहे. विशेष म्हणजे या तंत्रज्ञानाने बळी घेतलेल्या पीडितांमध्ये महिलांचे प्रमाण जास्त आहे. आता याच तंत्रज्ञानाचा वापर करून तयार केलेला अभिनेत्री रश्मिका मंदानाचा एक आक्षेपार्ह व्हिडीओ सोशल मीडियावर व्हायरल होत आहे. 
त्यामुळेच नेमके हे तंत्रज्ञान काय आहे ? त्यापासून संभाव्य धोके कोणते? व त्यासंदर्भात कोणत्या प्रकारची सावधानता बाळगणे गरजेचे आहे. हे जाणून घेणे गरजेचे आहे.

या बातमीसह सर्व प्रीमियम कंटेंट वाचण्यासाठी साइन-इन करा

डीपफेक नेमके काय आहे?

डीपफेक हे आधुनिक तंत्रज्ञान युगातील एक भयंकर शस्त्र मानले जाते. मूलतः हे एक डिजिटल माध्यम असून, या तंत्रज्ञानात आर्टिफिशिअल इंटेलिजन्सच्या माध्यमातून व्हिडीओ, ऑडिओ आणि प्रतिमा (दृक्-श्राव्य माध्यमे) हाताळल्या जातात. तसेच त्यांच्यात बदल केले जातात. या तंत्रज्ञानाचा जितका सकारात्मक उपयोग आहे, तितकाच विध्वंसकवृत्तीने उपयोग करण्यात येत असल्याचे दिसते. हे शस्त्र अणुबॉम्बसारखे नसले तरी या कथित शस्त्राने रक्तपाताशिवाय अनेकांच्या आयुष्यांची राख-रांगोळी करण्याचे काम केले आहे. डीपफेक तंत्रज्ञान मुळात हायपर-रिअॅलिस्टिक डिजिटल फॉल्सिफिकेशन आहे. हे माध्यम, व्यक्ती किंवा संस्था यांना हानी पोहचविण्याकरिता वापरण्यात येते. अगदीच सोप्या भाषेत एखादे उदाहरण द्यायचे झाले तर, एखाद्या प्रतिमेत किंवा व्हिडीओमध्ये प्रत्यक्ष तुम्ही हजर नसलात तरी दुसऱ्या एखाद्या व्यक्तीच्या चेहऱ्यावर तुमचा फोटो (प्रतिमा) चपखल या तंत्रज्ञानाच्या साहाय्याने लावता येतो. म्हणूनच या तंत्रज्ञानाचा वापर मोठ्या प्रमाणात अश्लील डीपफेक व्हिडीओ तयार करण्यासाठी केला जात आहे. एखाद्या व्यक्तीचा चेहरा वापरून अश्लील दृक्-श्राव्य चित्रण, या माध्यमात केले जाते. आर्टिफिशियल इंटेलिजन्स (AI) निर्मित सिंथेटिक मीडिया किंवा डीपफेकचे काही विशिष्ट क्षेत्रांमध्ये फायदे असले तरी, या सिंथेटिक मीडिया तंत्रज्ञानाचा वापर जसजसा वाढत आहे, त्याच वेगाने त्याच्या वापरातून निर्माण होणारा शोषणाचा धोकाही वाढताना दिसत आहे. इतकेच नाही तर डीपफेकचा वापर अप्रतिष्ठेसाठी, एखाद्याच्या विरोधात खोटे पुरावे तयार करण्यासाठी, जनतेची फसवणूक करण्यासाठी होताना दिसत आहे.

आणखी वाचा : विश्लेषण: मोहम्मद बिन तुघलकला ‘लहरी मोहम्मद’ का म्हणायचे? जितेंद्र आव्हाडांनी थेट नोटबंदीच्या निर्णयाशी त्याचा संबंध का लावलाय?

डीपफेक तंत्रज्ञानाच्या सर्वाधिक बळी या ‘महिला’

या आधी नमूद केल्याप्रमाणे या तंत्रज्ञानाचा वापर अश्लील व्हिडीओ तयार करण्यासाठी मोठ्या प्रमाणावर होत आहे. म्हणूनच या तंत्रज्ञानाच्या बळी बहुतांश महिला आणि मुली आहेत. महिलांच्या चेहऱ्याचा वापर पॉर्न व्हिडीओमध्ये करण्यात येतो. म्हणूनच तज्ज्ञांच्या मते हे तंत्रज्ञान महिलांवरील हिंसाचाराला मुक्तपणे खतपाणी घालण्याचे माध्यम झाले आहे. किंबहुना sensity.ai यांनी नोंदविलेल्या आकडेवारीनुसार ९६ टक्के पोर्नोग्राफिक व्हिडीओ हे डीपफेक तंत्रज्ञानाच्या माध्यमातून तयार करण्यात आलेले आहेत. तसेच अशा स्वरूपाच्या पोर्नोग्राफिक व्हिडीओंना दीड कोटीपेक्षा अधिक व्ह्यूज असल्याचेही नोंदविले आहे. हे प्रकरण इतक्यावरच थांबत नाही तर अशा स्वरूपाचे खोटे व्हिडीओ तयार करणारे, ज्या महिलांचे खरे फोटो आहेत त्या महिलांना ब्लॅकमेल करून खंडणी मिळविण्याचा प्रयत्न करतात. यामुळे अनेक स्त्रियांवर मानसिक त्रासाला सामोरे जाण्याची वेळ आली आहे. कित्येकींवर यामुळे सामाजिक मानहानीला सामोरे जात आपल्या नोकऱ्या गमविण्याची वेळ आली आहे. मेगन फारोखमानेश यांनी ‘वायर्ड’ या मासिकातील The Debate on Deepfake Porn Misses the Point’ या लेखात नमूद केल्याप्रमाणे डीपफेक तंत्रज्ञानाच्या मदतीने जरी खोटा व्हिडीओ तयार केलेला असला तरी त्यातून पीडितेवर झालेला परिणाम कमी होणारा नसतो. एका पीडितेने दिलेल्या प्रतिक्रियेनुसार व्हिडीओत दाखवलेले शरीर तुमचे नसले तरी ते तुमचेच आहे असे दाखविले जाते, हेदेखील तुमच्या मर्यादांचे उल्लंघन करण्यासारखे आहे. पोर्नोग्राफी आणि महिलांवरील लैंगिक हिंसाचार यांच्यात जवळचा संबंध आहे. अशा प्रकारे सामान्य महिलांच्या चेहऱ्याचा पोर्नोग्राफीतील वापर हा त्यांच्यावरील हिंसाराचात वाढीचेच काम करतो अशी चिंता तज्ज्ञ व्यक्त करत आहेत.

डीपफेकचे परिणाम

डीपफेकद्वारे एखाद्या व्यक्तीला कुठल्याही असामाजिक कृत्यात गुंतविता येते. हे तंत्रज्ञान प्रगत असल्याने व्हिडीओ किंवा प्रतिमेत दाखविलेली व्यक्ती खरी की खोटी हेच प्रथमदर्शनी सांगणे कठीण होते. या तंत्रज्ञानाचा बळी पडलेली व्यक्ती या विरोधात न्याय मागू शकते. परंतु या विरोधात ठोस कायदे अद्याप झालेले नाहीत. किंबहुना या न्यायदानाच्या प्रक्रियेत उशीर झाल्याचेच चित्र समोर आले आहे. त्यामुळे पीडितेला गंभीर मानसिक आजार व सामाजिक हानीला बळी पडावे लागते. डीपफेक हे लघू तसेच दीर्घकालीन परिणाम करणारे आहे.

आणखी वाचा : विश्लेषण: अणुबॉम्बचे जनक ओपेनहायमर यांना कुरुक्षेत्रावरील श्रीकृष्णाचे विराट रूप का आठवले होते?

डीपफेकचे संभाव्य परिणाम

डीपफेक तंत्रज्ञानाच्या माध्यमातून राष्ट्राराष्ट्रांतील संबंधांमध्येही तणाव निर्माण होऊ शकतात. देशात अराजक निर्माण करून राष्ट्राच्या सुरक्षेला बाधा पोहोचविण्याचे काम या माध्यमातून तडीस नेले जाऊ शकते. त्यामुळे सामान्यांमधील देशाच्या सुरक्षायंत्रणेवरील विश्वासार्हतेला तडा जाऊ शकतो. या माध्यमाचा वापर करून लोकांमध्ये असंतोषाची भावना निर्माण करून दंगलींसारखे प्रकार घडविण्यात येऊ शकतात. राजकारणात आपल्या विरोधकांची या तंत्रज्ञानाच्या माध्यमातून बेअब्रू करता येऊ शकते.

उपाय

‘मीडिया लिटरसी’ म्हणजेच प्रसारमाध्यम-साक्षरता हा डीपफेक तंत्रज्ञानाच्या नकारात्मक परिणामांवर उत्तम उपाय मानला जात आहे. खोटी माहिती पसरविणाऱ्या माध्यमांना आळा बसविण्यात प्रसारमाध्यम-साक्षरता उपयोगी ठरू शकते असे मानले जाते, किंबहुना अनेक सोशल मीडिया प्लॅटफॉर्मनी AI तंत्रज्ञानाचा चुकीचा वापर टाळण्यासाठी आपल्या पातळीवर काही अटी व नियमावली केल्या आहेत. डीपफेकसारख्या गोष्टींवर नियंत्रण मिळविण्याकरिता कायदेशीर नियमावलींचीदेखील गरज आहे.
तसेच आपल्या वैयक्तिक पातळीवर समाजमाध्यमांवर काहीही शेअर करताना काळजी घेणे गरजेचे आहे. किंबहुना जगभरातील अनेक तज्ज्ञांनी या तंत्रज्ञाविषयी चिंता व्यक्त केली आहे. त्यात युवल नोह हरारी यांचे मत विचारात घेणे गरजेचे आहे. युवल नोह हरारी ‘सेपियन्स’ या सर्वाधिक खपाच्या पुस्तकाचे लेखक आहेत. त्यांनी AI तंत्रज्ञानावर कडक नियमावली लागू करावी, असा आग्रह धरला आहे. त्यांनी व्यक्त केलेल्या मतानुसार ‘एआय’ नियंत्रणाबाहेर जाण्यापूर्वी आपल्याला त्वरित काहीतरी करणे गरजेचे आहे. ज्याप्रमाणे एखादी औषध कंपनी औषधाची पूर्ण चाचणी केल्याशिवाय ते औषध बाजारात आणू शकत नाही, त्याप्रमाणे या तंत्रज्ञानाची पूर्ण पडताळणी केल्याशिवाय हे तंत्रज्ञान वापरणे चुकीचे आहे.

मराठीतील सर्व लोकसत्ता विश्लेषण बातम्या वाचा. मराठी ताज्या बातम्या (Latest Marathi News) वाचण्यासाठी डाउनलोड करा लोकसत्ताचं Marathi News App.
Web Title: Deepfake technology is becoming dangerous why should women be careful svs
First published on: 24-05-2023 at 12:23 IST