न्यूझीलंडच्या खासदार लॉरा मॅक्युलर यांनी नुकतेच त्यांच्या संसदेत त्यांचे स्वत:चेच एक नग्न छायाचित्र दाखवल्यामुळे खळबळ माजली. अर्थात असे धक्कादायक कृत्य करण्यामागे त्यांचा कृत्रिम बुद्धीमत्ते (AI) चा वापर करून वापरल्या जाणाऱ्या डीपफेक तंत्रज्ञानाकडे सरकारचे लक्ष वेधून घेणे हा हेतू होता. लॉरा यांनी हे डीपफेक छायाचित्र कृत्रिम बुद्धिमतेचा आधार घेऊन तयार केलेले होते. या तंत्रज्ञानाचा कसा दुरुपयोग होऊ शकतो, त्याचे लोकांच्या मनावर कोणते गंभीर परिणाम होऊ शकतात याची माहिती त्यांनी संसदेत हे छायाचित्र सादर करताना दिली.
लॉरा यांनी या मुद्द्यावरून सरकारचे तर लक्ष वेधून घेतलेच पण याबाबतीत कडक कायदे बनवण्यासंदर्भात आपले मत मांडले. जेणेकरून डीपफेक तंत्रज्ञानाचा दुरुपयोग होण्यास आळा बसेल. त्यांनी न्यूझीलंडमधल्या एका १३ वर्षाच्या मुलीचे उदाहरणही दिले. या मुलीने तिचे डीपफेक छायाचित्र व्हायरल झाल्याने आत्महत्येचा प्रयत्न केला होता. कृत्रिम बुद्धिमत्ता वापरून डीपफेक तंत्रज्ञानाच्या सहाय्याने कोणत्याही व्यक्तीची तिच्या संमतीशिवाय छायाचित्रे, व्हिडिओ कुणीही त्याला पाहिजे त्या प्रकारे बनवू शकतो. यात अश्लील छायाचित्रे, व्हिडिओ देखील आले. डीपफेक तंत्रज्ञानाच्या सहाय्याने अगदी सहजपणे अवघ्या काही मिनिटांत फोटो, व्हिडिओ बनवता येतात. ते काहीसे अगदी खरेखुरे असल्यासारखे दिसतात. डीपफेक तंत्रज्ञान हे केवळ मनोरंजनाचे साधन नसून मानसिक त्रास देणारे, तसेच जीवघेणेसुद्धा आहे. पण समस्या त्या तंत्रज्ञानात नसून तिचा गैरवापर करण्यात आहे.
आजच्या डिजिटल युगात कृत्रिम बुद्धिमत्तेचा (AI) चा वापर सर्रास होतो आहे. त्यामध्ये रोज काही ना काही नवीन तंत्रज्ञान विकसित होत आहे. हे जितके आपल्या फायद्याचे आहे तितकेच नुकसादायी सुद्धा आहे.समाज माध्यमांमध्ये तर मनोरंजनात्मक व्हिडिओ, फोटो अपलोड करणे यासाठी तसेच शैक्षणिक क्षेत्रातही या तंत्रज्ञानाची मदत होत आहे. काही शैक्षणिक संस्थांनी तर अब्दुल कलाम, अल्बर्ट आईनस्टाईन यांचे डीपफेक व्हिडिओ तयार केले आहेत जेणेकरून विद्यार्थ्यांना वाटावे की खुद्द अब्दुल कलाम, आईनस्टाईनच आपल्याला शिकवत आहेत. पण त्यासोबतच दुसरीकडे सायबर गुन्ह्यांसाठी देखील याचा वापर केला जातो. म्हणजे खाेटे फोटो, व्हिडिओ बनवून समोरील व्यक्तीस ब्लॅकमेल करून पैसे उकळणे, किंवा जुन्या शत्रुत्वाचा बदला घेणे किंवा प्रेमात धोका, एकतर्फी प्रेमातून बदला या उद्देशानेसुद्धा या तंत्रज्ञानाचा वापर केला जात आहे.
डीपफेक हा प्रकार यापुढच्या काळात वाढत जाणार आहे. त्याची नकारात्मक बाजूही आपल्या वाट्याला येऊ शकते. त्यामुळे डीपफेक म्हणजे काय हे आपल्याला माहीत असले पाहिजे. डीपफेक हा शब्द डीप लर्निंग (Deep Learning) आणि बनावट, फेक (Fake) या दोन शब्दांपासून बनला आहे. यामध्ये एआय तंत्रज्ञान वापरून एखाद्या व्यक्तीचा चेहरा, आवाज हे दुसऱ्या कोणत्याही व्हिडिओ, छायाचित्रावर बसवले जातात. आणि त्यातून खरा वाटेल असा पण बनावट व्हिडिओ, छायाचित्रे तयार होतात.
डीपफेकचे फायदे तोटे?
या तंत्रज्ञानाचा चित्रपटक्षेत्रात चांगल्या प्रकारे वापर करता येऊ शकतो. शैक्षणिक क्षेत्रात इतिहासकालीन व्यक्तींविषयी शिकवताना शिकवता येते. किंवा विज्ञान, भूगोलसारखे विषय शिकवताना व्हिडिओ बनवून हे विषय चांगल्या प्रकारे शिकवता येतात. तसेच आपण हल्ली समाज माध्यमांवर पाहतो की एखाद्या लग्नात नवरदेव किंवा नवरीचे आई- वडील यांपैकी कोणी नसेल तर एआयचा आधार घेऊन लग्नात त्यांची उपस्थिती असलेला सुंदर, संस्मरणीय छायाचित्रे, व्हिडिओ बनवता येतो. याच्याउलट तोटे म्हणजे ओळखीतील, अनोळखी व्यक्तींचे खोटे आक्षेपार्ह छायाचित्रे, व्हिडिओ बनवून त्यांना ब्लॅकमेल करून पैसे उकळण्यासाठीही केला जाऊ शकतो. किंवा हे एआयमधीलच व्हॉईस तंत्रज्ञान वापरून फसवणूक करण्याचे प्रकारदेखील वाढू लागले आहेत.
आतापर्यंत गाजलेली डीपफेक प्रकरणे?
दिल्ली विधानसभेच्या निवडणुकीत मनोज तिवारी यांचा पक्षाच्या प्रचारासाठी डीपफेक व्डिडिओ केला गेला होता. यामध्ये आक्षेपार्ह काही नसले तरी भविष्यात राजकीय फायद्यासाठी त्याचा या तंत्रज्ञानाचा गैरवापर केला जाण्याची शक्यता नाकारता येत नाही. तसेच बिल पोस्टर्स (Bill Posters) आणि डॅनिएल हॉवे (Daniel Howe) या कलाकारांनी मार्क झुकरबर्ग यांचा डीपफेक व्हिडिओ तयार करून समाज माध्यमांवर अपलोड केला होता. अमेरिकन अभिनेता आणि दिग्दर्शक जॉर्डन पील (Jordan Peele) ने बराक ओबामा यांचा डीपफेक व्हिडिओ तयार करून त्यामार्फत चुकीचा संदेश परसवण्याचा प्रयत्न केला होता. आपल्या देशातही याचा वापर मोठ्या प्रमाणात होऊ लागला आहे. अभिनेत्री रश्मिका मंदाना, आलिया भट, प्रियाका चोप्रा, नोरा फतेही, क्रिकेटर सचिन तेंडुलकर, विराट कोहली तसेच अजून काही उद्योगपतीही या डीपफेक तंत्रज्ञानाचे शिकार झाले आहेत. रशिया – युक्रेन युद्धात दोन्ही देश स्वत:च्या सोयीनुसार या तंत्रज्ञानाचा वापर करत आहेत. हल्लीचेच एक ताजे उदाहरण म्हणजे एलिजा हेकॉक हा १६ वर्षीय तरूण त्याचा डीपफेक तयार केल्यामुळे सेक्स्टॉर्शनचा शिकार झाला. सायबर चोरांनी एआयच्या सहाय्याने त्याची नग्न छायाचित्रे तयार केली आणि ती त्याला पाठवली. ती छायाचित्रे त्याचे मित्र आणि नातेवाईकांना न पाठवण्यासाठी त्याच्याकडे तीन हजार डॉलर्सची मागणी करण्यात आली. सायबर चोरांच्या धमकीनंतर अवघ्या काही मिनिटांतच त्याने स्वत:चे आयुष्य संपवले. या तंत्रज्ञानामुळे न्यायालयीन कामकाजातदेखील अडथळे येऊ शकतात. खरे पुरावे, खोटे पुरावे नक्की कोणते हे ओळखणे कठीण जाऊ शकते.
काय उपाययोजना हव्यात?
सरकारने यासंदर्भात अत्यंत कडक कायदे बनवायला हवेत. खासकरून डीपफेकवर लक्ष केंद्रित करणारा एक वेगळा कायदा आणमे गरजेचे आहे. आयटी ॲक्टमध्ये सुधारणा करून एआय तंत्रज्ञानाचा दुरुपयोग करणाऱ्यांना कठोर शिक्षेची तरतूद केली गेली पाहिजे. एआय कंटेंट संदर्भात व्हेरिफिकेशन टूल विकसित करणे गरजेचे आहे. शालेय विद्यार्थ्यांना एआयचा नैतिक वापर शिकवणे तसेच नागरिकांना डीपफेक फोटो, व्हिडिओ कसे ओळखावे याबद्दल जनजागृती शिबिरे सतत राबवत राहणे गरजेचे आहे. प्रत्येक एआय टूलचा वापर करताना छायाचत्रे, व्हिडिओ यांच्यासाठी सरकार प्रमाणित वॉटरमार्क सिस्टीम म्हणजे सरकारने अधिकृत केलेला लोगो लावणे बंधनकारक असायला हवे.
समाज माध्यम कंपन्यांनी एआय डिटेक्शन टूल (AI Detection Tool) विकसित करून सर्व समाज माध्यम वापरकर्त्यांना ते मोफत देणे गरजेचे आहे. रिपोर्टींग प्रणाली सक्षम करणे. तसेच ट्रेंडिंग व्हिडिओ, एआय टूलवर व्हेरिफिकेशन प्रणाली लागू करणे या गोष्टी आवश्यक आहेत. तरुणांना सायबर सुरक्षिततेबद्दल जागरुक करणे तसेच त्यासंदर्भत योग्य शिक्षण देणे गरजेचे आहे.
तर काय कराल?
समजा, कुणीतरी तुमचा डीपफेक तयार करून तुम्हाला बदनामीची धमकी देऊ लागले किंवा पैशाची मागणी करू लागले, तर घाबरून जाऊन या लफंग्यांना बळी पडू नका. सर्वप्रथम तुमच्या सर्व मेसेंजर ॲपवरील संबंधित व्यक्तीबरोबर केलेल्या सर्व मेसेजेसचे स्क्रीन शॉट फोटो काढून ठेवावेत. त्यानंतर जे कॉल येतील त्यांचे रेकॉर्डिंग ठेवा. नंतर https://cybercrime.gov.in/ या वेबसाईटवर जाऊन तक्रार नोदवा. जोपर्यंत या वेबसाईटकडून तुम्हाला रिप्लाय येत नाही, तोपर्यंत पुन्हा पुन्हा तक्रार नोंदवत रहा. संबंधित खात्याकडून रिप्लाय आला की पुढील कारवाईला तत्काळ सुरुवात होते. सर्वात शेवटचे आणि महत्वाचे म्हणजे https://stopncii.org/ या वेबसाईटवर जाऊन create your case या पर्यायावर क्लिक करून तिथे आपली वेगवेगळ्या पोजमध्ये काही छायाचित्रे अपलोड करावीत. नंतर ही वेबसाईट आपण अपलोड केलेल्या छायाचित्रांची शहानिशा करून त्या डीपफेक छायाचित्रांशी संबंधित समाज माध्यमांवरील सर्व ॲडल्ट कंटेंट डेटा कायमस्वरुपी डिलीट करते. या वेबसाईटचा फोटो रिमूव्हल रेट ९० टक्के आहे.
त्यामुळे सावध रहाच, पण त्यानंतरही कुणी तुमचा गैरफायदा घ्यायचा प्रयत्न केला, तर गडबडून जाऊ नका. कायदा, सायबर पोलीस यांच्या सहाय्याने या लफंग्यांना निश्चितच धडा शिकवता येईल.
rohit.patil@expressindia.com