Apps That Use AI To Undress Women In Photos: महिलांचे फोटो अश्लील पद्धतीने एडिट करून विवस्त्र फोटो तयार करणारे AI निर्मित ॲप आणि वेबसाइट्स सध्या प्रचंड लोकप्रियता मिळवत असल्याचे समजतेय. एनडीटीव्हीने अहवालावर आधारित आकडे नमूद करत सांगितले की, सप्टेंबरमध्ये, 24 दशलक्ष लोकांनी फोटोमधील व्यक्तीला विवस्त्र दाखवणाऱ्या वेबसाइटला भेट दिली होती. सोशल नेटवर्क विश्लेषण करणारी कंपनी ‘ग्राफिका’ने हे निरीक्षण नोंदवले आहे.
ग्राफिकाच्या अहवालानुसार , ‘न्युडिफाय’ सेवा म्हणजेच वर म्हटल्याप्रमाणे फोटोतील व्यक्तीला विवस्त्र करण्याचे ॲपचं मार्केटिंग हे सोशल नेटवर्क वापरून केलं जात आहे. या वर्षाच्या सुरुवातीपासून, एक्स आणि रेडिटसह सोशल मीडियावर अशा ॲपची जाहिरात करणाऱ्या लिंक्सची संख्या २,४०० टक्क्यांपेक्षा जास्त वाढली आहे, असे संशोधकांनी सांगितले. हे ॲप मुळ फोटोला एडिट करून नग्न स्वरूपात पुन्हा तयार करण्यासाठी AI चा वापर करतात जेणेकरून ती व्यक्ती नग्न दिसते. याचा धोका प्रत्येकालाच असला तरी बहुसंख्यवेळा याचा वापर महिलांच्या फोटोला एडिट करण्यासाठी केला जातो.
हा एक प्रकारचा बनावट मीडिया प्रकार डीपफेक पोर्नोग्राफी म्हणून ओळखला जातो. याची निर्मिती व प्रसार हे दोन्ही कायदेशीर आणि नैतिक गुन्हे आहेत. कारण यासाठी फोटो हे अनेकदा सोशल मीडियावरून संबंधित व्यक्तीच्या कोणत्याही संमती, नियंत्रण किंवा माहितीशिवाय घेतले जातात. मध्यंतरी एका कंपनीने गूगलच्या स्पॉन्सर्ड कन्टेन्ट या भागात युट्युबवर अशा पद्धतीची जाहिरात सुद्धा केली होती, ज्यानुसार न्यूडिफाय हा शब्द सर्च करताच त्या ॲपचे पेज दिसत होते. या संदर्भात गूगलच्या प्रवक्त्यांनी सांगितले की, “गूगलतर्फे अश्लीलता किंवा नग्नता दर्शवणाऱ्या कॉन्टेन्टच्या जाहिरातींना परवानगी दिली जात नाही. ज्या जाहिरातींवरून प्रश्न करण्यात आले होते त्यांची सुद्धा तपासणी होत आहे व जर आमच्या नियमांमध्ये कॉन्टेन्ट बसत नसेल तर तो काढून टाकला जाईल. “
हे ॲप्स’ प्रसिद्ध का व कसे होतायत?
या वेबसाईट ॲपच्या लोकप्रियतेचे मुख्य कारण म्हणजे मागील काही वर्षात झालेल्या तांत्रिक प्रगतीमुळे फोटोची गुणवत्ता ही मूळ फोटोसारखीच टिकून राहते तसेच ओपन सोर्स असल्यामुळे या माध्यमांचा वापर मोफत सुद्धा करता येतो. ग्राफिकाचे विश्लेषक, सॅंटियागो लाकाटोस सांगतात की, पूर्वीचे डीपफेक हे सहज ओळखता येत होते, कारण त्याची गुणवत्ता कमी असायची मात्र आता तुम्ही असे काहीही निर्माण करू शकता जे खऱ्याप्रमाणेच भासते.
नक्की वापर कोणाकडून होतोय?
इलेक्ट्रॉनिक फ्रंटियर फाऊंडेशनच्या सायबरसुरक्षा संचालक इवा गॅलपेरिन म्हणाल्या, “या प्रकारच्या माध्यमांचा वापर हा अगदी सामान्य व्यक्तींकडून (शाळा- कॉलेजच्या विद्यार्थ्यांकडून सुद्धा होत असल्याची शक्यता आहे कारण सहसा ज्यांचे फोटो अशाप्रकारे एडिट केले जातात त्या व्यक्ती सुद्धा सेलेब्रिटी किंवा प्रसिद्ध व्यक्ती नसतात. अनेक पीडितांना तर याबाबत माहीतच नसते. पण ज्यांना याची माहिती मिळते ते सुद्धा घाबरून याविरुद्ध तक्रार किंवा कायदेशीर कारवाई करण्याची हिंमत करत नाहीत.”
प्राप्त माहितीनुसार, नोव्हेंबरमध्ये, नॉर्थ कॅरोलिना बाल मनोचिकित्सकाला त्याच्या रूग्णांच्या फोटोंवर कपडे उतरवणारे अॅप्स वापरल्याबद्दल ४० वर्षांच्या तुरुंगवासाची शिक्षा ठोठावण्यात आली होती, बाल लैंगिक शोषण सामग्रीच्या डीपफेक निर्मितीवर बंदी घालणाऱ्या कायद्यांतर्गत अशा प्रकारची ही पहिली कारवाई होती. मात्र सध्या डीपफेक पोर्नोग्राफीच्या निर्मितीवर बंदी घालणारा कोणताही कायदा नाही, जरी यूएस सरकारने अल्पवयीनांच्या अशा प्रकारच्या प्रतिमा तयार करणे बेकायदेशीर ठरवले आहे असले तरी त्यासंदर्भात कठोर निर्बंध लादणे आवश्यक आहेत.