नवी दिल्ली, 15 फेब्रुवारी: इंटरनेट, कृत्रिम बुद्धिमत्ता (Artificial Intelligence) इत्यादी आधुनिक तंत्रज्ञानाच्या प्रगत अविष्कारांचा वापर करून मानवी जीवन अधिकाधिक सुसह्य होत असलं तरी या आधुनिक तंत्रज्ञानाचा गैरवापरही वाढल्यानं त्याचे धोकेही वाढत आहेत. अलीकडच्या काळात प्रसिद्ध अभिनेत्रींचे चेहरे दुसऱ्या एखाद्या शरीरासह एडिट करून पॉर्न व्हिडीओ (Fake Porn Video) बनवण्याच्या अनेक घटना समोर आल्या आहेत. यासाठीचे 'डीपफेक्स' (Deepfex) तंत्रज्ञान जगभरातील लोकांचे लक्ष वेधून घेत असून, या धोकादायक तंत्राच्या वाढत्या वापरामुळे फेक न्यूजप्रमाणे फेक पॉर्नचं हे संकटही दिवसेंदिवस गंभीर होण्याची भीती व्यक्त केली जात आहे. बीबीसीनं याबाबतचं वृत्त दिलं आहे.
आजकाल असे व्हिडीओ बनवणे अतिशय सोपे झाले आहे. यासाठी काही सॉफ्टवेअर्स उपलब्ध झाली असून, त्यांचा वापर प्रचंड वाढला आहे. अशा एका सॉफ्टवेअरच्या डिझायनर्सनी दिलेल्या माहितीनुसार, त्यांचे सॉफ्टवेअर रिलीज झाल्यापासून एका महिन्यातच लाखाहून अधिक वेळा डाउनलोड केलं गेलं आहे. याचा वापर करून हॉलिवूडमधील प्रसिद्ध अभिनेत्रींचे फेक पॉर्न व्हिडीओ बनवण्यात येत असल्याचं नुकतंच उघड झालं आहे. अचानक सोशल मीडियावर व्हायरल झालेल्या सेक्स टेपमध्ये असे प्रसिद्ध चेहरे दिसत आहेत. नंतर ते बनावट व्हिडीओ असल्याचं उघडकीस येतं. राजकीय व्यक्तीही यातून सुटलेल्या नाहीत. राजकीय व्यक्तींच्या चेहऱ्यांचा वापर करून विशिष्ट कारणाचा प्रचार करण्यासाठी व्हिडीओ बनवण्यात आले आहेत. मीडिया अहवालानुसार, अमेरिकेचे माजी राष्ट्राध्यक्ष डोनाल्ड ट्रम्प यांच्या चेहऱ्याचा वापर करून असे अनेक बनावट व्हिडीओ तयार करण्यात आले आहेत.
हे वाचा-लॅबमध्ये तयार होऊ शकतो प्रेमाचा फॉर्म्युला? पाहा काय आहे 'केमिकल लोचा'!
यापूर्वीही असे प्रकार होत असत, मात्र त्याचं प्रमाण खूप कमी होतं कारण तेव्हा आतासारखं सहजसोपं तंत्रज्ञान उपलब्ध नव्हतं. असे प्रयोग करण्यासाठी खूप वेळ आणि कष्टही करावे लागत. आता मात्र हे अगदी सोपं झालं आहे. अगदी तीन टप्प्यांमध्ये हे काम केले जातं. एखाद्या व्यक्तीचे फोटो गोळा करणे, पॉर्न व्हिडिओ निवडणं आणि नंतर सॉफ्टवेअर उर्वरित काम पूर्ण करेपर्यंत वाट पाहणं. एखादी लहानशी बनावट सेक्स टेप बनवण्यासाठी 40 तास लागू शकतात. ज्यांचे स्पष्ट आणि भरपूर फोटो मिळतात अशा लोकांच्या फोटोंचा वापर करून डीपफेक्स बनवले जातात.
सेलिब्रिटींचे डीपफेक सर्वाधिक लोकप्रिय आहेत. सोशल मीडियावर सेलिब्रिटीज भरपूर सेल्फी पोस्ट करत असल्यानं त्यांचे स्पष्ट, अगदी जवळून घेतलेले फोटो, व्हिडीओ सहज उपलब्ध असतात, त्यामुळे असे बनावट व्हिडीओ तयार करणं अधिक सोपं जातं. हॉलिवूड अभिनेत्री एम्मा वॉटसनच्या फोटोचा डीपफेकमध्ये मोठ्या प्रमाणावर वापर केला गेला असून, मिशेल ओबामा, इव्हांका ट्रम्प आणि केट मिडलटन यांचेही डीपफेक बनवले गेले आहेत. डीपफेक्स या तंत्राचा प्रभाव दाखवणारे पहिले डीपफेक वंडर वुमनची भूमिका करणाऱ्या गेल गॅडोट हिचे होते. दक्षिण कोरियामध्ये इंटरनेटवर 'डीपफेक्स' सर्च करण्याचे प्रमाण अधिक असल्याचं आढळलं आहे.
अशा बनावट व्हिडीओंचे प्रमाण वाढत असल्यानं पॉर्न कंटेंट शेअर करण्याची परवानगी देणार्या काही वेबसाइट्स आता यावर नियंत्रण आणण्याचा विचार करत आहेत. मात्र हे प्रमाण कमी आहे. अनेक संस्था आणि कंपन्या याबाबत जागरूक नाहीत. ज्या वेबसाइटसवर असे साहित्य येत आहे, त्यावर लक्ष ठेवले जात आहे. परंतु, त्यावर काय उपाययोजना करावी, हे बहुतेकांना कळत नाही. अलीकडेच जिफकॅट (Gifcat) नावाच्या एका इमेज होस्टिंग साइटनं अशा डीपफेक्स (DeepFex) असलेल्या पोस्ट काढून टाकल्या आहेत. गुगलनं यापूर्वी अशा कंटेंटच्या सर्चवर नियंत्रण आणण्यासाठी काही पावले उचलली होती. मात्र आता या टप्प्यावर गुगल काय पावलं उचलेल हे आत्ताच सांगणे कठीण आहे. अलीकडच्या काळात अनेक वेबसाइटसना तथाकथित 'रिव्हेंज पॉर्न'च्या समस्येचाही सामना करावा लागला आहे. यामध्ये एखाद्या व्यक्तीची बदनामी करण्यासाठी त्याचे खरे फोटो विनापरवाना पोस्ट केले जातात. त्या व्यक्तीचा बदला घेण्यासाठी असं केलं जातं.
मराठी बातम्या, ब्रेकिंग न्यूज मराठीत सर्वात आधी News18 लोकमतवर. आजच्या ताज्या बातम्या, लाइव्ह न्यूज अपडेट, सर्वात आधी वाचा विश्वासार्ह मराठी न्यूज वेबसाइट News18 लोकमतवर.
Tags: Hollywood, Porn sites, Porn video, Revenge porn