पोर्न: एआई रेस – टाइम्स ऑफ इंडिया के बीच डीपफेक पोर्न कैसे एक बड़ी समस्या बन सकता है
आर्टिफिशियल इंटेलिजेंस इमेजिंग का उपयोग कला बनाने, वर्चुअल फिटिंग रूम में कपड़ों पर प्रयास करने या विज्ञापन अभियानों को डिजाइन करने में मदद करने के लिए किया जा सकता है। लेकिन विशेषज्ञों को डर है कि आसानी से सुलभ उपकरणों का गहरा पक्ष महिलाओं को मुख्य रूप से नुकसान पहुँचाने वाली चीज़ों को खराब कर सकता है: गैर-सहमति वाला डीपफेक पोर्नोग्राफ़ी। डीपफेक वे वीडियो और छवियां हैं जिन्हें कृत्रिम बुद्धिमत्ता या मशीन लर्निंग के साथ डिजिटल रूप से बनाया या बदला गया है। पॉर्न तकनीक का उपयोग करके बनाया गया, कई साल पहले पहली बार इंटरनेट पर फैलना शुरू हुआ, जब एक Reddit उपयोगकर्ता ने क्लिप साझा की, जिसमें महिला हस्तियों के चेहरों को पोर्न अभिनेताओं के कंधों पर रखा गया था। तब से, डीपफेक क्रिएटर्स ने इसी तरह के वीडियो और छवियों को ऑनलाइन प्रभावित करने वालों, पत्रकारों और सार्वजनिक प्रोफ़ाइल वाले अन्य लोगों को लक्षित करके प्रसारित किया है। ढेर सारी वेबसाइटों पर हज़ारों वीडियो मौजूद हैं। और कुछ उपयोगकर्ताओं को अपनी स्वयं की छवियां बनाने का अवसर प्रदान कर रहे हैं – अनिवार्य रूप से किसी को भी उनकी सहमति के बिना यौन फंतासी में बदलने की अनुमति देता है, या पूर्व भागीदारों को नुकसान पहुंचाने के लिए तकनीक का उपयोग करता है। विशेषज्ञों का कहना है कि यह समस्या तब बढ़ी जब परिष्कृत और देखने में आकर्षक डीपफेक बनाना आसान हो गया। और वे कहते हैं कि यह जेनेरेटिव एआई टूल्स के विकास के साथ और भी खराब हो सकता है जो इंटरनेट से अरबों छवियों पर प्रशिक्षित होते हैं और मौजूदा डेटा का उपयोग करके उपन्यास सामग्री को थूकते हैं। एंडटैब के संस्थापक एडम डॉज ने कहा, “वास्तविकता यह है कि प्रौद्योगिकी का प्रसार जारी रहेगा, विकास जारी रहेगा और बटन दबाने जितना आसान होता रहेगा।” . “और जब तक ऐसा होता है, निस्संदेह लोग … दूसरों को नुकसान पहुंचाने के लिए उस तकनीक का दुरुपयोग करना जारी रखेंगे, मुख्य रूप से ऑनलाइन यौन हिंसा, डीपफेक पोर्नोग्राफी और नकली नग्न छवियों के माध्यम से।” पर्थ, ऑस्ट्रेलिया के नोएल मार्टिन ने उस वास्तविकता का अनुभव किया है। 28 वर्षीया ने 10 साल पहले खुद का डीपफेक पोर्न तब खोजा जब एक दिन जिज्ञासा से बाहर उसने खुद की एक छवि खोजने के लिए Google का इस्तेमाल किया। आज तक, मार्टिन उनका कहना है कि उन्हें नहीं पता कि उनके यौन संबंध बनाने की नकली तस्वीरें या वीडियो किसने बनाए थे, जो उन्हें बाद में मिले। उसे संदेह है कि किसी ने उसके सोशल मीडिया पेज या अन्य जगहों पर पोस्ट की गई तस्वीर को ले लिया और उसे अश्लील बना दिया। भयभीत, मार्टिन ने छवियों को हटाने के प्रयास में कई वर्षों तक विभिन्न वेबसाइटों से संपर्क किया। कुछ ने जवाब नहीं दिया। दूसरों ने इसे नीचे ले लिया लेकिन उसने जल्द ही इसे फिर से खोज लिया। “आप जीत नहीं सकते,” मार्टिन ने कहा। “यह कुछ ऐसा है जो हमेशा बाहर रहेगा। यह ऐसा है जैसे इसने आपको हमेशा के लिए बर्बाद कर दिया है।” वह जितना अधिक बोलती, वह कहती, समस्या उतनी ही बढ़ती जाती। कुछ लोगों ने उसे यह भी बताया कि उसने जिस तरह से कपड़े पहने और सोशल मीडिया पर छवियों को पोस्ट किया, उसने उत्पीड़न में योगदान दिया – अनिवार्य रूप से उसे रचनाकारों के बजाय छवियों के लिए दोषी ठहराया। आखिरकार, मार्टिन ने ऑस्ट्रेलिया में एक राष्ट्रीय कानून की वकालत करते हुए अपना ध्यान कानून की ओर लगाया, जो ऑनलाइन सुरक्षा नियामकों से ऐसी सामग्री को हटाने के नोटिस का पालन नहीं करने पर कंपनियों पर 555,000 ऑस्ट्रेलियाई डॉलर ($370,706) का जुर्माना लगाएगा। लेकिन इंटरनेट पर शासन करना लगभग असंभव है जब देशों के पास सामग्री के लिए अपने स्वयं के कानून होते हैं जो कभी-कभी दुनिया भर में आधे रास्ते बना दिए जाते हैं। मार्टिन, वर्तमान में एक वकील और कानूनी शोधकर्ता हैं पश्चिमी ऑस्ट्रेलिया विश्वविद्यालयकहती हैं कि उनका मानना है कि समस्या को किसी प्रकार के वैश्विक समाधान के माध्यम से नियंत्रित किया जाना चाहिए। इस बीच, कुछ एआई मॉडल का कहना है कि वे पहले से ही स्पष्ट छवियों तक पहुंच को रोक रहे हैं। OpenAI का कहना है कि उसने इमेज जनरेटिंग टूल DALL-E को प्रशिक्षित करने के लिए उपयोग किए गए डेटा से स्पष्ट सामग्री को हटा दिया, जो उपयोगकर्ताओं की उन प्रकार की छवियों को बनाने की क्षमता को सीमित करता है। कंपनी अनुरोधों को भी फ़िल्टर करती है और कहती है कि यह उपयोगकर्ताओं को मशहूर हस्तियों और प्रमुख राजनेताओं की एआई छवियां बनाने से रोकती है। मिडजर्नी, एक अन्य मॉडल, कुछ कीवर्ड के उपयोग को अवरुद्ध करता है और उपयोगकर्ताओं को समस्याग्रस्त छवियों को मध्यस्थों को फ़्लैग करने के लिए प्रोत्साहित करता है। इस बीच, स्टार्टअप स्टैबिलिटी एआई ने नवंबर में एक अपडेट जारी किया जो अपने इमेज जनरेटर स्टेबल डिफ्यूजन का उपयोग करके स्पष्ट छवियां बनाने की क्षमता को हटा देता है। ये बदलाव उन रिपोर्टों के बाद आए हैं जिनमें कहा गया था कि कुछ उपयोगकर्ता तकनीक का उपयोग करके सेलिब्रिटी से प्रेरित नग्न चित्र बना रहे थे। स्थिरता एआई के प्रवक्ता मोटेज़ बिशारा ने कहा कि फ़िल्टर नग्नता का पता लगाने के लिए खोजशब्दों और छवि पहचान जैसी अन्य तकनीकों के संयोजन का उपयोग करता है और एक धुंधली छवि देता है। लेकिन उपयोगकर्ताओं के लिए सॉफ्टवेयर में हेरफेर करना संभव है और वे जो चाहते हैं उसे उत्पन्न कर सकते हैं क्योंकि कंपनी अपना कोड जनता के लिए जारी करती है। बिशारा ने कहा कि स्थिरता एआई का लाइसेंस “स्थिर प्रसार पर निर्मित तीसरे पक्ष के अनुप्रयोगों तक फैला हुआ है” और “अवैध या अनैतिक उद्देश्यों के लिए किसी भी दुरुपयोग” को सख्ती से प्रतिबंधित करता है। कुछ सोशल मीडिया कंपनियां भी अपने प्लेटफॉर्म को हानिकारक सामग्री से बेहतर तरीके से बचाने के लिए अपने नियमों को कड़ा कर रही हैं। टिक टॉक पिछले महीने कहा था कि वास्तविक दृश्य दिखाने वाले सभी डीपफेक या हेराफेरी वाली सामग्री को यह इंगित करने के लिए लेबल किया जाना चाहिए कि वे नकली हैं या किसी तरह से बदली हुई हैं, और यह कि निजी हस्तियों और युवाओं के डीपफेक की अब अनुमति नहीं है। इससे पहले, कंपनी ने यौन रूप से स्पष्ट सामग्री और डीपफेक पर रोक लगा दी थी जो दर्शकों को वास्तविक दुनिया की घटनाओं के बारे में गुमराह करती है और नुकसान पहुंचाती है। जनवरी के अंत में एक लाइवस्ट्रीम के दौरान Atrioc नाम के एक लोकप्रिय स्ट्रीमर द्वारा अपने ब्राउज़र पर एक डीपफेक पोर्न वेबसाइट खोलने का पता चलने के बाद गेमिंग प्लेटफॉर्म ट्विच ने भी हाल ही में स्पष्ट डीपफेक छवियों के आसपास अपनी नीतियों को अपडेट किया। साइट में साथी ट्विच स्ट्रीमर्स की नकली तस्वीरें दिखाई गईं। कंपनी ने एक ब्लॉग पोस्ट में लिखा है कि ट्विच ने पहले से ही डीपफेक को प्रतिबंधित कर दिया था, लेकिन अब ऐसी सामग्री की झलक दिखा रहा है – भले ही इसका उद्देश्य नाराजगी व्यक्त करना हो – “हटा दिया जाएगा और इसके परिणामस्वरूप एक प्रवर्तन होगा”। और सामग्री को जानबूझकर बढ़ावा देना, बनाना या साझा करना तत्काल प्रतिबंध लगाने का आधार है। अन्य कंपनियों ने भी अपने प्लेटफॉर्म से डीपफेक पर प्रतिबंध लगाने की कोशिश की है, लेकिन उन्हें दूर रखने के लिए परिश्रम की आवश्यकता है। Apple और Google ने हाल ही में कहा कि उन्होंने अपने ऐप स्टोर से एक ऐप हटा दिया है जो उत्पाद की मार्केटिंग करने के लिए अभिनेत्रियों के अश्लील डीपफेक वीडियो चला रहा था। डीपफेक पोर्न में शोध प्रचलित नहीं है, लेकिन एआई फर्म डीपट्रेस लैब्स द्वारा 2019 में जारी एक रिपोर्ट में पाया गया कि इसे लगभग पूरी तरह से महिलाओं के खिलाफ हथियार बनाया गया था और सबसे अधिक लक्षित व्यक्ति पश्चिमी अभिनेत्रियां थीं, इसके बाद दक्षिण कोरियाई के-पॉप गायक थे। Google और Apple द्वारा हटाए गए उसी ऐप ने मेटा के प्लेटफ़ॉर्म पर विज्ञापन चलाए थे, जिसमें Facebook, Instagram और Messenger शामिल हैं। मेटा के प्रवक्ता दानी लीवर ने एक बयान में कहा कि कंपनी की नीति एआई-जनित और गैर-एआई वयस्क सामग्री दोनों को प्रतिबंधित करती है और इसने ऐप के पेज को अपने प्लेटफॉर्म पर विज्ञापन देने से प्रतिबंधित कर दिया है। फरवरी में, मेटा, साथ ही साथ केवल फैन्स और पोर्नहब जैसी वयस्क साइटों ने टेक इट डाउन नामक एक ऑनलाइन टूल में भाग लेना शुरू किया, जो किशोरों को इंटरनेट से स्पष्ट छवियों और वीडियो की रिपोर्ट करने की अनुमति देता है। रिपोर्टिंग साइट नियमित छवियों और एआई-जनित सामग्री के लिए काम करती है – जो बाल सुरक्षा समूहों के लिए एक बढ़ती हुई चिंता बन गई है। “जब लोग हमारे वरिष्ठ नेतृत्व से पूछते हैं कि पहाड़ी से नीचे आने वाले बोल्डर क्या हैं जिसके बारे में हम चिंतित हैं? गैविन पोर्टनॉय, नेशनल सेंटर फ़ॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रन के प्रवक्ता हैं, जो टेक इट डाउन टूल का संचालन करता है। पोर्टनॉय ने कहा, “हम अभी तक इसका सीधा जवाब नहीं दे पाए हैं।”