पोर्न: एआई रेस – टाइम्स ऑफ इंडिया के बीच डीपफेक पोर्न कैसे एक बड़ी समस्या बन सकता है



आर्टिफिशियल इंटेलिजेंस इमेजिंग का उपयोग कला बनाने, वर्चुअल फिटिंग रूम में कपड़ों पर प्रयास करने या विज्ञापन अभियानों को डिजाइन करने में मदद करने के लिए किया जा सकता है।
लेकिन विशेषज्ञों को डर है कि आसानी से सुलभ उपकरणों का गहरा पक्ष महिलाओं को मुख्य रूप से नुकसान पहुँचाने वाली चीज़ों को खराब कर सकता है: गैर-सहमति वाला डीपफेक पोर्नोग्राफ़ी।
डीपफेक वे वीडियो और छवियां हैं जिन्हें कृत्रिम बुद्धिमत्ता या मशीन लर्निंग के साथ डिजिटल रूप से बनाया या बदला गया है। पॉर्न तकनीक का उपयोग करके बनाया गया, कई साल पहले पहली बार इंटरनेट पर फैलना शुरू हुआ, जब एक Reddit उपयोगकर्ता ने क्लिप साझा की, जिसमें महिला हस्तियों के चेहरों को पोर्न अभिनेताओं के कंधों पर रखा गया था।
तब से, डीपफेक क्रिएटर्स ने इसी तरह के वीडियो और छवियों को ऑनलाइन प्रभावित करने वालों, पत्रकारों और सार्वजनिक प्रोफ़ाइल वाले अन्य लोगों को लक्षित करके प्रसारित किया है। ढेर सारी वेबसाइटों पर हज़ारों वीडियो मौजूद हैं। और कुछ उपयोगकर्ताओं को अपनी स्वयं की छवियां बनाने का अवसर प्रदान कर रहे हैं – अनिवार्य रूप से किसी को भी उनकी सहमति के बिना यौन फंतासी में बदलने की अनुमति देता है, या पूर्व भागीदारों को नुकसान पहुंचाने के लिए तकनीक का उपयोग करता है।
विशेषज्ञों का कहना है कि यह समस्या तब बढ़ी जब परिष्कृत और देखने में आकर्षक डीपफेक बनाना आसान हो गया। और वे कहते हैं कि यह जेनेरेटिव एआई टूल्स के विकास के साथ और भी खराब हो सकता है जो इंटरनेट से अरबों छवियों पर प्रशिक्षित होते हैं और मौजूदा डेटा का उपयोग करके उपन्यास सामग्री को थूकते हैं।
एंडटैब के संस्थापक एडम डॉज ने कहा, “वास्तविकता यह है कि प्रौद्योगिकी का प्रसार जारी रहेगा, विकास जारी रहेगा और बटन दबाने जितना आसान होता रहेगा।” . “और जब तक ऐसा होता है, निस्संदेह लोग … दूसरों को नुकसान पहुंचाने के लिए उस तकनीक का दुरुपयोग करना जारी रखेंगे, मुख्य रूप से ऑनलाइन यौन हिंसा, डीपफेक पोर्नोग्राफी और नकली नग्न छवियों के माध्यम से।”
पर्थ, ऑस्ट्रेलिया के नोएल मार्टिन ने उस वास्तविकता का अनुभव किया है। 28 वर्षीया ने 10 साल पहले खुद का डीपफेक पोर्न तब खोजा जब एक दिन जिज्ञासा से बाहर उसने खुद की एक छवि खोजने के लिए Google का इस्तेमाल किया। आज तक, मार्टिन उनका कहना है कि उन्हें नहीं पता कि उनके यौन संबंध बनाने की नकली तस्वीरें या वीडियो किसने बनाए थे, जो उन्हें बाद में मिले। उसे संदेह है कि किसी ने उसके सोशल मीडिया पेज या अन्य जगहों पर पोस्ट की गई तस्वीर को ले लिया और उसे अश्लील बना दिया।
भयभीत, मार्टिन ने छवियों को हटाने के प्रयास में कई वर्षों तक विभिन्न वेबसाइटों से संपर्क किया। कुछ ने जवाब नहीं दिया। दूसरों ने इसे नीचे ले लिया लेकिन उसने जल्द ही इसे फिर से खोज लिया।
“आप जीत नहीं सकते,” मार्टिन ने कहा। “यह कुछ ऐसा है जो हमेशा बाहर रहेगा। यह ऐसा है जैसे इसने आपको हमेशा के लिए बर्बाद कर दिया है।”
वह जितना अधिक बोलती, वह कहती, समस्या उतनी ही बढ़ती जाती। कुछ लोगों ने उसे यह भी बताया कि उसने जिस तरह से कपड़े पहने और सोशल मीडिया पर छवियों को पोस्ट किया, उसने उत्पीड़न में योगदान दिया – अनिवार्य रूप से उसे रचनाकारों के बजाय छवियों के लिए दोषी ठहराया।
आखिरकार, मार्टिन ने ऑस्ट्रेलिया में एक राष्ट्रीय कानून की वकालत करते हुए अपना ध्यान कानून की ओर लगाया, जो ऑनलाइन सुरक्षा नियामकों से ऐसी सामग्री को हटाने के नोटिस का पालन नहीं करने पर कंपनियों पर 555,000 ऑस्ट्रेलियाई डॉलर ($370,706) का जुर्माना लगाएगा।
लेकिन इंटरनेट पर शासन करना लगभग असंभव है जब देशों के पास सामग्री के लिए अपने स्वयं के कानून होते हैं जो कभी-कभी दुनिया भर में आधे रास्ते बना दिए जाते हैं। मार्टिन, वर्तमान में एक वकील और कानूनी शोधकर्ता हैं पश्चिमी ऑस्ट्रेलिया विश्वविद्यालयकहती हैं कि उनका मानना ​​है कि समस्या को किसी प्रकार के वैश्विक समाधान के माध्यम से नियंत्रित किया जाना चाहिए।
इस बीच, कुछ एआई मॉडल का कहना है कि वे पहले से ही स्पष्ट छवियों तक पहुंच को रोक रहे हैं।
OpenAI का कहना है कि उसने इमेज जनरेटिंग टूल DALL-E को प्रशिक्षित करने के लिए उपयोग किए गए डेटा से स्पष्ट सामग्री को हटा दिया, जो उपयोगकर्ताओं की उन प्रकार की छवियों को बनाने की क्षमता को सीमित करता है। कंपनी अनुरोधों को भी फ़िल्टर करती है और कहती है कि यह उपयोगकर्ताओं को मशहूर हस्तियों और प्रमुख राजनेताओं की एआई छवियां बनाने से रोकती है। मिडजर्नी, एक अन्य मॉडल, कुछ कीवर्ड के उपयोग को अवरुद्ध करता है और उपयोगकर्ताओं को समस्याग्रस्त छवियों को मध्यस्थों को फ़्लैग करने के लिए प्रोत्साहित करता है।
इस बीच, स्टार्टअप स्टैबिलिटी एआई ने नवंबर में एक अपडेट जारी किया जो अपने इमेज जनरेटर स्टेबल डिफ्यूजन का उपयोग करके स्पष्ट छवियां बनाने की क्षमता को हटा देता है। ये बदलाव उन रिपोर्टों के बाद आए हैं जिनमें कहा गया था कि कुछ उपयोगकर्ता तकनीक का उपयोग करके सेलिब्रिटी से प्रेरित नग्न चित्र बना रहे थे।
स्थिरता एआई के प्रवक्ता मोटेज़ बिशारा ने कहा कि फ़िल्टर नग्नता का पता लगाने के लिए खोजशब्दों और छवि पहचान जैसी अन्य तकनीकों के संयोजन का उपयोग करता है और एक धुंधली छवि देता है। लेकिन उपयोगकर्ताओं के लिए सॉफ्टवेयर में हेरफेर करना संभव है और वे जो चाहते हैं उसे उत्पन्न कर सकते हैं क्योंकि कंपनी अपना कोड जनता के लिए जारी करती है। बिशारा ने कहा कि स्थिरता एआई का लाइसेंस “स्थिर प्रसार पर निर्मित तीसरे पक्ष के अनुप्रयोगों तक फैला हुआ है” और “अवैध या अनैतिक उद्देश्यों के लिए किसी भी दुरुपयोग” को सख्ती से प्रतिबंधित करता है।
कुछ सोशल मीडिया कंपनियां भी अपने प्लेटफॉर्म को हानिकारक सामग्री से बेहतर तरीके से बचाने के लिए अपने नियमों को कड़ा कर रही हैं।
टिक टॉक पिछले महीने कहा था कि वास्तविक दृश्य दिखाने वाले सभी डीपफेक या हेराफेरी वाली सामग्री को यह इंगित करने के लिए लेबल किया जाना चाहिए कि वे नकली हैं या किसी तरह से बदली हुई हैं, और यह कि निजी हस्तियों और युवाओं के डीपफेक की अब अनुमति नहीं है। इससे पहले, कंपनी ने यौन रूप से स्पष्ट सामग्री और डीपफेक पर रोक लगा दी थी जो दर्शकों को वास्तविक दुनिया की घटनाओं के बारे में गुमराह करती है और नुकसान पहुंचाती है।
जनवरी के अंत में एक लाइवस्ट्रीम के दौरान Atrioc नाम के एक लोकप्रिय स्ट्रीमर द्वारा अपने ब्राउज़र पर एक डीपफेक पोर्न वेबसाइट खोलने का पता चलने के बाद गेमिंग प्लेटफॉर्म ट्विच ने भी हाल ही में स्पष्ट डीपफेक छवियों के आसपास अपनी नीतियों को अपडेट किया। साइट में साथी ट्विच स्ट्रीमर्स की नकली तस्वीरें दिखाई गईं।
कंपनी ने एक ब्लॉग पोस्ट में लिखा है कि ट्विच ने पहले से ही डीपफेक को प्रतिबंधित कर दिया था, लेकिन अब ऐसी सामग्री की झलक दिखा रहा है – भले ही इसका उद्देश्य नाराजगी व्यक्त करना हो – “हटा दिया जाएगा और इसके परिणामस्वरूप एक प्रवर्तन होगा”। और सामग्री को जानबूझकर बढ़ावा देना, बनाना या साझा करना तत्काल प्रतिबंध लगाने का आधार है।
अन्य कंपनियों ने भी अपने प्लेटफॉर्म से डीपफेक पर प्रतिबंध लगाने की कोशिश की है, लेकिन उन्हें दूर रखने के लिए परिश्रम की आवश्यकता है।
Apple और Google ने हाल ही में कहा कि उन्होंने अपने ऐप स्टोर से एक ऐप हटा दिया है जो उत्पाद की मार्केटिंग करने के लिए अभिनेत्रियों के अश्लील डीपफेक वीडियो चला रहा था। डीपफेक पोर्न में शोध प्रचलित नहीं है, लेकिन एआई फर्म डीपट्रेस लैब्स द्वारा 2019 में जारी एक रिपोर्ट में पाया गया कि इसे लगभग पूरी तरह से महिलाओं के खिलाफ हथियार बनाया गया था और सबसे अधिक लक्षित व्यक्ति पश्चिमी अभिनेत्रियां थीं, इसके बाद दक्षिण कोरियाई के-पॉप गायक थे।
Google और Apple द्वारा हटाए गए उसी ऐप ने मेटा के प्लेटफ़ॉर्म पर विज्ञापन चलाए थे, जिसमें Facebook, Instagram और Messenger शामिल हैं। मेटा के प्रवक्ता दानी लीवर ने एक बयान में कहा कि कंपनी की नीति एआई-जनित और गैर-एआई वयस्क सामग्री दोनों को प्रतिबंधित करती है और इसने ऐप के पेज को अपने प्लेटफॉर्म पर विज्ञापन देने से प्रतिबंधित कर दिया है।
फरवरी में, मेटा, साथ ही साथ केवल फैन्स और पोर्नहब जैसी वयस्क साइटों ने टेक इट डाउन नामक एक ऑनलाइन टूल में भाग लेना शुरू किया, जो किशोरों को इंटरनेट से स्पष्ट छवियों और वीडियो की रिपोर्ट करने की अनुमति देता है। रिपोर्टिंग साइट नियमित छवियों और एआई-जनित सामग्री के लिए काम करती है – जो बाल सुरक्षा समूहों के लिए एक बढ़ती हुई चिंता बन गई है।
“जब लोग हमारे वरिष्ठ नेतृत्व से पूछते हैं कि पहाड़ी से नीचे आने वाले बोल्डर क्या हैं जिसके बारे में हम चिंतित हैं? गैविन पोर्टनॉय, नेशनल सेंटर फ़ॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रन के प्रवक्ता हैं, जो टेक इट डाउन टूल का संचालन करता है।
पोर्टनॉय ने कहा, “हम अभी तक इसका सीधा जवाब नहीं दे पाए हैं।”



News India24

Recent Posts

मिचेल स्टार्क ने सभी प्रारूपों में जसप्रीत बुमराह की सफलता का कारण बताया

ऑस्ट्रेलिया के स्टार तेज गेंदबाज मिशेल स्टार्क ने हाल के दिनों में तीनों प्रारूपों में…

2 hours ago

विधानसभा चुनाव परिणाम 2024 लाइव स्ट्रीमिंग: चुनाव परिणाम कब और कहाँ देखें?

छवि स्रोत: इंडिया टीवी विधानसभा चुनाव परिणाम 2024 लाइव स्ट्रीमिंग विधानसभा चुनाव परिणाम 2024 लाइव…

2 hours ago

महाराष्ट्र और झारखंड के चुनाव नतीजे शनिवार को आएंगे: कब और कहां देखें? -न्यूज़18

आखरी अपडेट:22 नवंबर, 2024, 17:54 ISTECI चुनाव परिणाम 2024 महाराष्ट्र और झारखंड: दो बेहद प्रतिस्पर्धी…

2 hours ago

दिल्ली के एलजी वीके सक्सेना ने की सीएम आतिशी का दबदबा – इंडिया टीवी हिंदी

छवि स्रोत: पीटीआई एलजी वीके सक्सेना के साथ सीएम आतिशी नई दिल्ली दिल्ली में आम…

3 hours ago

बेंगलुरु में पकड़ा गया सबसे खतरनाक खतरनाक सांप, कीमत इतनी कि जानकर हैरान रह जाएंगे आप – India TV Hindi

छवि स्रोत: इंडिया टीवी बेंगलुरु पुलिस की सेंट्रल क्राइम ब्रांच ने कोकीन और गैसोलीन होल्डी…

3 hours ago

शेयर बाजार में उछाल: सेंसेक्स 1961 अंक चढ़ा, निफ्टी 557 अंक की बढ़त के साथ रिकॉर्ड ऊंचाई पर पहुंचा | प्रमुख कलाकार

छवि स्रोत: फ़ाइल फ़ोटो प्रतीकात्मक तस्वीर लंबे समय की सुस्ती के बाद भारतीय शेयर बाजार…

4 hours ago