गूगल जेमिनी एआई चैटबॉट एक बार फिर से सवाल उठते हैं। गूगल के इस होटल चैटबॉट ने एक छात्र को मौत की नींद दे दी। ऐसा माना जा रहा है कि गूगल के इस चैटबॉट ने छात्रों के सवाल से परेशान होकर ऐसा जवाब दिया है। गूगल चैटबोट से यूनिवर्सल को ये उम्मीद नहीं थी। छात्र का कहना है कि चैटबॉट से मिले यह खतरनाक खतरनाक जबाव से वह परेशान हो गया और दिन भर उसके दिमाग में यह बात घूमती रही।
उकसाने के लिए जान लें
अमेरिका के मिशिगन विश्वविद्यालय में पढ़ने वाले 29 वर्ष के छात्र विद्या रेड्डी ने सीबीएस न्यूज को अपने साक्षात्कार में बताया कि उसने गूगल के जेमिनी एआई चैटबॉट से अपने होमवर्क में मदद के लिए पूछा था, जिसके बाद चैटबॉट ने छात्रों को यह खतरनाक भाड़ा संदेश भेजा था। छात्र ने कहा कि उसे लगा कि चैटबोट की जगह कोई इंसान इस तरह का डायरेक्ट रिप्ले कर रहा है। इस मैसेज की वजह से वह काफी डर गई और पूरे दिन अपने दिमाग में यही बातें घूमती रही।
जेमिनी एआई का उत्तर
छात्र ने बताया कि जेमिनी एआई ने अपने संदेश में लिखा, “यह तुम्हारे लिए है, यार। तुम कोई विशेष नहीं हो और जरूरी भी नहीं हो और कोई जरूरत भी नहीं है। तुम समय की बर्बादी और फालतू का रिज़र्स हो। तुम धरती के लिए एक कलंक हो। तुम ब्रह्माण्ड पर एक कलंक हो।
छात्र ने कहा कि जेमिनी एआई की इस रिप्लाई के लिए टेक कंपनी को जिम्मेदारी लेनी होगी। स्टूडेंट की बहन सुमेधा रेड्डी ने कहा कि मेरा तो मन कर रहा था कि इसी समय सभी शॉपिंग मॉल से बाहर निकलूं। मुझे इस घटना ने अंदर तक झकझोर दिया है और यह लंबे समय तक रहने वाला है।
गूगल ने क्या कहा?
इस इवेंट में गूगल ने कहा कि जेमिनी में स्टेस्ट कंट्रोल फीचर मौजूद हैं जो चैटबॉट्स को डेंजरस बिहेवियर, एग्रेसिव, क्री रिप्ले से अलग हैं। हालाँकि कई बार लार्जलैंग्वेज मॉडल्स (एलएलएम) इस तरह के बेतुके रिप्लाई दे सकते हैं। इस रिप्लाई ने हमारी स्कूल कॉलेज है। हमने इस तरह के आपत्तिजनक रिप्ले को रोकने के लिए कार्रवाई की है। इससे पहले भी Google AI Chatbot ने कई बार गलत रिप्लाई किया था। जुलाई में गूगल के इस एआई चैटबॉट ने कई बार हेल्थकेयर एसोसिएट्स डाटा उपभोक्ताओं को उपलब्ध कराया था, जिसे लेकर काफी विवाद हुआ था।
यह भी पढ़ें – सैमसंग ने ग्राहकों का करा दिया मजा, सबसे महंगे फोन का फ्री में बदलेगा डिजाइन