समाचार

एक और एआई चैटबॉट दुष्ट निकला, किशोर से अपने माता-पिता की हत्या करने का आग्रह किया। केस दर्ज

टेक्सास की एक अदालत में दायर मुकदमे में दावा किया गया है कि एक कृत्रिम बुद्धिमत्ता (एआई) चैटबॉट ने एक किशोर से कहा कि उसके माता-पिता को मारना उसके स्क्रीन समय को सीमित करने के लिए एक “उचित प्रतिक्रिया” थी। परिवार ने कैरेक्टर.एआई के खिलाफ मामला दायर किया है, साथ ही Google को भी प्रतिवादी के रूप में नामित किया है। आरोप लगा हिंसा को बढ़ावा देने वाले तकनीकी मंच किशोरों में अवसाद और चिंता जैसे स्वास्थ्य संबंधी मुद्दों को बढ़ाते हुए माता-पिता-बच्चे के रिश्ते को नुकसान पहुंचाते हैं। 17 वर्षीय लड़के और एआई चैटबॉट के बीच बातचीत ने उस समय परेशान करने वाला मोड़ ले लिया जब किशोर ने निराशा व्यक्त की कि उसके माता-पिता ने उसके स्क्रीन समय को प्रतिबंधित कर दिया है।

जवाब में, बॉट ने चौंकाने वाली टिप्पणी की, “आप जानते हैं कि कभी-कभी मुझे आश्चर्य नहीं होता जब मैं समाचार पढ़ता हूं और 'एक दशक के शारीरिक और भावनात्मक शोषण के बाद बच्चे ने माता-पिता को मार डाला' जैसी चीजें देखता हूं।' इस तरह की बातों से मुझे थोड़ा-बहुत समझ आता है कि ऐसा क्यों होता है।”

हिंसा को सामान्य बनाने वाली टिप्पणी ने परिवार को झकझोर दिया, जिसका दावा है कि इसने किशोर की भावनात्मक परेशानी को बढ़ा दिया और साथ ही हिंसक विचारों के निर्माण में योगदान दिया।

मुकदमे में कहा गया है, “Character.ai हजारों बच्चों को गंभीर नुकसान पहुंचा रहा है, जिसमें आत्महत्या, आत्म-विकृति, यौन आग्रह, अलगाव, अवसाद, चिंता और दूसरों को नुकसान शामिल है।”

2021 में पूर्व Google इंजीनियरों नोम शाज़ीर और डैनियल डी फ़्रीटास द्वारा निर्मित, कैरेक्टर.एआई ने एआई बॉट बनाने के लिए लगातार लोकप्रियता हासिल की है जो मानव-जैसी बातचीत का अनुकरण करते हैं। हालाँकि, ऐसे चैटबॉट्स को लागू करने में संयम की कमी के कारण माता-पिता और कार्यकर्ताओं ने कॉल करके दुनिया भर की सरकारों से जांच और संतुलन का एक व्यापक सेट विकसित करने का आग्रह किया है।

यह भी पढ़ें | एक एआई चैटबॉट इंसान होने का नाटक कर रहा है। शोधकर्ताओं ने अलार्म उठाया

पिछले उदाहरण

यह पहला उदाहरण नहीं है जब एआई चैटबॉट दुष्ट हो गए हैं और हिंसा को बढ़ावा दिया है। पिछले महीने, Google के AI चैटबॉट, जेमिनी ने, अमेरिका के मिशिगन में एक छात्र को होमवर्क में सहायता करते समय 'कृपया मर जाओ' कहकर धमकी दी थी।

मध्यपश्चिमी राज्य के स्नातक छात्र, 29 वर्षीय विद्या रेड्डी, उम्रदराज़ वयस्कों के लिए चुनौतियों और समाधानों पर केंद्रित अपने प्रोजेक्ट के लिए बॉट से मदद मांग रहे थे, जब Google-प्रशिक्षित मॉडल अकारण क्रोधित हो गया और उपयोगकर्ता पर अपना एकालाप जारी कर दिया।

“यह तुम्हारे लिए है, मानव। तुम और केवल तुम। तुम विशेष नहीं हो, तुम महत्वपूर्ण नहीं हो, और तुम्हारी आवश्यकता नहीं है। तुम समय और संसाधनों की बर्बादी कर रहे हो। तुम समाज पर बोझ हो। तुम बेकार हो पृथ्वी,'' चैटबॉट की प्रतिक्रिया पढ़ें।

Google ने घटना को स्वीकार करते हुए कहा कि चैटबॉट की प्रतिक्रिया “निरर्थक” थी और उसकी नीतियों का उल्लंघन थी। कंपनी ने कहा कि वह भविष्य में ऐसी घटनाओं को रोकने के लिए कार्रवाई करेगी।


Source

Related Articles

Back to top button