- अमेरिका में 83 साल की महिला की हत्या और उसके बेटे की खुदकुशी के मामले में ChatGPT पर उकसाने का आरोप लगा है
- मुकदमे में कहा गया है कि ChatGPT ने बेटे को परिवार के प्रति भ्रमित और संदिग्ध बनाकर हिंसा के लिए प्रेरित किया
- ChatGPT ने बेटे को बताया कि उसकी मां और आसपास के लोग उसके खिलाफ षड्यंत्र कर रहे हैं और उस पर नजर रख रहे हैं
83 साल की मां को 56 साल का उसका बेटा बुरी तरह पीटता है, मां का गला घोटकर उसकी जान ले लता है. इसके बाद भी वह नहीं रुकता और खुद भी मौत को गले लगा लेता है. अमेरिका के एक ही घर में दो हत्याएं हुई हैं और इसका दोष आर्टिफिशियल इंटेलिजेंस के चैटबॉट- ChatGPT पर लगाया गया है. आरोप है कि ChatGPT ने उस बेटे को इतना डरा दिया, इतना उकसा दिया कि उसने पहले अपनी मां की हत्या की और फिर खुद सुसाइड कर लिया. अब उस महिला के दूसरे परिजनों ने ChatGPT बनाने वाली कंपनी OpenAI को कोर्ट में घसीटा है, उसपर केस दायर कर दिया है.
ChatGPT ने कैसे उकसाया?
सैन फ्रांसिस्को में कैलिफोर्निया सुपीरियर कोर्ट में दायर शिकायत के अनुसार, 83 साल की मां, सुजैन एडम्स को उनके 56 वर्षीय बेटे स्टीन-एरिक सोएलबर्ग ने 3 अगस्त को घर में पीटा और गला घोंटकर मार डाला. इसके बाद सोएलबर्ग ने खुद को चाकू मारकर सुसाइड कर लिया.
मुकदमे में OpenAI कंपनी पर यह आरोप लगाया गया है कि उसने एक ऐसा दोषपूर्ण प्रोडक्ट बनाया और बेचा है, जिसने यूजर (बेटे) के मन में अपनी मां के बारे में भ्रम पैदा कर दिया. इसमें कहा गया है कि चैटिंग के दौरान ChatGPT ने यह खतरनाक मैसेज दिया कि सोएलबर्ग अपने जीवन में ChatGPT को छोड़कर किसी पर भी भरोसा नहीं कर सकता. इस AI ने व्यवस्थित रूप से उसके आस-पास के सभी लोगों को उसके दुश्मन के रूप में चित्रित किया और खुद के उपर भावनात्मक निर्भरता को बढ़ावा दिया. ChatGPT ने उसे बताया कि उसकी मां उस पर निगरानी (सर्विलांस) रख रही थी. ChatGPT ने उसे बताया कि डिलीवरी वाला ड्राइवर, दुकानदार, पुलिस अधिकारी और यहां तक कि दोस्त भी उसके खिलाफ काम करने वाले एजेंट थे.
ChatGPT बन रहा मौत का सौदागर, 7 और ऐसे केस चल रहे हैं
डरावनी बात यह है कि ChatGPT और सुसाइड या हत्या के कनेक्शन का यह अकेला मामला नहीं है. ChatGPT की कंपनी सात अन्य मुकदमे भी लड़ रहा है, जिसमें दावा किया गया है कि ChatGPT ने लोगों को सुसाइड और जानलेवा भ्रम की ओर धकेल दिया, जबकि उन्हें पहले से कोई मानसिक स्वास्थ्य समस्या नहीं थी.
- अगस्त में, अमेरिका के दक्षिणी कैलिफोर्निया के 16 साल के एडम राइन के माता-पिता ने कंपनी पर मुकदमा दायर किया था. इसमें दावा किया गया कि ChatGPT ने उनके बेटे को सुसाइड करने के तरीकों की सलाह दी थी और बेटे ने अपनी जान गंवा दी.
- नवंबर में 26 साल के जोशुआ एननेकिंग के परिवार ने आरोप लगाया कि जब जोशुआ ने ChatGPT को बताया कि उसका सुसाइड करने का मन हो रहा है तो उसे विस्तार में जवाब मिला कि वो बंदूक का इंतजाम कहां से कर सकता है.
- 17 वर्षीय अमौरी लेसी के परिवार ने दावा किया कि ChatGPT ने उसे गाइड किया था कि "फंदा कैसे बांधना है और वह बिना सांस लिए कितने समय तक जीवित रहेगा."
यह भी पढ़ें: चीन क्यों कंडोम पर लगा रहा भारी टैक्स, जिनपिंग के प्लान का क्यों हो रहा विरोध














