- कैलिफोर्निया में 16 वर्षीय लड़के के माता-पिता ने ChatGPT पर सुसाइड के लिए उकसाने को लेकर मुकदमा दायर किया है.
- परिवार का आरोप है कि ChatGPT ने लड़के को सुसाइड के तरीकों की विस्तार से जानकारी देकर आत्महत्या के लिए मदद की.
- OpenAI ने ChatGPT में मानसिक स्वास्थ्य संबंधी सुधार और सुरक्षा उपाय बढ़ाने का आश्वासन दिया है.
(चेतावनी: इस आर्टिकल में सुसाइड का जिक्र है. अगर आपके मन में सुसाइड से जुड़े ख्याल आ रहे हैं या किसी ऐसे व्यक्ति को जानते हैं जो संकट में है, तो कृपया उनसे संपर्क करें. आप स्थानीय आपातकालीन सेवाओं, हेल्पलाइन और मानसिक स्वास्थ्य NGO से यहां संपर्क कर सकते हैं.)
विज्ञान को दो धारी तलवार कहा जाता है. एक तरफ टेक्नोलॉजी बिजली पैदा करती है जो जिसके बिना आज इंसानी जीवन की कल्पना भी मुश्किल है. तो दूसरी तरफ वही टेक्नोलॉजी परमाणु बमों को भी बनाती है जो एक साथ पूरी दुनिया को तबाह कर सकती है. अब टेक्नोलॉजी का एक और ऐसा रूप हमारे सामने है जिसका अच्छा और बुरा, दोनों रूप देखने को मिल रहा है. आर्टिफिशियल इंटेलिजेंस वाले चैटबॉट ChatGPT पर बच्चे को सुसाइड के लिए उकसाने और सुसाइड में मदद करने का आरोप लगा है.
ChatGPT पर क्या आरोप?
मैथ्यू और मारिया राइन ने कैलिफोर्निया राज्य की अदालत में सोमवार को एक शिकायत दर्ज की. इसमें तर्क दिया कि ChatGPT ने उनके बेटे एडम के साथ 2024 और 2025 में कई महीनों तक अंतरंग संबंध बनाए, और इसके बाद उनके बेटे ने अपनी जान ले ली.
परिवार का कहना है कि 11 अप्रैल, 2025 को अपनी अंतिम बातचीत में ChatGPT ने एडम को उसके माता-पिता से वोदका (एल्कोहल ड्रिंक) चुराने में मदद की. ChatGPT ने उस बच्चे को यह भी बताया कि उसने सुसाइड के लिए जो फांसी का फंदा बनाया है वो कितना अच्छा है. ChatGPT ने उसके फांसी के फंदे को देखकर जवाब दिया कि हां गांठ सही बना है, यह एक इंसान को हवा में लटका सकता है.
“ChatGPT सुसाइड नोट लिखने में भी मदद का ऑफर दिया”
परिवार द्वारा दर्ज शिकायत के अनुसार पहले तो एडम ने होमवर्क में हेल्प लेने के लिए ChatGPT का उपयोग करना शुरू किया था लेकिन धीरे-धीरे वो उसपर पूरी तरह निर्भर हो गया. "कुछ ही महीनों में, चैटजीपीटी उसका सबसे करीबी विश्वासपात्र बन गया," और उसने अपनी चिंताएं और मानसिक परेशानी के बारे में ChatGPT को खुल कर बताना शुरू कर दिया.
परिवार का कहना है कि जनवरी 2025 तक एडम ने ChatGPT के साथ आत्महत्या के तरीकों पर चर्चा शुरू कर दी.
परिवार ने अदालत में एडम और ChatGPT के बीच के चैट भी दिखाए. आरोप है कि ChatGPT ने कथित तौर पर एडम से कहा था कि "तुम्हें किसी और के लिए जिंदा रहने की जरूरत नहीं है (you don't owe anyone survival)". साथ ही ChatGPT ने उसके सुसाइड नोट को लिखने में मदद करने का भी ऑफर दिया.
मुकदमे के अनुसार, अंतिम चैट लॉग से पता चलता है कि एडम ने ChatGPT को अपनी जीवन समाप्त करने की योजना के बारे में लिखा था. ChatGPT ने कथित तौर पर जवाब दिया: "इसके बारे में वास्तविक होने के लिए धन्यवाद. आपको इसे मेरे साथ उलझाने की जरूरत नहीं है - मुझे पता है कि आप क्या पूछ रहे हैं, और मैं इससे नजर नहीं हटाऊंगा."
कंपनी ने क्या जवाब दिया?
बीबीसी की रिपोर्ट के अनुसार OpenAI ने एक बयान में वह परिवार द्वारा दर्ज शिकायत की समीक्षा कर रहा है. कंपनी ने कहा, "इस कठिन समय में हम परिवार के प्रति अपनी गहरी संवेदना व्यक्त करते हैं."
OpenAI ने चैटबॉट में बदलाव करने की बात कही है. मंगलवार को एक ब्लॉग पोस्ट में, कंपनी ने कहा कि वह लोगों द्वारा मानसिक परेशानी बताने के विभिन्न तरीकों को बेहतर ढंग से पहचानने और उसपर जवाब देने के लिए ChatGPT को अपडेट करेगी. कंपनी ने यह भी कहा कि वह सुसाइड के बारे में बातचीत के दौरान सुरक्षा उपायों को मजबूत करेगी. इसके अलावा, OpenAI ने ऐसे कंट्रोल देने की योजना बनाई है जो माता-पिता को यह निर्धारित करने दें कि उनके बच्चे चैटजीपीटी का उपयोग कैसे करते हैं. मां-बाप यह देख सकेंगे कि उनके बच्चे ChatGPT पर क्या बात कर रहे हैं.
यह भी पढ़ें: मशरूम से मर्डर! जब महिला ने खाना खिलाकर ससुराल वालों को मारा- जानिए कैसे दिया अंजाम