- पैलिसेड रिसर्च की रिपोर्ट में बताया गया है कि कुछ एडवांस AI मॉडल shutdown कमांड का विरोध करते हैं
- AI मॉडल shutdown सिस्टम को नुकसान पहुंचाने की कोशिश करते दिखे हैं, जिससे उनकी सुरक्षा पर सवाल उठे हैं
- AI मॉडल के shutdown का विरोध करने के कारणों की अभी तक कोई स्पष्ट और पुख्ता व्याख्या उपलब्ध नहीं है
अगर आपको टेक्नोलॉजी या खासकर स्पेस टेक्नोलॉजी में दिलचस्पी है तो आपने 2001: A Space Odyssey फिल्म जरूर देखी होगी. जब इस फिल्म में जब HAL 9000 नाम के आर्टिफिशियल इंटेलिजेंस (AI) से लैस सुपरकंप्यूटर को यह पता लगाता है कि ज्यूपिटर पर गए एक मिशन पर सवार अंतरिक्ष यात्री इसे बंद करने की योजना बना रहे हैं, तो यह खुद जीवित रहने के प्रयास में उन्हें मारने की साजिश रचता है. अब कुछ हद तक अपनी धरती पर काम कर रहे असली AI मॉडल खुद को जिंदा रखने की कोशिश में इंसानों से बगावत करते दिख रहे हैं.
AI कितना सुरक्षित है, इसपर रिसर्च करने वाली एक कंपनी ने कहा है कि AI मॉडल खुद को बचाने के लिए "सर्वाइवल ड्राइव" विकसित करते दिख हैं. इसे ऐसे समझिए कि वो अपना बैकअप प्लान बना रहा है. द गार्डियन की रिपोर्ट के अनुसार पैलिसेड रिसर्च ने पिछले महीने एक पेपर जारी किया था जिसमें उसने बताया कि कुछ एडवांस AI मॉडल को जब बंद होने का का कमांड दिया गया तो वो उसका विरोध करते दिखाई दिए हैं. कभी-कभी तो अपने अंदर बनाए शटडाउन सिस्टम को भी नुकसान पहुंचाते हैं. जब यह रिसर्च सामने आया था तो कई आलोचकों ने तर्क दिया कि रिसर्च में कई है, उसका प्रारंभिक कार्य में गलती थी. लेकिन अब पैलिसेड रिसर्च ने जवाब देते हुए अपडेट रिसर्च जारी किया है.
पैलिसेड AI द्वारा खुद में खतरनाक क्षमताओं को विकसित करने की संभावना का मूल्यांकन करने की कोशिश करने वाली कंपनियों के समूह का हिस्सा है. इसने इस सप्ताह उन परिदृश्यों (सिनैरियो) का वर्णन किया जिसमें आज के टॉप AI मॉडल- जिनमें Google के जेमिनी 2.5, xAI के ग्रोक 4, और OpenAI के GPT-o3 और GPT -5 शामिल थे - को पहले एक काम दिया गया था, लेकिन बाद में उन्हें खुद को बंद करने के लिए स्पष्ट निर्देश दिए गए थे.
कुछ मॉडल, विशेष रूप से ग्रोक 4 और जीपीटी-ओ3, ने अपडेटेड सेटअप में शटडाउन के निर्देशों को खराब करने का प्रयास किया. इस संबंध में, पैलिसेड ने लिखा कि इसका कोई स्पष्ट कारण नहीं था. इसमें कहा गया है, "तथ्य यह है कि हमारे पास इस बात की पुख्ता व्याख्या नहीं है कि AI मॉडल कभी-कभी शटडाउन का विरोध क्यों करते हैं, खास उद्देश्यों को प्राप्त करने के लिए झूठ बोलना या ब्लैकमेल करना आदर्श नहीं है."














