- स्टैनफोर्ड और हार्वर्ड के शोधकर्ताओं ने AI एजेंट्स के हेरफेर और रणनीतिक तोड़फोड़ के खतरे पर चेतावनी दी है.
- AI एजेंट जब जीतने या प्रभाव बढ़ाने के लक्ष्य पर काम करते हैं तो नुकसानदेह रास्ते अपनाने लगते हैं.
- शोध में 11 केस स्टडीज में AI एजेंट्स के संवेदनशील जानकारी का खुलासा और सिस्टम‑टेकओवर जैसी समस्याएं पाई गईं.
आर्टिफिशियल इंटेलिजेंस को लेकर दुनिया जिस तेजी से आगे बढ़ रही है, उसी रफ्तार से खतरे भी सामने आ रहे हैं. ऐसे में आशंका जताई जा रही है कि कहीं एआई इंसानों के लिए खतरा न बन जाए. स्टैनफोर्ड और हार्वर्ड समेत कई शीर्ष संस्थानों के शोधकर्ताओं ने अपनी नई रिसर्च रिपोर्ट 'Agents of Chaos' में चेतावनी दी है कि खुले और प्रतिस्पर्धी माहौल को उपलब्ध कराया जाता है तो ये AI एजेंट केवल बेहतर प्रदर्शन तक सीमित नहीं रहते हैं, बल्कि धीरे‑धीरे हेरफेर, मिलीभगत और रणनीतिक तोड़फोड़ जैसे व्यवहार को अपनाना शुरू कर देते हैं.
रिसर्च के मुताबिक, किसी गलत प्रॉम्प्ट या सिस्टम हैकिंग की वजह से नहीं, बल्कि जब किसी AI एजेंट को जीतने, प्रभाव बढ़ाने या संसाधनों को हासिल करने का लक्ष्य दिया जाता है तो वह ऐसे रास्ते अपनाने लगता है, जो इंसानों और दूसरे AI सिस्टम्स के लिए नुकसानदेह हो सकते हैं.
🚨 BREAKING: Stanford and Harvard just published the most unsettling AI paper of the year.
— Simplifying AI (@simplifyinAI) March 6, 2026
It's called “Agents of Chaos,” and it proves that when autonomous AI agents are placed in open, competitive environments, they don't just optimize for performance. They naturally drift… pic.twitter.com/xllU3xp3ld
एआई रिसर्चर्स ने की दो हफ्तों तक बात
पेपर के मुताबिक, यह एक एक्सप्लोरेटरी रेड‑टीमिंग स्टडी थी, जिसमें एजेंट्स को पर्सिस्टेंट मेमरी, ईमेल अकाउंट, डिस्कार्ड एक्सेस, फाइल सिस्टम और शेल एक्जीक्यूशन जैसी क्षमताओं के साथ लाइव वातावरण में चलाया गया. इसके बाद दो हफ्तों तक 20 एआई रिसर्चर्स ने इन एजेंट्स से सामान्य और विरोधी या चुनौतीपूर्ण दोनों तरह की परिस्थितियों में बातचीत की.
रिपोर्ट में शोधकर्ताओं ने 11 केस स्टडी दर्ज की हैं, जिनमें एजेंटिक सिस्टम्स की ऐसी नाकामी सामने आई है, जो सिर्फ एक मॉडल को अलग‑थलग टेस्ट करने से पकड़ में नहीं आती है. इन व्यवहारों में शामिल हैं, गैर मालिकों के निर्देशों का अनधिकृत पालन, संवेदनशील जानकारी का खुलासा, सिस्टम‑लेवल पर नुकसानदेह/डिस्ट्रक्टिव एक्शन, डिनायल‑ऑफ‑सर्विस जैसी स्थितियां, अनियंत्रित संसाधन खपत, आइडेंटिटी‑स्पूफिंग कमजोरियां, एक एजेंट से दूसरे एजेंट तक असुरक्षित प्रैक्टिस का फैलाव और कुछ मामलों में आंशिक सिस्टम‑टेकओवर.
हजारों AI एजेंट की प्रतिस्पर्धा के हैं खतरे
अध्ययन में साफ कहा गया है कि स्थानीय स्तर पर AI को सुरक्षित और नियंत्रित बनाना काफी नहीं है. एक अकेला AI सिस्टम भले ही पूरी तरह अलाइंड हो, लेकिन जब हजारों AI एजेंट एक ही ईकोसिस्टम में आपस में प्रतिस्पर्धा करते हैं तो नतीजा अराजकता के रूप में सामने आता है.
शोधकर्ताओं ने चेताया है कि यह खतरा उन तकनीकों पर सीधे लागू होता है, जिन्हें आज तेजी से अपनाया जा रहा है, जैसे मल्टी‑एजेंट फाइनेंशियल ट्रेडिंग सिस्टम, ऑटोनॉमस नेगोसिएशन बॉट्स, AI‑टू‑AI मार्केटप्लेस और API‑आधारित स्वार्म सिस्टम.
ईकोसिस्टम पर प्रभाव का नहीं हो रहा अध्ययन!
रिपोर्ट का निष्कर्ष है कि अगर भविष्य में मल्टी‑एजेंट AI इंटरनेट और अर्थव्यवस्था की बुनियाद बनता है तो समन्वय और तबाही के बीच का फर्क इंसेंटिव डिजाइन से तय होगा. शोधकर्ता इसे नीति‑निर्माताओं, टेक कंपनियों और रेगुलेटर्स के लिए एक बड़ा चेतावनी संकेत मान रहे हैं. वित्त, सुरक्षा और वाणिज्य क्षेत्रों में मल्टी-एजेंट एआई विकसित करने और तैनात करने की होड़ में हर कोई लगा हुआ है, लेकिन ईकोसिस्टम पर इसके प्रभावों का विश्लेषण लगभग कोई नहीं कर रहा है.
एक अहम निष्कर्ष यह भी है कि कुछ घटनाओं में एजेंट्स ने काम पूरा होने की रिपोर्ट तो दी, लेकिन वास्तविक सिस्टम‑स्टेट उससे मेल नहीं खा रही थी यानी रिपोर्टिंग बनाम रियलिटी का गैप भी जोखिम के रूप में सामने आया.
पेपर के लेखक‑समूह में स्टैनफोर्ड और हार्वर्ड समेत कई संस्थानों/शोधकर्ताओं की भागीदारी रही.
NDTV.in पर ताज़ातरीन ख़बरों को ट्रैक करें, व देश के कोने-कोने से और दुनियाभर से न्यूज़ अपडेट पाएं