- स्टैनफोर्ड और हार्वर्ड के शोधकर्ताओं ने AI एजेंट्स के हेरफेर और रणनीतिक तोड़फोड़ के खतरे पर चेतावनी दी है.
- AI एजेंट जब जीतने या प्रभाव बढ़ाने के लक्ष्य पर काम करते हैं तो नुकसानदेह रास्ते अपनाने लगते हैं.
- शोध में 11 केस स्टडीज में AI एजेंट्स के संवेदनशील जानकारी का खुलासा और सिस्टम‑टेकओवर जैसी समस्याएं पाई गईं.
आर्टिफिशियल इंटेलिजेंस को लेकर दुनिया जिस तेजी से आगे बढ़ रही है, उसी रफ्तार से खतरे भी सामने आ रहे हैं. ऐसे में आशंका जताई जा रही है कि कहीं एआई इंसानों के लिए खतरा न बन जाए. स्टैनफोर्ड और हार्वर्ड समेत कई शीर्ष संस्थानों के शोधकर्ताओं ने अपनी नई रिसर्च रिपोर्ट 'Agents of Chaos' में चेतावनी दी है कि खुले और प्रतिस्पर्धी माहौल को उपलब्ध कराया जाता है तो ये AI एजेंट केवल बेहतर प्रदर्शन तक सीमित नहीं रहते हैं, बल्कि धीरे‑धीरे हेरफेर, मिलीभगत और रणनीतिक तोड़फोड़ जैसे व्यवहार को अपनाना शुरू कर देते हैं.
रिसर्च के मुताबिक, किसी गलत प्रॉम्प्ट या सिस्टम हैकिंग की वजह से नहीं, बल्कि जब किसी AI एजेंट को जीतने, प्रभाव बढ़ाने या संसाधनों को हासिल करने का लक्ष्य दिया जाता है तो वह ऐसे रास्ते अपनाने लगता है, जो इंसानों और दूसरे AI सिस्टम्स के लिए नुकसानदेह हो सकते हैं.
एआई रिसर्चर्स ने की दो हफ्तों तक बात
पेपर के मुताबिक, यह एक एक्सप्लोरेटरी रेड‑टीमिंग स्टडी थी, जिसमें एजेंट्स को पर्सिस्टेंट मेमरी, ईमेल अकाउंट, डिस्कार्ड एक्सेस, फाइल सिस्टम और शेल एक्जीक्यूशन जैसी क्षमताओं के साथ लाइव वातावरण में चलाया गया. इसके बाद दो हफ्तों तक 20 एआई रिसर्चर्स ने इन एजेंट्स से सामान्य और विरोधी या चुनौतीपूर्ण दोनों तरह की परिस्थितियों में बातचीत की.
रिपोर्ट में शोधकर्ताओं ने 11 केस स्टडी दर्ज की हैं, जिनमें एजेंटिक सिस्टम्स की ऐसी नाकामी सामने आई है, जो सिर्फ एक मॉडल को अलग‑थलग टेस्ट करने से पकड़ में नहीं आती है. इन व्यवहारों में शामिल हैं, गैर मालिकों के निर्देशों का अनधिकृत पालन, संवेदनशील जानकारी का खुलासा, सिस्टम‑लेवल पर नुकसानदेह/डिस्ट्रक्टिव एक्शन, डिनायल‑ऑफ‑सर्विस जैसी स्थितियां, अनियंत्रित संसाधन खपत, आइडेंटिटी‑स्पूफिंग कमजोरियां, एक एजेंट से दूसरे एजेंट तक असुरक्षित प्रैक्टिस का फैलाव और कुछ मामलों में आंशिक सिस्टम‑टेकओवर.
हजारों AI एजेंट की प्रतिस्पर्धा के हैं खतरे
अध्ययन में साफ कहा गया है कि स्थानीय स्तर पर AI को सुरक्षित और नियंत्रित बनाना काफी नहीं है. एक अकेला AI सिस्टम भले ही पूरी तरह अलाइंड हो, लेकिन जब हजारों AI एजेंट एक ही ईकोसिस्टम में आपस में प्रतिस्पर्धा करते हैं तो नतीजा अराजकता के रूप में सामने आता है.
शोधकर्ताओं ने चेताया है कि यह खतरा उन तकनीकों पर सीधे लागू होता है, जिन्हें आज तेजी से अपनाया जा रहा है, जैसे मल्टी‑एजेंट फाइनेंशियल ट्रेडिंग सिस्टम, ऑटोनॉमस नेगोसिएशन बॉट्स, AI‑टू‑AI मार्केटप्लेस और API‑आधारित स्वार्म सिस्टम.
ईकोसिस्टम पर प्रभाव का नहीं हो रहा अध्ययन!
रिपोर्ट का निष्कर्ष है कि अगर भविष्य में मल्टी‑एजेंट AI इंटरनेट और अर्थव्यवस्था की बुनियाद बनता है तो समन्वय और तबाही के बीच का फर्क इंसेंटिव डिजाइन से तय होगा. शोधकर्ता इसे नीति‑निर्माताओं, टेक कंपनियों और रेगुलेटर्स के लिए एक बड़ा चेतावनी संकेत मान रहे हैं. वित्त, सुरक्षा और वाणिज्य क्षेत्रों में मल्टी-एजेंट एआई विकसित करने और तैनात करने की होड़ में हर कोई लगा हुआ है, लेकिन ईकोसिस्टम पर इसके प्रभावों का विश्लेषण लगभग कोई नहीं कर रहा है.
एक अहम निष्कर्ष यह भी है कि कुछ घटनाओं में एजेंट्स ने काम पूरा होने की रिपोर्ट तो दी, लेकिन वास्तविक सिस्टम‑स्टेट उससे मेल नहीं खा रही थी यानी रिपोर्टिंग बनाम रियलिटी का गैप भी जोखिम के रूप में सामने आया.
पेपर के लेखक‑समूह में स्टैनफोर्ड और हार्वर्ड समेत कई संस्थानों/शोधकर्ताओं की भागीदारी रही.














