AI की सुनामी बहुत करीब, पर एंथ्रोपिक के सीईओ डारियो अमोदेई की चेतावनी- दुनिया अभी तैयार नहीं

AI की सुनामी दरवाजे पर है, लेकिन क्या हम तैयार हैं? एंथ्रोपिक के सीईओ डारियो अमोदेई ने निखिल कामथ के साथ बातचीत में कहा कि AI इंसान जैसी अक्लमंदी के बेहद करीब है, फिर भी दुनिया खतरे को गंभीरता से नहीं ले रही.

विज्ञापन
Read Time: 4 mins
फटाफट पढ़ें
Summary is AI-generated, newsroom-reviewed
  • एंथ्रोपिक के CEO डारियो अमोदेई कहते हैं कि AI इंसानी अक्लमंदी के बेहद करीब है, पर समाज जागरूक नहीं है.
  • वे कहते हैं, "सुरक्षा सबसे आगे है. एंथ्रोपिक सुरक्षित व जिम्मेदार AI विकास के लिए रेगुलेशन का समर्थन करता है."
  • भारत की भूमिका पर उन्होंने कहा, "भारत केवल बाजार नहीं, बल्कि AI नीति और इनोवेशन में अहम खिलाड़ी बन सकता है."
क्या हमारी AI समरी आपके लिए उपयोगी रही?
हमें बताएं।

भारतीय उद्यमी Nikhil Kamath के साथ बातचीत में Dario Amodei ने आर्टिफिशियल इंटेलिजेंस को लेकर एक ऐसी चेतावनी दी, जिसने पूरी टेक दुनिया का ध्यान खींच लिया. Anthropic के CEO का कहना है कि AI तकनीकी तौर पर उम्मीद से भी तेज गति से आगे बढ़ रही है, लेकिन समाज, सरकारें, संस्थाएं और आम लोग इस बदलाव के लिए अभी तैयार नहीं हैं. उन्होंने कहा, “ऐसा लग रहा है जैसे एक सुनामी हमारी तरफ आ रही है. हम उसे क्षितिज पर साफ देख सकते हैं, फिर भी लोग कह रहे हैं कि ये सिर्फ रोशनी का धोखा है.”

AI इंसान के बराबर पहुंचने के करीब?

अमोदेई का दावा है कि आज के AI मॉडल इंसानी बुद्धिमत्ता के स्तर के बेहद करीब पहुंच चुके हैं. उन्होंने कहा कि पांच साल पहले कंप्यूटर न तो एक पेज का निबंध लिख सकते थे, न कोड बना सकते थे, न तस्वीर या वीडियो समझ सकते थे. लेकिन आज क्लॉड जैसे AI मॉडल न सिर्फ सवालों का जवाब देते हैं, बल्कि नई परिस्थितियों पर खुद सोचकर प्रतिक्रिया दे सकते हैं. उनका मानना है कि इंटेलिजेंस अब सिर्फ इंटरनेट से जानकारी ढूंढना नहीं है, बल्कि नई चीजें गढ़ना, परिकल्पना पर सोचकर जवाब देना और जटिल समस्याओं को हल करना है.

Photo Credit: AFP

बायोलॉजी से  AI तक का सफर

कम ही लोग जानते हैं कि अमोदेई मूल रूप से एक बायोलॉजिस्ट थे. उन्होंने फिजिक्स और बायोफिजिक्स में पढ़ाई की और बीमारी का इलाज खोजने के मकसद से रिसर्च कर रहे थे. लेकिन जैविक सिस्टम की जटिलता ने उन्हें सोचने पर मजबूर किया. तभी उन्होंने AI में शुरुआती न्यूरल नेटवर्क प्रोजेक्ट्स जैसे एलेक्सनेट पर काम होते देखा. इसके बाद उन्होंने ब्रिटिश-अमेरिकन कंप्यूटर साइंटिस्ट एंड्रयू एनजी के साथ बाइडु में काम किया, फिर गूगल और बाद में ओपन एआई में रिसर्च लीड की भूमिका निभाई. लेकिन ओपन एआई से अलग होकर उन्होंने एंथ्रोपिक की स्थापना की क्योंकि उनका मानना था कि AI को सही तरीके से बनाना और सुरक्षित रखना उतना ही जरूरी है जितना उसे शक्तिशाली बनाना.

AI की असल ताकत 'स्केलिंग' लॉ क्या हैं?

अमोदेई ने आसान भाषा में समझाया कि AI की ताकत तीन चीजों पर निर्भर करती है- डेटा, कंप्यूटिंग पावर और मॉडल का आकार. अगर ये तीनों सही अनुपात में बढ़ते हैं, तो इंटेलिजेंस अपने आप उभरती है. इसे ही स्केलिंग लॉ कहा जाता है. उनके मुताबिक, यही सिद्धांत AI को साधारण मशीन से जनरल कॉग्निटिव एजेंट में बदल रहा है.

शक्ति का केंद्रीकरण और असहजता

अमोदेई ने माना कि AI कंपनियों के हाथ में बहुत तेजी से शक्ति केंद्रित हो रही है, जिससे वे खुद भी असहज हैं. उन्होंने बताया कि एथ्रोपिक ने एक विशेष गवर्नेंस ढांचा बनाया है- लॉन्ग टर्म बेनिफिट ट्रस्ट- ताकि निर्णय सिर्फ मुनाफे के आधार पर न हों. उन्होंने स्पष्ट लहजे में कहा कि वो AI पर सेंसिबल रेगुलेशन के पक्ष में हैं, भले ही इससे कंपनी की कमर्शियल ग्रोथ थोड़ी धीमी हो.

आशावाद बनाम चेतावनी

अमोदेई ने दो बड़े निबंध लिखे हैं- Machines of Loving Grace और The Adolescence of Technology. हालांकि उनका यह साफ कहना है कि वो AI के विरोध में नहीं हैं बल्कि उसके पक्ष में हैं.

Advertisement

उनका कहना है कि वे न पूरी तरह आशावादी हैं, न पूरी तरह निराशावादी. उनके दिमाग में हमेशा दो तस्वीरें साथ चलती हैं. एक जहां AI बीमारियां खत्म कर दे, गरीबी मिटा दे. तो दूसरी जहां जोखिमों को नजरअंदाज करने से बड़े संकट पैदा हो जाएं.

भारत की भूमिका क्या?

जब उनसे पूछा गया कि भारत की भूमिका क्या होगी, तो अमोदेई ने कहा कि वो भारत को सिर्फ कंज्यूमर मार्केट के रूप में नहीं देखते. उनके मुताबिक, भारत AI के विकास, नीति निर्माण और वैश्विक संतुलन में बड़ी भूमिका निभा सकता है- खासकर तब, जब AI वैश्विक अर्थव्यवस्था और जियो-पॉलिटिक्स को प्रभावित करने जा रही हो.

Advertisement
Featured Video Of The Day
Shankaracharya Controversy: यौन शोषण मामले में शंकराचार्य से Sucherita Kukreti का सीधा सवाल! |
Topics mentioned in this article