आर्टिफिशियल इंटेलिजेंस यानी ऐसी मशीनरी जो इंसानों के काम को आसान करती हैं. अभी तक AI और इंसानों के काम करने में फर्क सिर्फ इमोशन यानी ह्यूमन टच का था, लेकिन अब Anthropic नाम की AI कंपनी ने इसी ओर एक कदम आगे बढ़ाया है. यानी Anthropic कंपनी ने फैसला किया है कि वह अपने AI मॉडल Claude को सही और गलत का फर्क सिखाएगी, ताकि वह इंसानों की सुरक्षित और जिम्मेदार तरीके से मदद कर सके. इस काम की जिम्मेदारी कंपनी ने फिलोसिफर अमांडा आस्केल और उनकी टीम को दी है.

कौन हैं अमांडा आस्केल?
अमांडा आस्केल पेशे से एक फिलोसिफर हैं. Anthropic में उनका काम यह देखना है कि Claude (AI असिस्टेंस) किस तरह सोचता है और किसी सवाल का जवाब किस आधार पर देता है. अगर AI की सोच में कोई गलती या भटकाव दिखता है, तो वह उसे सुधारने की कोशिश करती हैं.
उनका लक्ष्य है कि इस चैटबॉट अंदर एक जिम्मेदार 'चरित्र' विकसित हो यानी AI को ऐसा बनाया जाए कि वह खुद को एक मददगार और मानवीय सहायक समझे.
AI को कैसे सिखाई जा रही है नैतिकता?
Anthropic पहले से ही अपने Large Language Models को बड़े डेटा पर ट्रेन कर रहा है. लेकिन अब कंपनी ने AI को नैतिक मूल्यों की ट्रेनिंग देने का भी फैसला किया है.
अमांडा और उनकी टीम Claude के साथ लंबी बातचीत करती हैं और उसे जटिल नैतिक परिस्थितियों से जुड़े सवाल पूछती हैं. वे यह देखती हैं कि Claude किस तरह तर्क करता है और किसी निष्कर्ष तक कैसे पहुंचता है. उनका ध्यान सिर्फ जवाब पर नहीं, बल्कि उस सोच की प्रक्रिया पर भी होता है, जिसके आधार पर AI उत्तर देता है.
उनके अनुसार, उनका काम AI मॉडल को ज्यादा ईमानदार और अच्छे गुणों वाला बनाना है. साथ ही वे नई तकनीक विकसित कर रही हैं, जिससे भविष्य के और भी उन्नत AI मॉडल्स को सुरक्षित बनाया जा सके.
कुल मिलाकर, AI को इंसानों के लिए सुरक्षित बनाने की दिशा में यह एक अहम पहल मानी जा रही है. अगर मशीनों को सही मूल्यों के साथ तैयार किया जाए, तो वे भविष्य में इंसानों की बेहतर और सुरक्षित तरीके से मदद कर सकती हैं.
NDTV.in पर ताज़ातरीन ख़बरों को ट्रैक करें, व देश के कोने-कोने से और दुनियाभर से न्यूज़ अपडेट पाएं