गाजा में हमास के साथ हो रहे युद्ध में इजरायल की सेना AI का इस्तेमाल कर रही है. युद्ध के शुरुआती दिनों में AI का बेहद ज्यादा इस्तेमाल हुआ था और माना ये जा रहा है कि इसके काऱण भी आम लोगों की ज्यादा मौत हुई. गाजा में अपने संभावित लक्ष्यों की पहचान करने के लिए इजरायली सेना की ओर से लैवेंडर नामक एक एआई सिस्टम का इस्तेमाल किया गया है. इस AI सिस्टम ने एक बार में करीब 37,000 फिलिस्तीनियों की हमास के साथ संभावित संबंधों के बारे में पुष्टि की थी.
कैसे हो रहा है एआई का इस्तेमाल?
इज़रायली फिलिस्तीनी पत्रिका की जांच से सामने आया है कि इजरायली सेना दुश्मनों को मारने के लिए इस टूल का इस्तेमाल कर रही है. इस पत्रिका के मुताबिक Lavender नाम के इस प्रोग्राम को Israel Defense Forces के खास खुफिया विभाग Unit 8200 ने डेवेलप किया है.
कैसे काम करता है lavender?
lavender बेहद खास तरीके से काम करता है. ये डेटा पर ज्यादा निर्भर रहता है. इस प्रोग्राम ने 30000 फिलिस्तीनियों को संदिग्ध आतंकवादी के रूप में पहचान की है. इन पर आरोप है कि ये Paletinian Islamic Jihad नाम की संस्था से जुड़े हुए हैं. जानकारी के मुताबिक, इजरायली सेना इसी डेटा का इस्तेमाल करती है. जानकारी के अनुसार, रिपोर्ट मिलने के 20 सेकंड बाद ही इजरायली सैनिक बम गिराने का फैसला लेते हैं.
क्या lavender में कोई खामी है?
lavender के बारे में कहा जाता है कि इसमें 10 प्रतिशत तक एरर मार्जिन है. मतलब ये कि 100 में से 90 बार ये सही हो सकता है और 10 बार गलत. इसके प्रोग्राम में कई बार निर्दोष लोग भी लपेटे में आ जाते हैं. रिपोर्ट के मुताबिक, शुरुआती समय में हमास के लड़ाकों को निशाना बनाते हुए करीब 15 या 20 आम लोगों को मारने की अनुमति दी गई थी.
lavender से पहले भी एक और एआई सिस्टम डेवलप किया गया था. इस सिस्ट का नाम The Gospel है. रिपोर्ट के मुताबिक, Gospel इमारतों को मार्क करता है, जहां से आतंकी ऑपरेट करते हैं, वहीं lavender आतंकवादियों को निशाना बनाता है.
NDTV.in पर ताज़ातरीन ख़बरों को ट्रैक करें, व देश के कोने-कोने से और दुनियाभर से न्यूज़ अपडेट पाएं