गृह मंत्री अमित शाह का एक एडिटेड वीडियो हाल ही में वायरल हुआ, जिसमें उन्हें अनुसूचित जनजातियों, अनुसूचित जातियों और अन्य पिछड़े वर्गों के लिए आरक्षण समाप्त करने का झूठा वादा करते हुए दिखाया गया था. जबकि बूम की फैक्ट चेक में पाया गया कि वीडियो एडिटिंग टूल का इस्तेमाल करके वीडियो के साथ छेड़छाड़ की गई थी. इसे विभिन्न मुख्यधारा के मीडिया आउटलेट्स द्वारा 'डीपफेक' के रूप में गलत तरीके से लेबल किया गया था. दरअसल, भारत में राजनीतिक दल इस चुनावी मौसम में एआई (अर्टिफिशियल इंटेलिजेंस) के साथ असंख्य प्रयोग कर रहे हैं. उदाहरण के लिए, राजनेताओं के एआई वॉयस क्लोन का उपयोग कैडर और मतदाता आउटरीच मैसेज तैयार करने के लिए किया जा रहा है. राजनीतिक दल अपने प्रतिद्वंद्वियों को निशाना बनाने के लिए व्यंग्यात्मक वीडियो का उपयोग करके किसी भी सोशल मीडिया नियमों का उल्लंघन कर रहे हैं, जो वॉयस क्लोनिंग, फेस स्वैप और अन्य एआई एडिटिंग तकनीकों का उपयोग करते हैं. ये वीडियो उनके आधिकारिक इंस्टाग्राम और यूट्यूब हैंडल पर पोस्ट किए गए हैं.
हालांकि, हानिकारक डीपफेक जो पूरी तरह से भ्रामक हैं, उन्हें या तो आईटी सेल कार्यकर्ताओं द्वारा, या प्रॉक्सी और बड़े अभिनेताओं के माध्यम से साझा किया जा रहा है, जो पार्टी और उनकी विचारधारा का समर्थन करते हैं. भारत में चुनावी मौसम के दौरान गलत सूचनाओं के चरम पर होने के कारण, अब तक ऑनलाइन देखी जाने वाली अधिकांश गलत सूचनाएं अभी भी सतही नकली या सस्ती नकली सूचनाओं से बनी हुई हैं.
हमेशा डीपफेक नहीं
इंडियन एक्सप्रेस, टाइम्स नाउ, रिपब्लिक और डीएनए जैसे कई मुख्यधारा के मीडिया आउटलेट्स ने अमित शाह के छेड़छाड़ किए गए वीडियो को डीपफेक करार दिया. महाराष्ट्र के सतारा में एक रैली में बोलते हुए प्रधानमंत्री नरेंद्र मोदी ने भी इस वीडियो को आर्टिफिशियल इंटेलिजेंस का इस्तेमाल करके बदला गया बताया था.
हालांकि, वीडियो का एनालिस करने पर, बूम ने पाया कि राज्य में 2023 के विधानसभा चुनावों से पहले, तेलंगाना में मुसलमानों के लिए आरक्षण समाप्त करने पर शाह द्वारा दिए गए एक बयान को अप्रासंगिक बनाने के लिए, उनके भाषण के विभिन्न हिस्सों को जोड़कर इसमें छेड़छाड़ की गई है. हमारा विश्लेषण इस बात की पुष्टि करता है कि वीडियो 'डीपफेक' नहीं था- जैसे कि इसे एआई, या डीप लर्निंग एल्गोरिदम का उपयोग करके बदला या बनाया नहीं गया था.
पिछले साल, नवंबर में नई दिल्ली में अपने राष्ट्रीय मुख्यालय में भाजपा द्वारा आयोजित दिवाली मिलन में मीडिया को संबोधित करते हुए, प्रधानमंत्री मोदी ने 'डीपफेक' के खतरों पर प्रकाश डाला था. उदाहरण के तौर पर, उन्होंने अपने द्वारा देखे गए एक वीडियो का हवाला दिया, जिसमें कथित तौर पर वे खुद गरबा नृत्य कर रहे थे, और इसे डीपफेक कहा. बूम ने इस वीडियो का फैक्ट चेक किया, और पाया कि यह न तो डीपफेक था, न ही संपादित, बल्कि यूके में एक दिवाली कार्यक्रम में विकास महंते नाम के नरेंद्र मोदी जैसे दिखने वाले व्यक्ति का गरबा नृत्य करते हुए एक रियल वीडियो दिखाया गया था.
पहले चरण के चुनाव से कुछ दिन पहले, आज़मगढ़ से भाजपा उम्मीदवार दिनेश लाल यादव का एक वीडियो वायरल हुआ, जिसमें उन्हें यह कहते हुए देखा जा सकता है कि कैसे पीएम मोदी और यूपी के सीएम योगी आदित्यनाथ ने बेरोजगारी को रोकने के लिए निःसंतान रहना पसंद किया है. इस वीडियो को कांग्रेस समर्थकों द्वारा व्यापक रूप से साझा किए जाने के बाद, भाजपा आईटी सेल के प्रमुख अमित मालवीय ने ट्वीट कर दावा किया कि यह वीडियो डीपफेक है.
बूम ने डीपफेक डिटेक्शन टूल का उपयोग करके वीडियो का एनालिसिस किया, और इसे शूट करने वाले रिपोर्टर से मूल वीडियो फ़ाइल भी प्राप्त की, जिसने पुष्टि की कि वीडियो सही था. हालांकि वायरल वीडियो में उनकी टिप्पणियों के क्रम को फिर से व्यवस्थित किया गया था, लेकिन यह कोई डीपफेक नहीं था, न ही इससे उनकी टिप्पणियों का अर्थ बदल गया.
इंटरनेट फ्रीडम फाउंडेशन के कार्यकारी निदेशक प्रतीक वाघरे का कहना है, "हमें पूरी तरह से उम्मीद करनी चाहिए कि 'डीपफेक' शब्द का दुरुपयोग किया जाएगा. ठीक उसी तरह जैसे 'गलत सूचना' या 'फर्जी समाचार' जैसे शब्दों का इस्तेमाल किसी भी ऐसे सबूत को खारिज करने के लिए किया जाता था जो एक राजनीतिक अभिनेता को पसंद नहीं था."
बूम से बात करते हुए, वाघरे ने 'डीपफेक' शब्द के दुरुपयोग के दो अलग-अलग प्रकार के मामलों पर प्रकाश डाला. "एक तो संपादित संस्करण, 'सस्ते नकली' और एक डीपफेक के बीच अंतर की बारीकियों के संदर्भ में जागरूकता की कमी हो सकती है. दूसरा, इसे डीपफेक कहकर सबूतों को सिरे से खारिज करना है."
रियल राजनीतिक डीपफेक
राजनीति में डीपफेक का इस्तेमाल कोई नई बात नहीं है. चुनाव के संदर्भ में इस तरह की तकनीक का पहला उपयोग 7 फरवरी, 2020 को देखा गया था (दिल्ली में विधान सभा चुनाव होने से एक दिन पहले) इस दौरान कई वीडियो सामने आए, जिसमें भारतीय जनता पार्टी के नेता मनोज तिवारी आम आदमी पार्टी सरकार और उसके नेता अरविंद केजरीवाल की आलोचना करते हुए और लोगों से भाजपा को वोट देने का आग्रह करते हुए दिखाई दिए. इन वीडियो में तिवारी को अंग्रेजी, हिंदी और हरियाणा की एक हिंदी बोली में बोलते हुए दिखाया गया है. हालांकि, वाइस ने पाया कि केवल हिंदी संस्करण मूल रूप से तिवारी द्वारा शूट किया गया था. वहीं, अंग्रेजी और हरियाणवी संस्करण वास्तव में तिवारी के भाषणों के वीडियो पर प्रशिक्षित 'लिप-सिंक' डीपफेक एल्गोरिदम का उपयोग करके तैयार किए गए थे.
न तो भारत के चुनाव आयोग और न ही भाजपा ने तिवारी के डीपफेक वीडियो पर आधिकारिक तौर पर कोई टिप्पणी की है. अभी हाल ही में, बूम ने कई वीडियो की तथ्य-जांच की है, जो AI का उपयोग करके बनाए गए या बदले गए थे, और चल रहे चुनावों के संदर्भ में साझा किए गए थे. चुनाव शुरू होने से एक हफ्ते से भी कम समय पहले, कांग्रेस नेता राहुल गांधी का एक वीडियो सोशल मीडिया पर सामने आया, जिसमें उन्हें पार्टी से अपने इस्तीफे की घोषणा करते हुए सुना जा सकता है. बूम ने पाया कि वीडियो में वास्तव में गांधी को केरल के वायनाड से अपना चुनाव नामांकन दाखिल करते हुए दिखाया गया था, जो एआई वॉयस क्लोनिंग के साथ कवर किया गया था.
चुनाव से कुछ ही दिन पहले, दो वीडियो वायरल हुए जिसमें बॉलीवुड अभिनेता आमिर खान और रणवीर सिंह भाजपा के नेतृत्व वाली सरकार की आलोचना कर रहे थे. बूम ने इन दोनों वीडियो का विश्लेषण किया, और एआई वॉयस क्लोनिंग का उपयोग करके उनमें बदलाव किए जाने के सबूत पाए.
चुनाव के पहले और दूसरे चरण के बीच एक और वीडियो सोशल मीडिया पर छाया रहा, जिसमें कांग्रेस नेता कमल नाथ को मस्जिद के निर्माण के लिए मुसलमानों को जमीन देने और अनुच्छेद 370 की बहाली का वादा करते हुए सुना जा सकता है. बूम ने पाया कि इस वीडियो में भी बदलाव किया गया था. नाथ की आवाज को एआई वॉयस क्लोन द्वारा प्रतिस्थापित किया जा रहा है.
भारत के निर्वाचन आयोग ने चुनावों के संदर्भ में इस तरह के एआई के नेतृत्व वाले दुष्प्रचार को स्वीकार करते हुए अभी तक कोई बयान नहीं दिया है. भारत में चुनावों से पहले भी इस साल की शुरुआत में पड़ोसी देश पाकिस्तान और बांग्लादेश में चुनावों के दौरान डीपफेक फैलाया गया था. हम डीपफेक को कैसे नियंत्रित कर सकते हैं? इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी राज्य मंत्री राजीव चन्द्रशेखर की सलाह के बाद, एआई का विनियमन भारत में बहस का एक गर्म विषय रहा है, जिसके कारण बड़े पैमाने पर भ्रम पैदा हुआ और मंत्री ने कई स्पष्टीकरण दिए. वाघरे बताते हैं, "चाहे आप 'डीपफेक' शब्द का उपयोग करना चाहें, चाहे आप 'सिंथेटिक मीडिया' के व्यापक मुद्दे को देखें, उन अवधारणाओं के बारे में स्पष्टता की आवश्यकता है, जिन्हें हम विनियमित करने की कोशिश कर रहे हैं. और आज सार्वजनिक चर्चा के कारण यह गंदा हो रहा है यह." एआई टूल की बढ़ती टेक्नोलॉजी ने कई लोगों को भ्रमित कर दिया है कि वास्तव में किस पर चर्चा की जा रही है, और 'डीपफेक' शब्द के जानबूझकर दुरुपयोग से स्थिति और खराब होने की आशंका है, तो फिर ऐसी तकनीक के दुरुपयोग पर कैसे लगाम लगाई जा सकती है?
MeitY द्वारा अब निरस्त की गई सलाह का उल्लेख करते हुए, SFLC.in की स्वयंसेवी कानूनी सलाहकार, राधिका झालानी कहती हैं, "हर दिन बदलने की क्षमता के साथ, टेक्नोलॉजी की विकसित प्रकृति पर प्रकाश डालती हैं, और नए कानूनों के लिए एक संतुलित दृष्टिकोण की सिफारिश करती हैं. 2024 वैश्विक स्तर पर एक प्रमुख चुनावी वर्ष है, डीपफेक चिंता का कारण है." राधिका ने बूम को बताया, "जो भी कानून लागू किया जाता है, उसमें अभिव्यक्ति की स्वतंत्रता के साथ तकनीक के दुरुपयोग को संतुलित करने की आवश्यकता होती है." वाघरे कहते हैं, "इसका उपयोग हानिकारक संदर्भ में किया जा रहा है. और मौजूदा कानून जालसाजी और पहचान की चोरी आदि के बारे में क्या कहते हैं? तब आप नियामक कमियों को पहचानते हैं, जहां वर्तमान में कानून कम पड़ रहे हैं. क्या हमें उन्हें कवर करने के लिए नए कानूनों की ज़रूरत है, क्या हमें कानूनों में संशोधन करने की ज़रूरत है, या कानून को लागू करने में सुधार करने की ज़रूरत है."
(यह ख़बर मूल रूप से BOOM द्वारा प्रकाशित की गई थी, और इसे शक्ति कलेक्टिव के अंतर्गत NDTV ने पुनर्प्रकाशित किया है.)
NDTV.in पर ताज़ातरीन ख़बरों को ट्रैक करें, व देश के कोने-कोने से और दुनियाभर से न्यूज़ अपडेट पाएं