रियल या एडिटेड वीडियो को 'डीपफेक' के रूप में किया जा रहा लेबल, राजनीति में हो रहा AI का इस्‍तेमाल

भारत में चुनावों से पहले भी इस साल की शुरुआत में पड़ोसी देश पाकिस्तान और बांग्लादेश में चुनावों के दौरान डीपफेक फैलाया गया था.

रियल या एडिटेड वीडियो को 'डीपफेक' के रूप में किया जा रहा लेबल, राजनीति में हो रहा AI का इस्‍तेमाल

रियल या एडिटेड वीडियो को गलत तरीके से 'डीपफेक' के रूप में लेबल करने की समस्या

गृह मंत्री अमित शाह का एक एडिटेड वीडियो हाल ही में वायरल हुआ, जिसमें उन्हें अनुसूचित जनजातियों, अनुसूचित जातियों और अन्य पिछड़े वर्गों के लिए आरक्षण समाप्त करने का झूठा वादा करते हुए दिखाया गया था. जबकि बूम की फैक्‍ट चेक में पाया गया कि वीडियो एडिटिंग टूल का इस्‍तेमाल करके वीडियो के साथ छेड़छाड़ की गई थी. इसे विभिन्न मुख्यधारा के मीडिया आउटलेट्स द्वारा 'डीपफेक' के रूप में गलत तरीके से लेबल किया गया था. दरअसल, भारत में राजनीतिक दल इस चुनावी मौसम में एआई (अर्टिफिशियल इंटेलिजेंस) के साथ असंख्य प्रयोग कर रहे हैं. उदाहरण के लिए, राजनेताओं के एआई वॉयस क्लोन का उपयोग कैडर और मतदाता आउटरीच मैसेज तैयार करने के लिए किया जा रहा है. राजनीतिक दल अपने प्रतिद्वंद्वियों को निशाना बनाने के लिए व्यंग्यात्मक वीडियो का उपयोग करके किसी भी सोशल मीडिया नियमों का उल्लंघन कर रहे हैं, जो वॉयस क्लोनिंग, फेस स्वैप और अन्य एआई एडिटिंग तकनीकों का उपयोग करते हैं. ये वीडियो उनके आधिकारिक इंस्टाग्राम और यूट्यूब हैंडल पर पोस्ट किए गए हैं.

हालांकि, हानिकारक डीपफेक जो पूरी तरह से भ्रामक हैं, उन्हें या तो आईटी सेल कार्यकर्ताओं द्वारा, या प्रॉक्सी और बड़े अभिनेताओं के माध्यम से साझा किया जा रहा है, जो पार्टी और उनकी विचारधारा का समर्थन करते हैं. भारत में चुनावी मौसम के दौरान गलत सूचनाओं के चरम पर होने के कारण, अब तक ऑनलाइन देखी जाने वाली अधिकांश गलत सूचनाएं अभी भी सतही नकली या सस्ती नकली सूचनाओं से बनी हुई हैं.

Latest and Breaking News on NDTV

हमेशा डीपफेक नहीं

इंडियन एक्सप्रेस, टाइम्स नाउ, रिपब्लिक और डीएनए जैसे कई मुख्यधारा के मीडिया आउटलेट्स ने अमित शाह के छेड़छाड़ किए गए वीडियो को डीपफेक करार दिया. महाराष्ट्र के सतारा में एक रैली में बोलते हुए प्रधानमंत्री नरेंद्र मोदी ने भी इस वीडियो को आर्टिफिशियल इंटेलिजेंस का इस्तेमाल करके बदला गया बताया था.

हालांकि, वीडियो का एनालिस करने पर, बूम ने पाया कि राज्य में 2023 के विधानसभा चुनावों से पहले, तेलंगाना में मुसलमानों के लिए आरक्षण समाप्त करने पर शाह द्वारा दिए गए एक बयान को अप्रासंगिक बनाने के लिए, उनके भाषण के विभिन्न हिस्सों को जोड़कर इसमें छेड़छाड़ की गई है. हमारा विश्लेषण इस बात की पुष्टि करता है कि वीडियो 'डीपफेक' नहीं था- जैसे कि इसे एआई, या डीप लर्निंग एल्गोरिदम का उपयोग करके बदला या बनाया नहीं गया था.

पिछले साल, नवंबर में नई दिल्ली में अपने राष्ट्रीय मुख्यालय में भाजपा द्वारा आयोजित दिवाली मिलन में मीडिया को संबोधित करते हुए, प्रधानमंत्री मोदी ने 'डीपफेक' के खतरों पर प्रकाश डाला था. उदाहरण के तौर पर, उन्होंने अपने द्वारा देखे गए एक वीडियो का हवाला दिया, जिसमें कथित तौर पर वे खुद गरबा नृत्य कर रहे थे, और इसे डीपफेक कहा. बूम ने इस वीडियो का फैक्‍ट चेक किया, और पाया कि यह न तो डीपफेक था, न ही संपादित, बल्कि यूके में एक दिवाली कार्यक्रम में विकास महंते नाम के नरेंद्र मोदी जैसे दिखने वाले व्यक्ति का गरबा नृत्य करते हुए एक रियल वीडियो दिखाया गया था.

पहले चरण के चुनाव से कुछ दिन पहले, आज़मगढ़ से भाजपा उम्मीदवार दिनेश लाल यादव का एक वीडियो वायरल हुआ, जिसमें उन्हें यह कहते हुए देखा जा सकता है कि कैसे पीएम मोदी और यूपी के सीएम योगी आदित्यनाथ ने बेरोजगारी को रोकने के लिए निःसंतान रहना पसंद किया है. इस वीडियो को कांग्रेस समर्थकों द्वारा व्यापक रूप से साझा किए जाने के बाद, भाजपा आईटी सेल के प्रमुख अमित मालवीय ने ट्वीट कर दावा किया कि यह वीडियो डीपफेक है.

बूम ने डीपफेक डिटेक्शन टूल का उपयोग करके वीडियो का एनालिसिस किया, और इसे शूट करने वाले रिपोर्टर से मूल वीडियो फ़ाइल भी प्राप्त की, जिसने पुष्टि की कि वीडियो सही था. हालांकि वायरल वीडियो में उनकी टिप्पणियों के क्रम को फिर से व्यवस्थित किया गया था, लेकिन यह कोई डीपफेक नहीं था, न ही इससे उनकी टिप्पणियों का अर्थ बदल गया.

इंटरनेट फ्रीडम फाउंडेशन के कार्यकारी निदेशक प्रतीक वाघरे का कहना है, "हमें पूरी तरह से उम्मीद करनी चाहिए कि 'डीपफेक' शब्द का दुरुपयोग किया जाएगा. ठीक उसी तरह जैसे 'गलत सूचना' या 'फर्जी समाचार' जैसे शब्दों का इस्तेमाल किसी भी ऐसे सबूत को खारिज करने के लिए किया जाता था जो एक राजनीतिक अभिनेता को पसंद नहीं था." 

बूम से बात करते हुए, वाघरे ने 'डीपफेक' शब्द के दुरुपयोग के दो अलग-अलग प्रकार के मामलों पर प्रकाश डाला. "एक तो संपादित संस्करण, 'सस्ते नकली' और एक डीपफेक के बीच अंतर की बारीकियों के संदर्भ में जागरूकता की कमी हो सकती है. दूसरा, इसे डीपफेक कहकर सबूतों को सिरे से खारिज करना है."

रियल राजनीतिक डीपफेक

राजनीति में डीपफेक का इस्तेमाल कोई नई बात नहीं है. चुनाव के संदर्भ में इस तरह की तकनीक का पहला उपयोग 7 फरवरी, 2020 को देखा गया था (दिल्ली में विधान सभा चुनाव होने से एक दिन पहले) इस दौरान कई वीडियो सामने आए, जिसमें भारतीय जनता पार्टी के नेता मनोज तिवारी आम आदमी पार्टी सरकार और उसके नेता अरविंद केजरीवाल की आलोचना करते हुए और लोगों से भाजपा को वोट देने का आग्रह करते हुए दिखाई दिए. इन वीडियो में तिवारी को अंग्रेजी, हिंदी और हरियाणा की एक हिंदी बोली में बोलते हुए दिखाया गया है. हालांकि, वाइस ने पाया कि केवल हिंदी संस्करण मूल रूप से तिवारी द्वारा शूट किया गया था. वहीं, अंग्रेजी और हरियाणवी संस्करण वास्तव में तिवारी के भाषणों के वीडियो पर प्रशिक्षित 'लिप-सिंक' डीपफेक एल्गोरिदम का उपयोग करके तैयार किए गए थे.

न तो भारत के चुनाव आयोग और न ही भाजपा ने तिवारी के डीपफेक वीडियो पर आधिकारिक तौर पर कोई टिप्पणी की है. अभी हाल ही में, बूम ने कई वीडियो की तथ्य-जांच की है, जो AI का उपयोग करके बनाए गए या बदले गए थे, और चल रहे चुनावों के संदर्भ में साझा किए गए थे. चुनाव शुरू होने से एक हफ्ते से भी कम समय पहले, कांग्रेस नेता राहुल गांधी का एक वीडियो सोशल मीडिया पर सामने आया, जिसमें उन्हें पार्टी से अपने इस्तीफे की घोषणा करते हुए सुना जा सकता है. बूम ने पाया कि वीडियो में वास्तव में गांधी को केरल के वायनाड से अपना चुनाव नामांकन दाखिल करते हुए दिखाया गया था, जो एआई वॉयस क्लोनिंग के साथ कवर किया गया था.

चुनाव से कुछ ही दिन पहले, दो वीडियो वायरल हुए जिसमें बॉलीवुड अभिनेता आमिर खान और रणवीर सिंह भाजपा के नेतृत्व वाली सरकार की आलोचना कर रहे थे. बूम ने इन दोनों वीडियो का विश्लेषण किया, और एआई वॉयस क्लोनिंग का उपयोग करके उनमें बदलाव किए जाने के सबूत पाए.

चुनाव के पहले और दूसरे चरण के बीच एक और वीडियो सोशल मीडिया पर छाया रहा, जिसमें कांग्रेस नेता कमल नाथ को मस्जिद के निर्माण के लिए मुसलमानों को जमीन देने और अनुच्छेद 370 की बहाली का वादा करते हुए सुना जा सकता है. बूम ने पाया कि इस वीडियो में भी बदलाव किया गया था. नाथ की आवाज को एआई वॉयस क्लोन द्वारा प्रतिस्थापित किया जा रहा है.

भारत के निर्वाचन आयोग ने चुनावों के संदर्भ में इस तरह के एआई के नेतृत्व वाले दुष्प्रचार को स्वीकार करते हुए अभी तक कोई बयान नहीं दिया है. भारत में चुनावों से पहले भी इस साल की शुरुआत में पड़ोसी देश पाकिस्तान और बांग्लादेश में चुनावों के दौरान डीपफेक फैलाया गया था. हम डीपफेक को कैसे नियंत्रित कर सकते हैं? इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी राज्य मंत्री राजीव चन्द्रशेखर की सलाह के बाद, एआई का विनियमन भारत में बहस का एक गर्म विषय रहा है, जिसके कारण बड़े पैमाने पर भ्रम पैदा हुआ और मंत्री ने कई स्पष्टीकरण दिए. वाघरे बताते हैं, "चाहे आप 'डीपफेक' शब्द का उपयोग करना चाहें, चाहे आप 'सिंथेटिक मीडिया' के व्यापक मुद्दे को देखें, उन अवधारणाओं के बारे में स्पष्टता की आवश्यकता है, जिन्हें हम विनियमित करने की कोशिश कर रहे हैं. और आज सार्वजनिक चर्चा के कारण यह गंदा हो रहा है यह." एआई टूल की बढ़ती टेक्‍नोलॉजी ने कई लोगों को भ्रमित कर दिया है कि वास्तव में किस पर चर्चा की जा रही है, और 'डीपफेक' शब्द के जानबूझकर दुरुपयोग से स्थिति और खराब होने की आशंका है, तो फिर ऐसी तकनीक के दुरुपयोग पर कैसे लगाम लगाई जा सकती है?

MeitY द्वारा अब निरस्त की गई सलाह का उल्लेख करते हुए, SFLC.in की स्वयंसेवी कानूनी सलाहकार, राधिका झालानी कहती हैं, "हर दिन बदलने की क्षमता के साथ, टेक्‍नोलॉजी की विकसित प्रकृति पर प्रकाश डालती हैं, और नए कानूनों के लिए एक संतुलित दृष्टिकोण की सिफारिश करती हैं. 2024 वैश्विक स्तर पर एक प्रमुख चुनावी वर्ष है, डीपफेक चिंता का कारण है." राधिका ने बूम को बताया, "जो भी कानून लागू किया जाता है, उसमें अभिव्यक्ति की स्वतंत्रता के साथ तकनीक के दुरुपयोग को संतुलित करने की आवश्यकता होती है." वाघरे कहते हैं, "इसका उपयोग हानिकारक संदर्भ में किया जा रहा है. और मौजूदा कानून जालसाजी और पहचान की चोरी आदि के बारे में क्या कहते हैं? तब आप नियामक कमियों को पहचानते हैं, जहां वर्तमान में कानून कम पड़ रहे हैं. क्या हमें उन्हें कवर करने के लिए नए कानूनों की ज़रूरत है, क्या हमें कानूनों में संशोधन करने की ज़रूरत है, या कानून को लागू करने में सुधार करने की ज़रूरत है."

Listen to the latest songs, only on JioSaavn.com

(यह ख़बर मूल रूप से BOOM द्वारा प्रकाशित की गई थी, और इसे शक्ति कलेक्टिव के अंतर्गत NDTV ने पुनर्प्रकाशित किया है.)