तेजी से बदलती डिजिटल दुनिया में ईकेवाईसी (EKYC) का जमाना है लेकिन अब उसमें भी वीडियो केवाईसी (video KYC) आ चुका है और यह वीडियो केवाईसी खतरनाक है. डीपफेक वीडियो (deep fake video) बनाकर आसानी से किसी को भी, यानी बैंकों को, NBFC को बीमा कंपनी को या फिर आम आदमी को भी ठगा जा सकता है. एआई (AI) के कमाल ने डीपफेक वीडियो का एक खतरा पैदा कर दिया है. डीपफेक वीडियो के खतरे से कैसे बचें? डीपफेक वीडियो को कैसे पहचान सकते हैं? तकनीकी विशेषज्ञ और Pilab के फाउंडर सीईओ अंकुश तिवारी ने NDTV को इसके बारे में बताया.
अंकुश तिवारी ने बताया कि कैसे वीडियो में आसानी से पल भर में किसी व्यक्ति को किसी और का रूप दिया जा सकता है. एआई के माध्यम से किसी का चेहरा कैसे बदला जा सकता है? उन्होंने कहा कि, एआई के माध्यम से किसी और का चेहरा लगाना और सब ऐसे मर्ज करना कि कोई आम आदमी देखकर फर्क ही ना कर पाए बहुत आसान हो गया है. इसको करने के लिए आपको ना बहुत ज्यादा सॉफ्टवेयर की जरूरत है ना आपको बहुत महंगे कम्प्यूटर की जरुरत है. आपके पास बस करीब एक लाख रुपए का लैपटॉप होना चाहिए जिसमें कोई GPU हों और आपके पास ओपन सोर्स के ही सॉफ्टवेयर उपलब्ध होने चाहिए. इसको इस्तेमाल करके हम आपको पल भर में शाहरुख खान या पल भर में सचिन तेंदुलकर बना सकते हैं.
डिजिटिलाइजेशन के कारण आते रहते हैं नए खतरे
इसको लेकर खतरे के बारे में पूछने पर उन्होंने कहा कि, देखिए हम सबको पता है कि भारत का फिनटेक कितना पावरफुल है. हमने कई जनरेशन को लीप किया है. पर डिजिटिलाइजेशन के कारण कुछ नए नए खतरे आते रहते हैं. अभी वीडियो केवाईसी अपने फिनटेक सिस्टम का ही इंटीग्रल पार्ट है जो बहुत सारी चीजों में यूज होता है, नया एकाउंट खोलने में यूज होता है, नए लोन देने के लिए यूज होता है, नए क्रेडिट कार्ड के लिए यूज होता है.
उन्होंने कहा कि, आप सोचिए कि जैसे आप शाहरुख खान या सचिन तेंदुलकर बन गए, सोचिए कि मुझे पता है कि सुनील जी की क्रेडिट रेटिंग बहुत अच्छी है... मैं आपका चेहरा लगाकर और एक वीडियो केवाईसी यदि बैंक का पास कर लूं... तो मैंने एक गलत एकाउंट खोल लिया और मैं आपकी क्रेडिट रेटिंग के हिसाब से फिर लोन या क्रेडिट कार्ड (credit card) भी ले लूंगा. तो इस प्रकार से बैंकों का जो वीडियो केवाईसी सिस्टम है वह डीपफेक के कारण खतरे में आ गया है.
उन्होंने कहा कि, पहले मुश्किल होती थी, महंगी मशीनें लगती थीं, स्किल्स चाहिए था.. आजकल ना आपको स्किल्स चाहिए, ना महंगी मशीन चाहिए. इसके कारण अब हमें जरूरत है कि क्या कुछ सोचा जाए, वीडियो केवाईसी को रोका जाए.. नहीं, लेकिन हम अब उसको मजबूत कर रहे हैं.
लोहा ही लोहे को काटेगा
डीपफेक वीडियो का से बचने का तरीका क्या है? इस सवाल पर अंकुश तिवारी ने कहा कि, लोहा लोहे को काटता है. यह एआई से पैदा हुई समस्या है. हम AI का ही इस्तेमाल करके डिफेंसिव टेक्नीक बना रहे हैं. इससे हम यह पता लगा रहे हैं कि कहां पर AI मेनीपुलेशन हुआ है, वीडियो स्ट्रीम में, इमेज में या फिर ऑडियो में.. हमारा प्रोडक्ट है अथेंटिसी फ्राम पाईलेब्स, जो यह एनालाइज करके आपको रिपोर्ट देता है कि क्या यह वीडियो जेनुइन है या फेक है.
उन्होंने कहा कि हम इसमें मल्टीपल पैरामीटर एनालाइज करते हैं. हमारा टूल एनालाइज करके बहुत ही डिटेल रिपोर्ट देता है, ऑडियो की और वीडियो की भी. तो कोई भी वीडियो केवाईसी में इसे चेक करेगा और जब यह बोलेगा फेक तो वहां रुक जाएगा.
पहले कहा जाता था कि सुनी हुई बात पर भरोसा मत करिए आंखों से देखिए, लेकिन अब आंखों को भी धोखा दिया जा रहा है. आंखों से देखने पर भी धोखा हो सकता है इसलिए आंखों पर भरोसा मत कीजिए जो प्रमाणित किया गया है उसी पर भरोसा कीजिए.
यह भी पढ़ें-
रियल या एडिटेड वीडियो को 'डीपफेक' के रूप में किया जा रहा लेबल, राजनीति में हो रहा AI का इस्तेमाल
NDTV.in पर ताज़ातरीन ख़बरों को ट्रैक करें, व देश के कोने-कोने से और दुनियाभर से न्यूज़ अपडेट पाएं