Video: KYC में डीपफेक वीडियो के खतरे से कैसे बचें? समझिए एक्सपर्ट से

आरबीआई ने वीडियो केवाईसी की अनुमति दी है लेकिन इसमें डीपफेक वीडियो का खतरा है. इस खतरे से कैसे बचें? Pilab के फाउंडर सीईओ अंकुश तिवारी ने इसके बारे में NDTV को विस्तार से जानकारी दी.

Advertisement
Read Time: 4 mins

मुंबई:

तेजी से बदलती डिजिटल दुनिया में ईकेवाईसी (EKYC) का जमाना है लेकिन अब उसमें भी वीडियो केवाईसी (video KYC) आ चुका है और यह वीडियो केवाईसी खतरनाक है. डीपफेक वीडियो (deep fake video) बनाकर आसानी से किसी को भी, यानी बैंकों को, NBFC को बीमा कंपनी को या फिर आम आदमी को भी ठगा जा सकता है. एआई (AI) के कमाल ने डीपफेक वीडियो का एक खतरा पैदा कर दिया है. डीपफेक वीडियो के खतरे से कैसे बचें? डीपफेक वीडियो को कैसे पहचान सकते हैं? तकनीकी विशेषज्ञ और Pilab के फाउंडर सीईओ अंकुश तिवारी ने NDTV को इसके बारे में बताया.

अंकुश तिवारी ने बताया कि कैसे वीडियो में आसानी से पल भर में किसी व्यक्ति को किसी और का रूप दिया जा सकता है. एआई के माध्यम से किसी का चेहरा कैसे बदला जा सकता है? उन्होंने कहा कि, एआई के माध्यम से किसी और का चेहरा लगाना और सब ऐसे मर्ज करना कि कोई आम आदमी देखकर फर्क ही ना कर पाए बहुत आसान हो गया है. इसको करने के लिए आपको ना बहुत ज्यादा सॉफ्टवेयर की जरूरत है ना आपको बहुत महंगे कम्प्यूटर की जरुरत है. आपके पास बस करीब एक लाख रुपए का लैपटॉप होना चाहिए जिसमें कोई GPU हों और आपके पास ओपन सोर्स के ही सॉफ्टवेयर उपलब्ध होने चाहिए. इसको इस्तेमाल करके हम आपको पल भर में शाहरुख खान या पल भर में सचिन तेंदुलकर बना सकते हैं. 

डिजिटिलाइजेशन के कारण आते रहते हैं नए खतरे

इसको लेकर खतरे के बारे में पूछने पर उन्होंने कहा कि, देखिए हम सबको पता है कि भारत का फिनटेक कितना पावरफुल है. हमने कई जनरेशन को लीप किया है. पर डिजिटिलाइजेशन के कारण कुछ नए नए खतरे आते रहते हैं. अभी वीडियो केवाईसी अपने फिनटेक सिस्टम का ही इंटीग्रल पार्ट है जो बहुत सारी चीजों में यूज होता है, नया एकाउंट खोलने में यूज होता है, नए लोन देने के लिए यूज होता है, नए क्रेडिट कार्ड के लिए यूज होता है. 

उन्होंने कहा कि, आप सोचिए कि जैसे आप शाहरुख खान या सचिन तेंदुलकर बन गए, सोचिए कि मुझे पता है कि सुनील जी की क्रेडिट रेटिंग बहुत अच्छी है... मैं आपका चेहरा लगाकर और एक वीडियो केवाईसी यदि बैंक का पास कर लूं... तो मैंने एक गलत एकाउंट खोल लिया और मैं आपकी क्रेडिट रेटिंग के हिसाब से फिर लोन या क्रेडिट कार्ड (credit card) भी ले लूंगा.  तो इस प्रकार से बैंकों का जो वीडियो केवाईसी सिस्टम है वह डीपफेक के कारण खतरे में आ गया है. 

Advertisement

उन्होंने कहा कि, पहले मुश्किल होती थी, महंगी मशीनें लगती थीं, स्किल्स चाहिए था.. आजकल ना आपको स्किल्स चाहिए, ना महंगी मशीन चाहिए. इसके कारण अब हमें जरूरत है कि क्या कुछ सोचा जाए, वीडियो केवाईसी को रोका जाए.. नहीं, लेकिन हम अब उसको मजबूत कर रहे हैं. 

Advertisement

लोहा ही लोहे को काटेगा 

डीपफेक वीडियो का से बचने का तरीका क्या है? इस सवाल पर अंकुश तिवारी ने कहा कि, लोहा लोहे को काटता है. यह एआई से पैदा हुई समस्या है. हम AI का ही इस्तेमाल करके डिफेंसिव टेक्नीक  बना रहे हैं. इससे हम यह पता लगा रहे हैं कि कहां पर AI मेनीपुलेशन हुआ है, वीडियो स्ट्रीम में, इमेज में या फिर ऑडियो में.. हमारा प्रोडक्ट है अथेंटिसी फ्राम पाईलेब्स, जो यह एनालाइज करके आपको रिपोर्ट देता है कि क्या यह वीडियो जेनुइन है या फेक है. 

Advertisement

उन्होंने कहा कि हम इसमें मल्टीपल पैरामीटर एनालाइज करते हैं. हमारा टूल एनालाइज करके बहुत ही डिटेल रिपोर्ट देता है, ऑडियो की और वीडियो की भी. तो कोई भी वीडियो केवाईसी में इसे चेक करेगा और जब यह बोलेगा फेक तो वहां रुक जाएगा. 

Advertisement

पहले कहा जाता था कि सुनी हुई बात पर भरोसा मत करिए आंखों से देखिए, लेकिन अब आंखों को भी धोखा दिया जा रहा है. आंखों से देखने पर भी धोखा हो सकता है इसलिए आंखों पर भरोसा मत कीजिए जो प्रमाणित किया गया है उसी पर भरोसा कीजिए.

यह भी पढ़ें-

रियल या एडिटेड वीडियो को 'डीपफेक' के रूप में किया जा रहा लेबल, राजनीति में हो रहा AI का इस्‍तेमाल