Artificial Intelligence Deepfake
- सब
- ख़बरें
- वीडियो
-
Video: KYC में डीपफेक वीडियो के खतरे से कैसे बचें? समझिए एक्सपर्ट से
- Sunday September 1, 2024
- Reported by: सुनील कुमार सिंह, Edited by: सूर्यकांत पाठक
तेजी से बदलती डिजिटल दुनिया में ईकेवाईसी (EKYC) का जमाना है लेकिन अब उसमें भी वीडियो केवाईसी (video KYC) आ चुका है और यह वीडियो केवाईसी खतरनाक है. डीपफेक वीडियो (deep fake video) बनाकर आसानी से किसी को भी, यानी बैंकों को, NBFC को बीमा कंपनी को या फिर आम आदमी को भी ठगा जा सकता है. एआई (AI) के कमाल ने डीपफेक वीडियो का एक खतरा पैदा कर दिया है. डीपफेक वीडियो के खतरे से कैसे बचें? डीपफेक वीडियो को कैसे पहचान सकते हैं? तकनीकी विशेषज्ञ और Pilab के फाउंडर सीईओ अंकुश तिवारी ने NDTV को इसके बारे में बताया.
- ndtv.in
-
हमने AI को लेकर मजबूत व्यवस्था बनाई है, इसे जल्द जनता के सामने रखेंगे : डीपफेक कंटेंट पर अश्विनी वैष्णव
- Tuesday April 23, 2024
- Reported by: IANS/IPN
केंद्रीय मंत्री अश्विनी वैष्णव ने बताया, "हमें जनता की भलाई के लिए AI का उपयोग करना होगा और साथ ही इसके दुरुपयोग को भी रोकना होगा. हमें इसका सही समाधान ढूंढना होगा. जून में नई सरकार बनने के बाद, हम AI ढांचे पर सार्वजनिक परामर्श शुरू करेंगे."
- ndtv.in
-
रणवीर सिंह ने अपने फर्जी वीडियो के खिलाफ दर्ज कराई FIR, वीडियो में पॉलिटिकल पार्टी का प्रचार करते दिख रहे थे 'बाजीराव'
- Monday April 22, 2024
- Edited by: उर्वशी नौटियाल
बॉलीवुड स्टार रणवीर सिंह का एक वीडियो सोशल मीडिया पर वायरल हो रहा है. इसमें रणवीर एक राजनीतिक पार्टी का पक्ष लेते दिख रहे थे. इसके खिलाफ उन्होंने अब एक्शन लिया है.
- ndtv.in
-
एक्ट्रेस रश्मिका मंदाना ने उनका डीपफेक वीडियो बनाने वाले की गिरफ्तारी पर दी प्रतिक्रिया
- Sunday January 21, 2024
- Edited by: सूर्यकांत पाठक
एक्ट्रेस रश्मिका मंदाना ने उनका डीपफेक वीडियो बनाने वाले व्यक्ति को गिरफ्तार करने के लिए दिल्ली पुलिस का आभार जताया. उन्होंने अपनी इंस्टाग्राम पर पोस्ट में लिखा, "जिम्मेदार व्यक्ति को पकड़ने के लिए धन्यवाद." शनिवार को रश्मिका मंदाना का ‘डीपफेक’ वीडियो बनाने वाले व्यक्ति को दिल्ली पुलिस ने गिरफ्तार कर लिया.
- ndtv.in
-
शोधार्थियों ने विकसित की ऐसी AI तकनीक, जिसकी मदद से आपकी हैंडराइटिंग की भी नकल हो सकती है-
- Tuesday January 16, 2024
- Edited by: बिक्रम कुमार सिंह
हम सभी ने देखा कि कैसे डीपफेक की मदद से लोग गलद फायदा उठा रहे हैं. ऐसे में सवाल उठ रहा है कि इस तकनीक का भी गलत दुरुपयोग हो सकता है. एआई की मदद से कई लूट को भी अंजाम दिया गया है. अभी हाल ही में सचिन तेंदुलकर की आवाज और वीडियो की नकल कर उनके नाम पर एक विज्ञापन भी चलाया गया.
- ndtv.in
-
"डीपफ़ेक वीडियो 'बड़ी चिंता' हैं..." : PM नरेंद्र मोदी ने ChatGPT से कहा - "जारी करें चेतावनी..."
- Friday November 17, 2023
- Translated by: विवेक रस्तोगी
PM नरेंद्र मोदी ने कहा कि उन्होंने चैटजीपीटी (ChatGPT) टीम से डीपफ़ेक वीडियो को फ़्लैग करने और इस तरह के वीडियो इंटरनेट पर सर्कुलेट होने की स्थिति में चेतावनी जारी करने के लिए कहा है. उन्होंने कहा कि इस मुद्दे के बारे में मीडिया को लोगों को शिक्षित करना चाहिए.
- ndtv.in
-
Deepfake वीडियो पर क्या कहता है IT एक्ट? कानून के बाद भी क्यों शिकार हुईं रश्मिका मंदाना और कैटरीना कैफ?
- Tuesday November 7, 2023
- Edited by: अंजलि कर्मकार
डीपफेक वीडियो में मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस का सहारा लिया जाता है. इसमें वीडियो और ऑडियो को टेक्नोलॉजी और सॉफ्टवेयर की मदद से ऐसे तैयार किया जाता है कि फेक भी रियल दिखने लगता है. वर्तमान टेक्नोलॉजी में अब आवाज भी इम्प्रूव हो गई है. इसमें वॉयस क्लोनिंग बेहद खतरनाक हो गई है.
- ndtv.in
-
Video: KYC में डीपफेक वीडियो के खतरे से कैसे बचें? समझिए एक्सपर्ट से
- Sunday September 1, 2024
- Reported by: सुनील कुमार सिंह, Edited by: सूर्यकांत पाठक
तेजी से बदलती डिजिटल दुनिया में ईकेवाईसी (EKYC) का जमाना है लेकिन अब उसमें भी वीडियो केवाईसी (video KYC) आ चुका है और यह वीडियो केवाईसी खतरनाक है. डीपफेक वीडियो (deep fake video) बनाकर आसानी से किसी को भी, यानी बैंकों को, NBFC को बीमा कंपनी को या फिर आम आदमी को भी ठगा जा सकता है. एआई (AI) के कमाल ने डीपफेक वीडियो का एक खतरा पैदा कर दिया है. डीपफेक वीडियो के खतरे से कैसे बचें? डीपफेक वीडियो को कैसे पहचान सकते हैं? तकनीकी विशेषज्ञ और Pilab के फाउंडर सीईओ अंकुश तिवारी ने NDTV को इसके बारे में बताया.
- ndtv.in
-
हमने AI को लेकर मजबूत व्यवस्था बनाई है, इसे जल्द जनता के सामने रखेंगे : डीपफेक कंटेंट पर अश्विनी वैष्णव
- Tuesday April 23, 2024
- Reported by: IANS/IPN
केंद्रीय मंत्री अश्विनी वैष्णव ने बताया, "हमें जनता की भलाई के लिए AI का उपयोग करना होगा और साथ ही इसके दुरुपयोग को भी रोकना होगा. हमें इसका सही समाधान ढूंढना होगा. जून में नई सरकार बनने के बाद, हम AI ढांचे पर सार्वजनिक परामर्श शुरू करेंगे."
- ndtv.in
-
रणवीर सिंह ने अपने फर्जी वीडियो के खिलाफ दर्ज कराई FIR, वीडियो में पॉलिटिकल पार्टी का प्रचार करते दिख रहे थे 'बाजीराव'
- Monday April 22, 2024
- Edited by: उर्वशी नौटियाल
बॉलीवुड स्टार रणवीर सिंह का एक वीडियो सोशल मीडिया पर वायरल हो रहा है. इसमें रणवीर एक राजनीतिक पार्टी का पक्ष लेते दिख रहे थे. इसके खिलाफ उन्होंने अब एक्शन लिया है.
- ndtv.in
-
एक्ट्रेस रश्मिका मंदाना ने उनका डीपफेक वीडियो बनाने वाले की गिरफ्तारी पर दी प्रतिक्रिया
- Sunday January 21, 2024
- Edited by: सूर्यकांत पाठक
एक्ट्रेस रश्मिका मंदाना ने उनका डीपफेक वीडियो बनाने वाले व्यक्ति को गिरफ्तार करने के लिए दिल्ली पुलिस का आभार जताया. उन्होंने अपनी इंस्टाग्राम पर पोस्ट में लिखा, "जिम्मेदार व्यक्ति को पकड़ने के लिए धन्यवाद." शनिवार को रश्मिका मंदाना का ‘डीपफेक’ वीडियो बनाने वाले व्यक्ति को दिल्ली पुलिस ने गिरफ्तार कर लिया.
- ndtv.in
-
शोधार्थियों ने विकसित की ऐसी AI तकनीक, जिसकी मदद से आपकी हैंडराइटिंग की भी नकल हो सकती है-
- Tuesday January 16, 2024
- Edited by: बिक्रम कुमार सिंह
हम सभी ने देखा कि कैसे डीपफेक की मदद से लोग गलद फायदा उठा रहे हैं. ऐसे में सवाल उठ रहा है कि इस तकनीक का भी गलत दुरुपयोग हो सकता है. एआई की मदद से कई लूट को भी अंजाम दिया गया है. अभी हाल ही में सचिन तेंदुलकर की आवाज और वीडियो की नकल कर उनके नाम पर एक विज्ञापन भी चलाया गया.
- ndtv.in
-
"डीपफ़ेक वीडियो 'बड़ी चिंता' हैं..." : PM नरेंद्र मोदी ने ChatGPT से कहा - "जारी करें चेतावनी..."
- Friday November 17, 2023
- Translated by: विवेक रस्तोगी
PM नरेंद्र मोदी ने कहा कि उन्होंने चैटजीपीटी (ChatGPT) टीम से डीपफ़ेक वीडियो को फ़्लैग करने और इस तरह के वीडियो इंटरनेट पर सर्कुलेट होने की स्थिति में चेतावनी जारी करने के लिए कहा है. उन्होंने कहा कि इस मुद्दे के बारे में मीडिया को लोगों को शिक्षित करना चाहिए.
- ndtv.in
-
Deepfake वीडियो पर क्या कहता है IT एक्ट? कानून के बाद भी क्यों शिकार हुईं रश्मिका मंदाना और कैटरीना कैफ?
- Tuesday November 7, 2023
- Edited by: अंजलि कर्मकार
डीपफेक वीडियो में मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस का सहारा लिया जाता है. इसमें वीडियो और ऑडियो को टेक्नोलॉजी और सॉफ्टवेयर की मदद से ऐसे तैयार किया जाता है कि फेक भी रियल दिखने लगता है. वर्तमान टेक्नोलॉजी में अब आवाज भी इम्प्रूव हो गई है. इसमें वॉयस क्लोनिंग बेहद खतरनाक हो गई है.
- ndtv.in