Artificial Intelligence Deepfake
- सब
- ख़बरें
- वीडियो
-
3 करोड़ लोगों को बनाया बेवकूफ! शायरी सुनाने वाली खूबसूरत ‘लड़की’ निकली AI मॉडल, वायरल Video कर देगा हैरान
- Friday February 13, 2026
- Written by: संज्ञा सिंह
इंस्टाग्राम पर 3 करोड़ से ज्यादा व्यू पाने वाला शायरी वीडियो AI जनरेटेड निकला. असली आवाज किसी और की थी. यह मामला AI वीडियो की बढ़ती चुनौती और भरोसे से जुड़े सवाल उठाता है.
-
ndtv.in
-
AI का जादू या खतरा? एक वीडियो ने खोली आंखें, देख आप भी चौंक उठेंगे
- Wednesday February 11, 2026
- Written by: शालिनी सेंगर
सोशल मीडिया की चमकती दुनिया में जो दिख रहा है, क्या वह सच भी है? एक वीडियो ने ऐसा सन्नाटा फैलाया कि लोग सोचने पर मजबूर हो गए...आखिर असलियत क्या है और नकली क्या?
-
ndtv.in
-
3 घंटें में एक्शन, AI की लेबलिंग... 8 पॉइंट में समझें Deepfake पर अंकुश के नए नियम
- Tuesday February 10, 2026
- Written by: नवीन प्रजापति
New Rules For AI Deepfake: केंद्र सरकार ने AI‑generated और deepfake कंटेंट को लेकर नए दिशानिर्देश जारी किए, जिनका पालन सोशल मीडिया प्लेटफॉर्म्स को करना होगा. सरकार ने 10 फरवरी को नए नियम जारी किए हैं, जो 20 फरवरी से लागू होंगे.
-
ndtv.in
-
Video: KYC में डीपफेक वीडियो के खतरे से कैसे बचें? समझिए एक्सपर्ट से
- Sunday September 1, 2024
- Reported by: सुनील कुमार सिंह, Edited by: सूर्यकांत पाठक
तेजी से बदलती डिजिटल दुनिया में ईकेवाईसी (EKYC) का जमाना है लेकिन अब उसमें भी वीडियो केवाईसी (video KYC) आ चुका है और यह वीडियो केवाईसी खतरनाक है. डीपफेक वीडियो (deep fake video) बनाकर आसानी से किसी को भी, यानी बैंकों को, NBFC को बीमा कंपनी को या फिर आम आदमी को भी ठगा जा सकता है. एआई (AI) के कमाल ने डीपफेक वीडियो का एक खतरा पैदा कर दिया है. डीपफेक वीडियो के खतरे से कैसे बचें? डीपफेक वीडियो को कैसे पहचान सकते हैं? तकनीकी विशेषज्ञ और Pilab के फाउंडर सीईओ अंकुश तिवारी ने NDTV को इसके बारे में बताया.
-
ndtv.in
-
हमने AI को लेकर मजबूत व्यवस्था बनाई है, इसे जल्द जनता के सामने रखेंगे : डीपफेक कंटेंट पर अश्विनी वैष्णव
- Tuesday April 23, 2024
- Reported by: IANS/IPN
केंद्रीय मंत्री अश्विनी वैष्णव ने बताया, "हमें जनता की भलाई के लिए AI का उपयोग करना होगा और साथ ही इसके दुरुपयोग को भी रोकना होगा. हमें इसका सही समाधान ढूंढना होगा. जून में नई सरकार बनने के बाद, हम AI ढांचे पर सार्वजनिक परामर्श शुरू करेंगे."
-
ndtv.in
-
रणवीर सिंह ने अपने फर्जी वीडियो के खिलाफ दर्ज कराई FIR, वीडियो में पॉलिटिकल पार्टी का प्रचार करते दिख रहे थे 'बाजीराव'
- Monday April 22, 2024
- Edited by: उर्वशी नौटियाल
बॉलीवुड स्टार रणवीर सिंह का एक वीडियो सोशल मीडिया पर वायरल हो रहा है. इसमें रणवीर एक राजनीतिक पार्टी का पक्ष लेते दिख रहे थे. इसके खिलाफ उन्होंने अब एक्शन लिया है.
-
ndtv.in
-
एक्ट्रेस रश्मिका मंदाना ने उनका डीपफेक वीडियो बनाने वाले की गिरफ्तारी पर दी प्रतिक्रिया
- Sunday January 21, 2024
- Edited by: सूर्यकांत पाठक
एक्ट्रेस रश्मिका मंदाना ने उनका डीपफेक वीडियो बनाने वाले व्यक्ति को गिरफ्तार करने के लिए दिल्ली पुलिस का आभार जताया. उन्होंने अपनी इंस्टाग्राम पर पोस्ट में लिखा, "जिम्मेदार व्यक्ति को पकड़ने के लिए धन्यवाद." शनिवार को रश्मिका मंदाना का ‘डीपफेक’ वीडियो बनाने वाले व्यक्ति को दिल्ली पुलिस ने गिरफ्तार कर लिया.
-
ndtv.in
-
शोधार्थियों ने विकसित की ऐसी AI तकनीक, जिसकी मदद से आपकी हैंडराइटिंग की भी नकल हो सकती है-
- Tuesday January 16, 2024
- Edited by: बिक्रम कुमार सिंह
हम सभी ने देखा कि कैसे डीपफेक की मदद से लोग गलद फायदा उठा रहे हैं. ऐसे में सवाल उठ रहा है कि इस तकनीक का भी गलत दुरुपयोग हो सकता है. एआई की मदद से कई लूट को भी अंजाम दिया गया है. अभी हाल ही में सचिन तेंदुलकर की आवाज और वीडियो की नकल कर उनके नाम पर एक विज्ञापन भी चलाया गया.
-
ndtv.in
-
"डीपफ़ेक वीडियो 'बड़ी चिंता' हैं..." : PM नरेंद्र मोदी ने ChatGPT से कहा - "जारी करें चेतावनी..."
- Friday November 17, 2023
- Translated by: विवेक रस्तोगी
PM नरेंद्र मोदी ने कहा कि उन्होंने चैटजीपीटी (ChatGPT) टीम से डीपफ़ेक वीडियो को फ़्लैग करने और इस तरह के वीडियो इंटरनेट पर सर्कुलेट होने की स्थिति में चेतावनी जारी करने के लिए कहा है. उन्होंने कहा कि इस मुद्दे के बारे में मीडिया को लोगों को शिक्षित करना चाहिए.
-
ndtv.in
-
Deepfake वीडियो पर क्या कहता है IT एक्ट? कानून के बाद भी क्यों शिकार हुईं रश्मिका मंदाना और कैटरीना कैफ?
- Tuesday November 7, 2023
- Edited by: अंजलि कर्मकार
डीपफेक वीडियो में मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस का सहारा लिया जाता है. इसमें वीडियो और ऑडियो को टेक्नोलॉजी और सॉफ्टवेयर की मदद से ऐसे तैयार किया जाता है कि फेक भी रियल दिखने लगता है. वर्तमान टेक्नोलॉजी में अब आवाज भी इम्प्रूव हो गई है. इसमें वॉयस क्लोनिंग बेहद खतरनाक हो गई है.
-
ndtv.in
-
3 करोड़ लोगों को बनाया बेवकूफ! शायरी सुनाने वाली खूबसूरत ‘लड़की’ निकली AI मॉडल, वायरल Video कर देगा हैरान
- Friday February 13, 2026
- Written by: संज्ञा सिंह
इंस्टाग्राम पर 3 करोड़ से ज्यादा व्यू पाने वाला शायरी वीडियो AI जनरेटेड निकला. असली आवाज किसी और की थी. यह मामला AI वीडियो की बढ़ती चुनौती और भरोसे से जुड़े सवाल उठाता है.
-
ndtv.in
-
AI का जादू या खतरा? एक वीडियो ने खोली आंखें, देख आप भी चौंक उठेंगे
- Wednesday February 11, 2026
- Written by: शालिनी सेंगर
सोशल मीडिया की चमकती दुनिया में जो दिख रहा है, क्या वह सच भी है? एक वीडियो ने ऐसा सन्नाटा फैलाया कि लोग सोचने पर मजबूर हो गए...आखिर असलियत क्या है और नकली क्या?
-
ndtv.in
-
3 घंटें में एक्शन, AI की लेबलिंग... 8 पॉइंट में समझें Deepfake पर अंकुश के नए नियम
- Tuesday February 10, 2026
- Written by: नवीन प्रजापति
New Rules For AI Deepfake: केंद्र सरकार ने AI‑generated और deepfake कंटेंट को लेकर नए दिशानिर्देश जारी किए, जिनका पालन सोशल मीडिया प्लेटफॉर्म्स को करना होगा. सरकार ने 10 फरवरी को नए नियम जारी किए हैं, जो 20 फरवरी से लागू होंगे.
-
ndtv.in
-
Video: KYC में डीपफेक वीडियो के खतरे से कैसे बचें? समझिए एक्सपर्ट से
- Sunday September 1, 2024
- Reported by: सुनील कुमार सिंह, Edited by: सूर्यकांत पाठक
तेजी से बदलती डिजिटल दुनिया में ईकेवाईसी (EKYC) का जमाना है लेकिन अब उसमें भी वीडियो केवाईसी (video KYC) आ चुका है और यह वीडियो केवाईसी खतरनाक है. डीपफेक वीडियो (deep fake video) बनाकर आसानी से किसी को भी, यानी बैंकों को, NBFC को बीमा कंपनी को या फिर आम आदमी को भी ठगा जा सकता है. एआई (AI) के कमाल ने डीपफेक वीडियो का एक खतरा पैदा कर दिया है. डीपफेक वीडियो के खतरे से कैसे बचें? डीपफेक वीडियो को कैसे पहचान सकते हैं? तकनीकी विशेषज्ञ और Pilab के फाउंडर सीईओ अंकुश तिवारी ने NDTV को इसके बारे में बताया.
-
ndtv.in
-
हमने AI को लेकर मजबूत व्यवस्था बनाई है, इसे जल्द जनता के सामने रखेंगे : डीपफेक कंटेंट पर अश्विनी वैष्णव
- Tuesday April 23, 2024
- Reported by: IANS/IPN
केंद्रीय मंत्री अश्विनी वैष्णव ने बताया, "हमें जनता की भलाई के लिए AI का उपयोग करना होगा और साथ ही इसके दुरुपयोग को भी रोकना होगा. हमें इसका सही समाधान ढूंढना होगा. जून में नई सरकार बनने के बाद, हम AI ढांचे पर सार्वजनिक परामर्श शुरू करेंगे."
-
ndtv.in
-
रणवीर सिंह ने अपने फर्जी वीडियो के खिलाफ दर्ज कराई FIR, वीडियो में पॉलिटिकल पार्टी का प्रचार करते दिख रहे थे 'बाजीराव'
- Monday April 22, 2024
- Edited by: उर्वशी नौटियाल
बॉलीवुड स्टार रणवीर सिंह का एक वीडियो सोशल मीडिया पर वायरल हो रहा है. इसमें रणवीर एक राजनीतिक पार्टी का पक्ष लेते दिख रहे थे. इसके खिलाफ उन्होंने अब एक्शन लिया है.
-
ndtv.in
-
एक्ट्रेस रश्मिका मंदाना ने उनका डीपफेक वीडियो बनाने वाले की गिरफ्तारी पर दी प्रतिक्रिया
- Sunday January 21, 2024
- Edited by: सूर्यकांत पाठक
एक्ट्रेस रश्मिका मंदाना ने उनका डीपफेक वीडियो बनाने वाले व्यक्ति को गिरफ्तार करने के लिए दिल्ली पुलिस का आभार जताया. उन्होंने अपनी इंस्टाग्राम पर पोस्ट में लिखा, "जिम्मेदार व्यक्ति को पकड़ने के लिए धन्यवाद." शनिवार को रश्मिका मंदाना का ‘डीपफेक’ वीडियो बनाने वाले व्यक्ति को दिल्ली पुलिस ने गिरफ्तार कर लिया.
-
ndtv.in
-
शोधार्थियों ने विकसित की ऐसी AI तकनीक, जिसकी मदद से आपकी हैंडराइटिंग की भी नकल हो सकती है-
- Tuesday January 16, 2024
- Edited by: बिक्रम कुमार सिंह
हम सभी ने देखा कि कैसे डीपफेक की मदद से लोग गलद फायदा उठा रहे हैं. ऐसे में सवाल उठ रहा है कि इस तकनीक का भी गलत दुरुपयोग हो सकता है. एआई की मदद से कई लूट को भी अंजाम दिया गया है. अभी हाल ही में सचिन तेंदुलकर की आवाज और वीडियो की नकल कर उनके नाम पर एक विज्ञापन भी चलाया गया.
-
ndtv.in
-
"डीपफ़ेक वीडियो 'बड़ी चिंता' हैं..." : PM नरेंद्र मोदी ने ChatGPT से कहा - "जारी करें चेतावनी..."
- Friday November 17, 2023
- Translated by: विवेक रस्तोगी
PM नरेंद्र मोदी ने कहा कि उन्होंने चैटजीपीटी (ChatGPT) टीम से डीपफ़ेक वीडियो को फ़्लैग करने और इस तरह के वीडियो इंटरनेट पर सर्कुलेट होने की स्थिति में चेतावनी जारी करने के लिए कहा है. उन्होंने कहा कि इस मुद्दे के बारे में मीडिया को लोगों को शिक्षित करना चाहिए.
-
ndtv.in
-
Deepfake वीडियो पर क्या कहता है IT एक्ट? कानून के बाद भी क्यों शिकार हुईं रश्मिका मंदाना और कैटरीना कैफ?
- Tuesday November 7, 2023
- Edited by: अंजलि कर्मकार
डीपफेक वीडियो में मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस का सहारा लिया जाता है. इसमें वीडियो और ऑडियो को टेक्नोलॉजी और सॉफ्टवेयर की मदद से ऐसे तैयार किया जाता है कि फेक भी रियल दिखने लगता है. वर्तमान टेक्नोलॉजी में अब आवाज भी इम्प्रूव हो गई है. इसमें वॉयस क्लोनिंग बेहद खतरनाक हो गई है.
-
ndtv.in