Government New IT Rules For AI Deepfake: आज के समय में AI का उपयोग बहुत तेजी से बढ़ गया है. सोशल मीडिया जमकर AI वीडियो और फोटो देखने को मिलते हैं. यह वीडियो भी ऐसे होते हैं, जिन्हें लोग सच मान बैठते हैं और तेजी से वायरल होने लगते हैं, लेकिन अब AI का वीडियो बनाना भारी पड़ सकता है. ऐसा करने वाले के खिलाफ कार्रवाई भी हो सकती है. दरअसल, केंद्र सरकार ने AI‑generated और deepfake कंटेंट पर सख्ती बढ़ा दी है. सरकार ने AI कंटेंट और उसके दुरुपयोग को लेकर नई गाइडलाइन बनाई हैं. चलिए आपको बताते हैं AI से तैयार सिंथेटिक कंटेंट को लेकर सरकार के नए नियम क्या कहते हैं?
यह भी पढ़ें:- क्या रात में वाई-फाई और मोबाइल इंटरनेट बंद कर देना चाहिए, जानिए साइंस असल में क्या कहता है?
AI डीपफेक को लेकर सरकार के नए नियम
केंद्र सरकार ने AI‑generated और deepfake कंटेंट को लेकर नए दिशानिर्देश जारी किए, जिनका पालन सोशल मीडिया प्लेटफॉर्म्स को करना होगा. सरकार ने 10 फरवरी को नए नियम जारी किए हैं, जो 20 फरवरी से लागू होंगे. केंद्र सरकार ने सूचना प्रौद्योगिकी (मध्यस्थ दिशा-निर्देश और डिजिटल मीडिया आचार संहिता) नियम, 2021 में संशोधन किया है. इन नियमों के तहत अब AI से बने या बदले गए कंटेंट को भारत के डिजिटल कानूनों के दायरे में औपचारिक रूप से शामिल किया गया है.
AI से वीडियो को लेकर क्या कहते हैं सरकार के नए नियम?
नए IT नियमों के अनुसार, अब सोशल मीडिया प्लेटफॉर्म्स को ऐसे आपत्तिजनक या गलत AI कंटेंट को तीन घंटे के भीतर हटाना होगा. इसके अलावा AI‑generated कंटेंट को लेबल करना अनिवार्य होगा. नए नियमों के मुताबिक, सोशल मीडिया प्लेटफॉर्म्स को सुनिश्चित करना होगा कि जो भी कंटेंट AI से बनाया गया है, वह साफ और बड़े तौर पर लेबल किया जाए. यूजर्स को भी यह बताना होगा कि उन्होंने जो कंटेंट अपलोड किया है, वह AI से बनाया गया है या AI की मदद से बदला गया है. दरअसल, केंद्र सरकार ने यह कदम फर्जी, भ्रामक और डीपफेक सामग्री पर रोक लगाने के लिए उठाया है. ताकि इंटरनेट सुरक्षित और विश्वसनीय बना रहे.
AI‑generated कंटेंट की लेबलिंग अनिवार्यनए नियमों के मुताबिक, AI कंटेंट पर साफ और बड़ा लेबल लगाना जरूरी है. सरकार ने सोशल मीडिया प्लेटफॉर्म्स और उन सभी डिजिटल सेवाओं को निर्देश दिया है, जो AI कंटेंट बनाते या फैलाते हैं. प्लेटफॉर्म्स को यह भी सुनिश्चित करना होगा कि ऐसे कंटेंट में metadata या technical provenance markers जैसे यूनिक आइडेंटिफायर जोड़े जाए, ताकि यह पता लगाया जा सके कि कंटेंट कहां बना, किस सिस्टम से बना और कहां से फैला.
3 घंटे में हटेगा फर्जी और गलत AI कंटेंटसोशल मीडिया प्लेटफॉर्म्स को डीपफेक या भ्रामक AI कंटेंट को तीन घंटे के अंदर हटाना होगा. अब 36 घंटे की जगह, सिर्फ 3 घंटे में एक्शन लेना होगा. इसके अलावा 15 दिन की विंडो घटाकर 7 दिन कर दी गई है और 24 घंटे की डेडलाइन को घटाकर 12 घंटे किया गया है.

government new it rules for ai content
Photo Credit: Freepik
अब कुछ तरह के synthetic content को सीधे अपराध माना जाएगा. इन मामलों में SGI (AI‑generated/AI‑edited कंटेंट) पर कड़े कानून लागू होंगे.
किन कानूनों के तहत होगी कार्रवाईबच्चों के खिलाफ यौन शोषण से जुड़ा कंटेंट (CSAM), अश्लील सामग्री, फर्जी इलेक्ट्रॉनिक रिकॉर्ड, विस्फोटक पदार्थों से संबंधित सामग्री और ऐसे डीपफेक जो किसी असली व्यक्ति की पहचान या आवाज को गलत तरीके से पेश कर रहे हैं. इन सभी को अब इन कानूनों के तहत अपराध माना जाएगा. इसमें भारतीय दंड संहिता (Bharatiya Nyay Sanhita), POCSO Act, Explosive Substances Act के तहत कार्रवाई होगी.
प्लेटफॉर्म्स की सुरक्षासरकार ने यह भी साफ किया है कि अगर प्लेटफॉर्म्स इन नए नियमों के तहत AI और deepfake कंटेंट पर कार्रवाई करते हैं, तो IT Act की धारा 79 के तहत मिलने वाली 'safe harbour' सुरक्षा उन पर लागू रहेगी यानी वे केवल यूजर के पोस्ट के लिए कानूनी रूप से जिम्मेदार नहीं ठहराए जाएंगे.
सोशल मीडिया कंपनियों पर भी होगी कार्रवाईअगर, सोशल मीडिया कंपनियां इन नियमों का पालन नहीं करती हैं, तो उनकी कानूनी सुरक्षा खत्म हो सकती है. मतलब अब सिर्फ यूजर नहीं, प्लेटफॉर्म भी जिम्मेदार होगा.
NDTV.in पर ताज़ातरीन ख़बरों को ट्रैक करें, व देश के कोने-कोने से और दुनियाभर से न्यूज़ अपडेट पाएं