लोन एप्स महिलाओं की तस्वीर का गलत इस्तेमाल करते हैं. यह आरोप है गायिका चिन्मयी श्रीपदा का. उन्होंने आरोप लगाया कि ऐसे वीडियो का इस्तेमाल सिर्फ मशहूर हस्तियों को ही नहीं बल्कि आम लोगों को भी परेशान करने के लिए किया जा रहा है. श्रीपदा ने कहा कि जिस तरह से AI का इस्तेमाल महिलाओं के खिलाफ किया जा रहा है वो गलत है. श्रीपदा ने AI के गलत इस्तेमाल और डीप फेक जैसी तकनीक को लेकर सोशल मीडिया साइट एक्स पर एक पोस्ट भी लिखा.
डीप फेक बन ना जाए नया हथियार
उन्होंने लिखा कि डीप फेक अगला हथियार बनने जा रहा है जिसका ऐसे लोग इस्तेमाल लड़कियों को निशाना बनाने, परेशान करने और ब्लैकमेल कर उगाही, ब्लैकमेल और बलात्कार करने के लिए करते हैं. एक छोटे से गांव या कस्बे में रहने वाले उनके परिवारों को यह समझ में नहीं आता कि कब सम्मान दांव पर लग जाता है. श्रीपदा ने यह भी आरोप लगाया कि जिन महिलाओं ने लोन ऐप्स से पैसे उधार लिए हैं, उन्हें कलेक्टरों द्वारा परेशान किया जा रहा है. जो पैसे ऐंठने के लिए उनकी तस्वीरों को "अश्लील तस्वीरों" के साथ बदल देते हैं.
लोगों को जागरूक बनाने की है जरूरत
उन्होंने कहा कि सामान्य तौर पर डीप फेक को पहचानना अधिक कठिन होने वाला है. मुझे वास्तव में उम्मीद है कि एक राष्ट्रव्यापी जागरूकता अभियान है, जो आम जनता को लड़कियों के लिए डीपफेक के खतरों के बारे में जागरूक करने और मामलों को अपने हाथों में लेने के बजाय घटनाओं की रिपोर्ट करने के लिए तत्काल शुरू कर सकता है.
अभिनेत्री रश्मिका मंदाना का आया था डीप फेक वीडियो
गौरतलब है कि एक्ट्रेस रश्मिका मंदाना (Rashmika Mandanna) का एक फेक वीडियो (Rashmika Mandanna Deepfake Video) कुछ दिन पहले सामने आया है. जिसे AI के जरिए बनाया गया था. वीडियो में देखा गया था कि एक महिला लिफ्ट में एंट्री लेती है, जिसका चेहरा हूबहू रश्मिका जैसा है. उस महिला के चेहरे को AI के डीपफेक टेक्नोलॉजी की मदद से बिल्कुल रश्मिका जैसा बना दिया गया है. इस वीडियो के सामने आने के बाद रश्मिका मंदाना का रिएक्शन भी आया था. रश्मिका ने फेक वीडियो को बहुत डरावना बताया था.
रश्मिका मंदाना ने सोशल मीडिया प्लेटफॉर्म X पर लिखा था कि मेरे डीपफेक वीडियो, जो ऑनलाइन फैलाए जा रहे हैं. मुझे उसके बारे में बात करते और उसे शेयर करते हुए मुझे बहुत दुख हो रहा है. ईमानदारी से कहूं तो ऐसा कुछ सिर्फ मेरे लिए ही नहीं, बल्कि हममें से हर एक के लिए बेहद डरावना है, जो इस टेक्नोलॉजी के मिस यूज की वजह से खतरे में आ गए हैं.