Tuesday, December 5, 2023
HomeBollywoodदिल्ली पुलिस ने रश्मिका मंदाना के डीपफेक वीडियो मामले में एफआईआर दर्ज...

दिल्ली पुलिस ने रश्मिका मंदाना के डीपफेक वीडियो मामले में एफआईआर दर्ज की.

सोशल मीडिया पर घूम रहा है रश्मिका का ‘आपत्तिजनक’ वीडियो, आरोपियों की गिरफ्तारी के लिए दिल्ली में FIR जारी होने से कुछ दिन पहले एक्ट्रेस रश्मिका मंदाना का एक बदसूरत वीडियो सोशल मीडिया पर वायरल हुआ था. अमिताभ बच्चन ने वीडियो के पीछे के अपराधियों के खिलाफ कानूनी कार्रवाई का भी अनुरोध किया। रश्मिका मंदाना पिछले कुछ हफ्तों से सोशल मीडिया पेजों पर वायरल ‘डीपफेक’ वीडियो को लेकर चर्चा में हैं। अभिनेत्री का ‘आपत्तिजनक’ वीडियो सोशल मीडिया पेजों पर वायरल होने के बाद, उनके प्रशंसकों और मनोरंजन उद्योग में उनके सहयोगियों ने सख्त कानूनी कार्रवाई की मांग की। उस लिस्ट में अमिताभ बच्चन, विजय देवरकोंडा, नागा चैतन्य जैसे सितारे शामिल थे। इस बार दिल्ली पुलिस वीडियो के पीछे के गुनहगारों को पकड़ने के लिए प्रतिबद्ध है. वीडियो के बारे में दिल्ली महिला आयोग द्वारा नोटिस भेजे जाने के बाद दिल्ली पुलिस ने एफआईआर जारी की। भारतीय दंड संहिता की धारा 465, 469 और सूचना प्रौद्योगिकी अधिनियम की धारा 66सी और 66ई के तहत आरोप जारी किए गए हैं।
इस हफ्ते की शुरुआत में रश्मिका का एक वीडियो सोशल मीडिया पर वायरल हुआ था। उस वीडियो में एक्ट्रेस ब्लैक ड्रेस पहने लिफ्ट से बाहर आती नजर आ रही हैं. बदसूरत पोशाक में एक गहरी नेकलाइन है जो क्लीवेज दिखाती है। वीडियो वायरल होने के तुरंत बाद पता चला कि वीडियो में दिख रही महिला रश्मिका है ही नहीं. एक अन्य महिला के वीडियो में अभिनेत्री के चेहरे से छेड़छाड़ की गई है। यह जानकारी जानने के बाद रश्मिका के फैंस दोषी के खिलाफ सख्त सजा की मांग करने लगे। मालूम हो कि वीडियो असल में आर्टिफिशियल इंटेलिजेंस (एआई) का उत्पाद है। एआई की मदद से ज़ारा पटेल नाम की महिला के वीडियो में रश्मिका का चेहरा लगाया गया है। बिग बी ने वीडियो के पीछे के लोगों के खिलाफ सख्त कानूनी कार्रवाई की मांग की।
बाद में, रश्मिका ने सोशल मीडिया पेज पर वीडियो के बारे में खुलासा किया और लिखा, “सोशल मीडिया पेज पर मेरे चेहरे के डीपफेक वीडियो के फैलने के बारे में बात करते हुए भी मुझे बुरा लग रहा है। ये घटना मेरे लिए जितनी दर्दनाक है उतनी ही डरावनी भी. यह सोचना चिंताजनक है कि किसी भी तकनीक का दुरुपयोग किया जा सकता है। खासकर उनके लिए जो हमेशा कैमरे के सामने रहते हैं. आज मेरे साथ मेरा परिवार, दोस्त, शुभचिंतक हैं। लेकिन जब मैं स्कूल और कॉलेज का छात्र था, तो मैं स्थिति को संभाल नहीं सकता था। हम सभी को एक साथ आना चाहिए और इस बारे में बात करनी चाहिए।”
कुछ दिन पहले ‘एनिमल’ की मशहूर साउथ एक्ट्रेस रश्मिका मंदाना के ‘डीपफेक’ वीडियो को लेकर सोशल मीडिया पर हंगामा मचा हुआ था। फैन्स को तब शक हुआ जब एक्ट्रेस का ब्लैक जिम आउटफिट में एक वीडियो वायरल हुआ। क्योंकि, हालांकि वीडियो में दिख रही महिला का चेहरा और आवाज बिल्कुल रश्मिका जैसी है, लेकिन उसकी शक्ल में कुछ विसंगतियां हैं। जांच में साबित हुआ कि वीडियो असल में आर्टिफिशियल इंटेलिजेंस या ‘एआई’ की मदद से बनाया गया एक ‘डीपफेक’ वीडियो था। ‘डीप लर्निंग’ तकनीक का उपयोग ऑडियो, वीडियो और छवियों में हेरफेर करके ऐसे वीडियो बनाने के लिए किया जाता है जिन्हें नकली से अलग नहीं किया जा सकता है। ऐसी अनगिनत तस्वीरें, वीडियो या वर्तमान ‘मीम्स’ हैं जो सोशल मीडिया पर फैले हुए हैं। इस गतिविधि के पर्दे के पीछे किस प्रकार की तकनीक का उपयोग किया जाता है?
1) ‘डीपफेक’ बनाना कितना आसान है?
ऐसे विकृत वीडियो बनाने के लिए बहुत शक्तिशाली हार्डवेयर या सॉफ़्टवेयर की आवश्यकता होगी। लेकिन ‘जेनरेटिव एआई टूल्स’ के आने से यह काम अब काफी आसान हो गया है। इस प्रकार की तकनीक अन्य लोगों की छवियों या वीडियो में बहुत सटीक और सटीक तरीके से हेरफेर करने की प्रक्रिया को सुविधाजनक बना सकती है।
2) ‘डीपफेक’ वीडियो को पहचानना मुश्किल क्यों है?
इस प्रकार के वीडियो किसी एक व्यक्ति पर ध्यान केंद्रित कर एक विशेष कारण से बनाये जाते हैं। मुख्य रूप से धोखेबाज़ों का उद्देश्य राजनीतिक या तथाकथित प्रसिद्ध हस्तियों की तस्वीरों या वीडियो को विकृत करके उन्हें ब्लैकमेल करना है। इस प्रकार की तकनीक का उपयोग करके धोखाधड़ी के मामले पहले भी सामने आए हैं। लेकिन इस बार आवाज़ें जोड़कर, हाथ-पैर हिलाकर इसे और अधिक ‘वास्तविक’ बनाना आसान था।
RELATED ARTICLES

Most Popular

Recent Comments