Friday, November 22, 2024
HomeIndian Newsजब पीएम मोदी भी डीपफेक टेक्नोलॉजी का हुए निशाना !

जब पीएम मोदी भी डीपफेक टेक्नोलॉजी का हुए निशाना !

हाल ही में बॉलीवुड एक्ट्रेस के बाद पीएम मोदी भी डीपफेक टेक्नोलॉजी का निशाना हो गए हैं! ऐक्ट्रेस रश्मिका मंदाना, काजोल के बाद प्रधानमंत्री नरेंद्र मोदी का भी डीप फेक विडियो सामने आ चुका है। खुद प्रधानमंत्री नरेंद्र मोदी ने इसका जिक्र किया। डीप फेक का इस्तेमाल सरकार के साथ ही साइबर एक्सपर्ट और सिक्योरिटी एक्सपर्ट की भी चिंता बढ़ा रहा है। डीप फेक किसी आम फेक फोटो या फेक विडियो की तरह पहचान में भी नहीं आते। किसी के लिए भी डीप फेक की तुरंत पहचान करना लगभग नामुमकिन है। डीप फेक की पहचान करने वाली टेक्नॉलजी इतनी विकसित नहीं हुई है जितनी डीप फेक बनाने की टेक्नीक है। एकदम असली जैसे दिखने वाले डीप फेक विडियो बनाने के लिए 40 हाई डेफिनिशन पिक्चर या फिर एक मिनट की छोटी सी क्लिप की जरूरत है। डीप फेक तकनीक का इस्तेमाल कर सामान्य से लैपटॉप पर कोई भी किसी की भी डीप फेक इमेज या विडियो बना सकता है। डीप फेक टेक्नॉलजी AI का ही एक अंग है। जो लोगों के चेहरे, आवाज को बदलकर असली जैसा दिखने वाला फर्जी विडियोज और ऑडियो बनाने में सक्षम है। डीप फेक का इस्तेमाल ज्यादातर इंटरटेनमेंट और व्यंग्य कॉन्टेंट क्रिएशन जैसी चीजों के लिए हो सकता है। इसका दुरुपयोग गलत प्रभाव डाल सकता है। जैसे कि झूठी जानकारी फैलाना, किसी का चरित्र हनन करना आदि।

ये आजकल बहुत ही आसान हो गया है। क्योंकि एनरॉयड ऐप्स पर, प्ले स्टोर पर, ऐप स्टोर पर या कई ऑनलाइन ऐसी वेबसाइट्स हैं जो कि फ्री ट्रायल ऑफर करती हैं। बहुत ही आसान है आजकल ऐसी विडियोज या ऐसी फोटोज को मोर्फ करना या एक्सप्रेशंस को चेंज करना। एक गलत विडियो से पर्सेप्शन बनता है, इससे समाज में एक अलग मेसेज जाता है। इसके ये सारे ड्रॉबैक्स हैं। AI को डिटेक्ट करने का ऐसा कोई परफेक्ट ऐप्लिकेशन या कोई परफेक्ट वेबसाइट नहीं है। हालांकि रिसर्चर्स लगातार काम कर रहे हैं। फिलहाल इसको डिटेक्ट करने के लिए कोई ठोस टेक्नॉलजी नहीं है।

अक्सर इसका एक बहुत मेजर इस्तेमाल ये होता है कि काफी बैंकिंग ऐप्स जो छोटे-छोटे लोन देते हैं, ये चाइनीज ऐप्स होते हैं जो इसी डीप फेक का इस्तेमाल करके ब्लैकमेल करते हैं जो भी इनके लोन्स लेते हैं। ये अपने ऐप लोगों के फोन में इंस्टॉल करवाते हैं और उनका सारा एक्सेस और सारे परमिशंस मांगते हैं। उसके बाद उनकी गैलरी से सारे फोटोज सेव कर लेते हैं। जब वो लोन चुकाने में देरी करते हैं तब उन्हें ऐसी ब्लैकमेलिंग फोटोज, विडियोज भेजकर डराते हैं।

फिलहाल भारत में जो कानून हैं, वो सक्षम तो हैं ऐसी चीजों से निपटने के लिए लेकिन, चूंकि टेक्नॉलजी अडवांस होती जा रही है तो वेबसाइट्स, ऐसे सर्विस दे रही हैं। उन पर कैसे काम किया जाए, उनको कैसा लॉ बताया जाए कि कितना क्या किया जा सकता है, क्या लिमिट बताया जाए उनको, इस पर ठोस कानून नहीं है तो इसमें रिफॉर्म की जरूरत है। यूजर्स में भी एक अवेयरनेस फैलाना चाहिए कि इसके परिणाम क्या हो सकते हैं। विदेशों में तो ऐसे काफी नियम हैं। भारत में भी ऐसे नियम हैं। अगर किसी को फेस चेंज करे, तो आडेंटिटी थ्रेट का नियम है। तो उसको रिपोर्ट कर सकते हैं। कारण डाल सकते हैं कि मेरी फोटो का गलत इस्तेमाल हो रहा है। कानून तो हैं, लेकिन कानून होना और इसका इंप्लिमेंट होना दो बाते हैं। इसमें ज्यादा से ज्यादा अवेयरनेस की ही जरूरत है। कानून को अगर थोड़ा बेहतर बनाने के लिए अगर हमारे ब्यूरोक्रेट्स काम करें, काफी एक्सपर्ट्स हैं। भारत के पास भी काफी एक्सपर्ट्स हैं जो AI में काम कर रहे हैं।

मार्किंग मदद तो मिलेगी लोगों को, लेकिन मार्केट में ऐसी काफी टूल्स हैं जो कि वॉटरमार्क्स को डिलिट कर देते हैं, ब्लर कर देते हैं। लोगों के चेहरे, आवाज को बदलकर असली जैसा दिखने वाला फर्जी विडियोज और ऑडियो बनाने में सक्षम है। डीप फेक का इस्तेमाल ज्यादातर इंटरटेनमेंट और व्यंग्य कॉन्टेंट क्रिएशन जैसी चीजों के लिए हो सकता है। इसका दुरुपयोग गलत प्रभाव डाल सकता है। जैसे कि झूठी जानकारी फैलाना, किसी का चरित्र हनन करना आदि।ऐसे AI टूल्स आ गए हैं अभी ऑनलाइन जिससे आप आसानी से किसी भी वॉटरमार्क्स को हटा सकते हैं तो इसका दुरुपयोग भी हो रहा है। सोशल मीडिया पर किसी को क्रेडिट नहीं देना होता है तो वॉटरमार्क हटा देते हैं।

Disclaimer:

Mojo Patrakar may publish content sourced from external third-party providers. While we make every reasonable effort to verify the accuracy, reliability, and completeness of this information, Mojo Patrakar does not guarantee or endorse the views, opinions, conclusions, or authenticity of content provided by these third-party entities. Such content is presented solely for informational purposes, and it is not intended to substitute professional advice or to serve as a comprehensive basis for decision-making.

Mojo Patrakar expressly disclaims any liability for errors, omissions, or inaccuracies that may arise from third-party content, as well as any reliance readers may place upon it. Users are strongly encouraged to conduct independent verification and consult with qualified professionals as necessary before making any decisions based on information obtained through Mojo Patrakar.

RELATED ARTICLES

Most Popular

Recent Comments