Monday, December 23, 2024
HomeIndian Newsक्या वर्तमान में डीपफेक टेक्नॉलजी हाहाकार मचा सकती है?

क्या वर्तमान में डीपफेक टेक्नॉलजी हाहाकार मचा सकती है?

जी हां वर्तमान में डीपफेक टेक्नोलॉजी हाहाकार मचा सकती है! जेनरेटिव आर्टिफिशियल इंटेलिजेंस के प्रति जिस गति से प्यार उमड़ रहा था, उस पर रश्मिका मंदाना ‘डीपफेक’ कॉन्ट्रोवर्सी ने थोड़ी ब्रेक लगा दी है। चैटजीपीटी के जादू से हैरत में पड़े रहे लोग अब थोड़े सदमे में हैं। मंदाना प्रकरण से शहरी भारतीय महिलाएं ऑनलाइन प्लैटफॉर्म पर पहले से कहीं ज्यादा असुरक्षित महसूस करने लगी हैं। इसका एक साइड इफेक्ट यह है कि एआई के नैतिक पहलू पर चर्चा होने लगी है। अब कानूनी और नियामक हस्तक्षेप की मांग हो रही है। नियम-कानून हर पहलू पर मंथन के बजाय अगर घबराहट या जल्दबाजी में बनाए जाते हैं तो उनके बेअसर या गलत असर की आशंका रहती है। तब ऐसे उपाय सरकारी सेंसरशिप को बढ़ाते हुए केवल सतही राहत प्रदान करते हैं। आइए बुनियादी बातों से शुरू करें। ‘डीपफेक’ शब्द ‘डीप लर्निंग’ और ‘फेक’ का मेल है। इससे वो सब बनाया जा सकता है जिसे अब ‘सिंथेटिक मीडिया’ कहा जाता है। इसमें किसी व्यक्ति के भाव/कार्यों की नकली तस्वीर या वीडियो क्लिप बना सकता है। इसे पूरा करने के लिए, डीपफेक टेक्नॉलजी संबंधित व्यक्ति की तस्वीरों या वीडियो पर ट्रेनिंग लेती है और फिर उन्हें कुछ हद तक या पूरी तरह काल्पनिक बना देती है। इसकी कल्पना लुभावनी होती है क्योंकि यह आपके चेहरे और शरीर का आकार लेने में सक्षम है। यह न केवल दुनिया को मूर्ख बना सकता है, बल्कि आपकी समझ से भी खिलवाड़ कर सकता है। हर गुजरते दिन के साथ ऐसी डीपफेक तकनीक आसान, सस्ती और अधिक सुलभ होती जा रही है।

अब एक सेकंड के लिए रुकें और अपने पसंदीदा सोशल मीडिया एप्लिकेशन को देखें, चाहे वह इंस्टाग्राम हो, फेसबुक हो या लिंक्डइन। अपने आप से पूछें, आपकी कितनी तस्वीरें वहां मौजूद हैं? इससे भी बेहतर है कि खुद से गूगल करें। क्या यहां उपलब्ध आपकी जानकारियां आपके किसी असंतुष्ट पड़ोसी या ईर्ष्यालु सहकर्मी या पूर्व साथी को आपके काल्पनिक चित्रण का अवसर देती हैं? क्या वो उस काल्पनिक चित्रण को आपके दोस्तों या परिवार से साझा करके एक विचित्र सी स्थिति पैदा कर सकते हैं? ऐसे नुकसान की कल्पना मात्र से लोग अब डरने लगे हैं। हालांकि, बड़ी हस्तियों पर तो खतरा रहेगा, लेकिन आम लोगों पर डीपफेक का शिकार होने की आशंका एक जैसी नहीं रहेगी।

भारतीय समाज बिल्कुल असमान है। इसके पितृसत्तात्मक मूल्यों, जातिवाद और बहुसंख्यकवाद को देखते हुए डीपफेक का उपयोग हाशिए पर रहने वाले समूहों के लोगों को ज्यादा गंभीरता से प्रभावित करेगा। डीपफेक के जरिए किया जाने वाले अपराधों का अधिकांश हिस्सा क्रिमिनल और सिविल लॉ के मौजूदा प्रावधानों के दायरे से बाहर होगा जो इमपर्सनेशन, हेट स्पीच या अश्लीलता को प्रतिबंधित करते हैं। उचित कानूनी प्रावधान के अलावा कानूनों को जमीनी स्तर पर लागू करने में कमी का मामला भी तो है।

राजनीतिक दलों, राजनेताओं और सार्वजनिक अधिकारियों; सभी को आसानी से डीपफेक का शिकार बनाया जा सकता है। यह भी गंभीरता से सोचने लायक है कि कैसे सत्ता के दुरुपयोग और भ्रष्टाचार को उजागर करने वाली खोजी पत्रकारिता के खिलाफ आसानी से संदेह पैदा किया जा सकता है क्योंकि पत्रकारों के ऑडियो या वीडियो साक्ष्य को डीपफेक करार दिया जा सकता है। कुल मिलाकर, यह सब मिलकर चुनावों में हेरफेर से नुकसान पहुंचाएगा, सामाजिक विभाजन बढ़ाएगा और संस्थानों पर भरोसे को बट्टा लगाएगा।

एक संभावित जोखिम यह भी है कि पर्याप्त फंडिंग और मोबलाइजेशन के साथ कई प्रतिकूल ताकतों द्वारा सिंथेटिक कंटेंट का पूरा खजाना तैयार किया जाएगा, जो पूरी तरह से वैकल्पिक वास्तविकता को सामने लाने के लिए डीपफेक की एक सीरीज का निर्माण करेगा। इतनी बड़ी चुनौती पर सरकार की प्रतिक्रिया क्या रही है? 21 जुलाई, 2023 के एक संसदीय प्रश्न के उत्तर में इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी राज्य मंत्री राजीव चंद्रशेखर ने आईटी रूल्स, 2021 के प्रावधानों का हवाला दिया जिसके तहत शिकायत मिलने पर आपत्तिजनक सामग्री को वर्चुअल वर्ल्ड से हटाने का आदेश संबंधित इंटरनेट कंपनी को दिया जाता है। यह प्राथमिक प्रतिक्रिया सीमित और सेंसरशिप वाली है।

तथ्य यह भी है कि हाल ही में पारित डेटा प्रॉटेक्शन लॉ में सार्वजनिक रूप से उपलब्ध डेटा के इस्तेमाल की छूट मिली हुई है। यानी सोशल मीडिया पर किसी व्यक्ति की सहमति के बिना ली गई तस्वीरों को डीपफेक के लिए प्रशिक्षण डेटा के रूप में उपयोग करने का रास्ता खुला है। इस पर कोई कानूनी शिकंजा नहीं होगा। इसके अलावा, बहुचर्चित ‘डिजिटल इंडिया एक्ट’, जिसे ‘डिजिटल इंडिया’ के लिए संपूर्ण और सटीक कानून बताया जा रहा है, में भी इस बारे में बहुत कम चर्चा है कि यह डीपफेकिंग टेक्नॉलजी को कैसे रेग्युलेट करेगा।

लेकिन ऐसा नहीं है कि डीपफेक सिर्फ नुकसान ही पहुंचाता है। इस टेक्नॉलजी में वैध शैक्षिक और व्यावसायिक उद्देश्यों को पूरा करने की भी क्षमता है। हालांकि, नीतियों को लेकर हमारी चर्चा टेक्नॉलजी के लाभकारी उपयोग और इसके नुकसान के आकलन में विफल रही है। इससे पता चलता है कि हम चर्चा में भी ईमानदार नहीं हैं। समस्या का ठीक से अध्ययन करने के लिए हमें सेंसरशिप की आशंका से छुटकारा पाना होगा।

रश्मिका मंदाना मामले में एक महिला के चेहरे को दूसरे के शरीर पर थोपना महिलाओं को आकर्षक यौन सामग्री के रूप में देखने की पुरुषों का आम कल्पना को उजागर करता है। इस समस्या से निपटने के लिए सामाजिक जागरण की जरूरत है। इसमें महिलाओं के लिए इंटरनेट एक्सेस और पुरुषों के लिए लैंगिक शिक्षा को बढ़ाने की दरकार है। तकनीकी पक्ष पर यह सिंथेटिक मीडिया में पारदर्शिता, लेबलिंग और प्रोविडेंस को बढ़ावा देने के तरीकों की खोज का आह्वान करता है। ऐसे विशिष्ट कानून की भी आवश्यकता हो सकती है जो गैर-सहमति वाली यौन कल्पना के लिए मानहानि से परे कार्रवाई का निजी अधिकार प्रदान करता है।

अंत में, कृत्रिम बुद्धिमत्ता और मशीन लर्निंग टेक्नॉलजी की डिपफेक या ऐसे दूसरे उपयोग भी लोकतांत्रिक समाज की मूलभूत चुनौतियों को सामने लाते हैं। इन सभी मुद्दों के समाधान के लिए केवल एडवाइजरी और इंटरनेट से हटाने का नोटिस जारी करने से कहीं अधिक की आवश्यकता है। हमें एआई से अधिक कल्पनाशील होने की जरूरत है। हमें इस चुनौती के चल रहे अध्ययन के लिए समर्पित एक स्थायी बहुपक्षीय इकाई पर विचार करना चाहिए। भारत को डिजिटल एडॉप्शन को अपने संवैधानिक मूल्यों के अनुरूप बनाना चाहिए, एक प्रक्रिया के रूप में, न कि एंडगेम के रूप में।

Disclaimer:

Mojo Patrakar may publish content sourced from external third-party providers. While we make every reasonable effort to verify the accuracy, reliability, and completeness of this information, Mojo Patrakar does not guarantee or endorse the views, opinions, conclusions, or authenticity of content provided by these third-party entities. Such content is presented solely for informational purposes, and it is not intended to substitute professional advice or to serve as a comprehensive basis for decision-making.

Mojo Patrakar expressly disclaims any liability for errors, omissions, or inaccuracies that may arise from third-party content, as well as any reliance readers may place upon it. Users are strongly encouraged to conduct independent verification and consult with qualified professionals as necessary before making any decisions based on information obtained through Mojo Patrakar.

RELATED ARTICLES

Most Popular

Recent Comments