जी हां वर्तमान में डीपफेक टेक्नोलॉजी हाहाकार मचा सकती है! जेनरेटिव आर्टिफिशियल इंटेलिजेंस के प्रति जिस गति से प्यार उमड़ रहा था, उस पर रश्मिका मंदाना ‘डीपफेक’ कॉन्ट्रोवर्सी ने थोड़ी ब्रेक लगा दी है। चैटजीपीटी के जादू से हैरत में पड़े रहे लोग अब थोड़े सदमे में हैं। मंदाना प्रकरण से शहरी भारतीय महिलाएं ऑनलाइन प्लैटफॉर्म पर पहले से कहीं ज्यादा असुरक्षित महसूस करने लगी हैं। इसका एक साइड इफेक्ट यह है कि एआई के नैतिक पहलू पर चर्चा होने लगी है। अब कानूनी और नियामक हस्तक्षेप की मांग हो रही है। नियम-कानून हर पहलू पर मंथन के बजाय अगर घबराहट या जल्दबाजी में बनाए जाते हैं तो उनके बेअसर या गलत असर की आशंका रहती है। तब ऐसे उपाय सरकारी सेंसरशिप को बढ़ाते हुए केवल सतही राहत प्रदान करते हैं। आइए बुनियादी बातों से शुरू करें। ‘डीपफेक’ शब्द ‘डीप लर्निंग’ और ‘फेक’ का मेल है। इससे वो सब बनाया जा सकता है जिसे अब ‘सिंथेटिक मीडिया’ कहा जाता है। इसमें किसी व्यक्ति के भाव/कार्यों की नकली तस्वीर या वीडियो क्लिप बना सकता है। इसे पूरा करने के लिए, डीपफेक टेक्नॉलजी संबंधित व्यक्ति की तस्वीरों या वीडियो पर ट्रेनिंग लेती है और फिर उन्हें कुछ हद तक या पूरी तरह काल्पनिक बना देती है। इसकी कल्पना लुभावनी होती है क्योंकि यह आपके चेहरे और शरीर का आकार लेने में सक्षम है। यह न केवल दुनिया को मूर्ख बना सकता है, बल्कि आपकी समझ से भी खिलवाड़ कर सकता है। हर गुजरते दिन के साथ ऐसी डीपफेक तकनीक आसान, सस्ती और अधिक सुलभ होती जा रही है।
अब एक सेकंड के लिए रुकें और अपने पसंदीदा सोशल मीडिया एप्लिकेशन को देखें, चाहे वह इंस्टाग्राम हो, फेसबुक हो या लिंक्डइन। अपने आप से पूछें, आपकी कितनी तस्वीरें वहां मौजूद हैं? इससे भी बेहतर है कि खुद से गूगल करें। क्या यहां उपलब्ध आपकी जानकारियां आपके किसी असंतुष्ट पड़ोसी या ईर्ष्यालु सहकर्मी या पूर्व साथी को आपके काल्पनिक चित्रण का अवसर देती हैं? क्या वो उस काल्पनिक चित्रण को आपके दोस्तों या परिवार से साझा करके एक विचित्र सी स्थिति पैदा कर सकते हैं? ऐसे नुकसान की कल्पना मात्र से लोग अब डरने लगे हैं। हालांकि, बड़ी हस्तियों पर तो खतरा रहेगा, लेकिन आम लोगों पर डीपफेक का शिकार होने की आशंका एक जैसी नहीं रहेगी।
भारतीय समाज बिल्कुल असमान है। इसके पितृसत्तात्मक मूल्यों, जातिवाद और बहुसंख्यकवाद को देखते हुए डीपफेक का उपयोग हाशिए पर रहने वाले समूहों के लोगों को ज्यादा गंभीरता से प्रभावित करेगा। डीपफेक के जरिए किया जाने वाले अपराधों का अधिकांश हिस्सा क्रिमिनल और सिविल लॉ के मौजूदा प्रावधानों के दायरे से बाहर होगा जो इमपर्सनेशन, हेट स्पीच या अश्लीलता को प्रतिबंधित करते हैं। उचित कानूनी प्रावधान के अलावा कानूनों को जमीनी स्तर पर लागू करने में कमी का मामला भी तो है।
राजनीतिक दलों, राजनेताओं और सार्वजनिक अधिकारियों; सभी को आसानी से डीपफेक का शिकार बनाया जा सकता है। यह भी गंभीरता से सोचने लायक है कि कैसे सत्ता के दुरुपयोग और भ्रष्टाचार को उजागर करने वाली खोजी पत्रकारिता के खिलाफ आसानी से संदेह पैदा किया जा सकता है क्योंकि पत्रकारों के ऑडियो या वीडियो साक्ष्य को डीपफेक करार दिया जा सकता है। कुल मिलाकर, यह सब मिलकर चुनावों में हेरफेर से नुकसान पहुंचाएगा, सामाजिक विभाजन बढ़ाएगा और संस्थानों पर भरोसे को बट्टा लगाएगा।
एक संभावित जोखिम यह भी है कि पर्याप्त फंडिंग और मोबलाइजेशन के साथ कई प्रतिकूल ताकतों द्वारा सिंथेटिक कंटेंट का पूरा खजाना तैयार किया जाएगा, जो पूरी तरह से वैकल्पिक वास्तविकता को सामने लाने के लिए डीपफेक की एक सीरीज का निर्माण करेगा। इतनी बड़ी चुनौती पर सरकार की प्रतिक्रिया क्या रही है? 21 जुलाई, 2023 के एक संसदीय प्रश्न के उत्तर में इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी राज्य मंत्री राजीव चंद्रशेखर ने आईटी रूल्स, 2021 के प्रावधानों का हवाला दिया जिसके तहत शिकायत मिलने पर आपत्तिजनक सामग्री को वर्चुअल वर्ल्ड से हटाने का आदेश संबंधित इंटरनेट कंपनी को दिया जाता है। यह प्राथमिक प्रतिक्रिया सीमित और सेंसरशिप वाली है।
तथ्य यह भी है कि हाल ही में पारित डेटा प्रॉटेक्शन लॉ में सार्वजनिक रूप से उपलब्ध डेटा के इस्तेमाल की छूट मिली हुई है। यानी सोशल मीडिया पर किसी व्यक्ति की सहमति के बिना ली गई तस्वीरों को डीपफेक के लिए प्रशिक्षण डेटा के रूप में उपयोग करने का रास्ता खुला है। इस पर कोई कानूनी शिकंजा नहीं होगा। इसके अलावा, बहुचर्चित ‘डिजिटल इंडिया एक्ट’, जिसे ‘डिजिटल इंडिया’ के लिए संपूर्ण और सटीक कानून बताया जा रहा है, में भी इस बारे में बहुत कम चर्चा है कि यह डीपफेकिंग टेक्नॉलजी को कैसे रेग्युलेट करेगा।
लेकिन ऐसा नहीं है कि डीपफेक सिर्फ नुकसान ही पहुंचाता है। इस टेक्नॉलजी में वैध शैक्षिक और व्यावसायिक उद्देश्यों को पूरा करने की भी क्षमता है। हालांकि, नीतियों को लेकर हमारी चर्चा टेक्नॉलजी के लाभकारी उपयोग और इसके नुकसान के आकलन में विफल रही है। इससे पता चलता है कि हम चर्चा में भी ईमानदार नहीं हैं। समस्या का ठीक से अध्ययन करने के लिए हमें सेंसरशिप की आशंका से छुटकारा पाना होगा।
रश्मिका मंदाना मामले में एक महिला के चेहरे को दूसरे के शरीर पर थोपना महिलाओं को आकर्षक यौन सामग्री के रूप में देखने की पुरुषों का आम कल्पना को उजागर करता है। इस समस्या से निपटने के लिए सामाजिक जागरण की जरूरत है। इसमें महिलाओं के लिए इंटरनेट एक्सेस और पुरुषों के लिए लैंगिक शिक्षा को बढ़ाने की दरकार है। तकनीकी पक्ष पर यह सिंथेटिक मीडिया में पारदर्शिता, लेबलिंग और प्रोविडेंस को बढ़ावा देने के तरीकों की खोज का आह्वान करता है। ऐसे विशिष्ट कानून की भी आवश्यकता हो सकती है जो गैर-सहमति वाली यौन कल्पना के लिए मानहानि से परे कार्रवाई का निजी अधिकार प्रदान करता है।
अंत में, कृत्रिम बुद्धिमत्ता और मशीन लर्निंग टेक्नॉलजी की डिपफेक या ऐसे दूसरे उपयोग भी लोकतांत्रिक समाज की मूलभूत चुनौतियों को सामने लाते हैं। इन सभी मुद्दों के समाधान के लिए केवल एडवाइजरी और इंटरनेट से हटाने का नोटिस जारी करने से कहीं अधिक की आवश्यकता है। हमें एआई से अधिक कल्पनाशील होने की जरूरत है। हमें इस चुनौती के चल रहे अध्ययन के लिए समर्पित एक स्थायी बहुपक्षीय इकाई पर विचार करना चाहिए। भारत को डिजिटल एडॉप्शन को अपने संवैधानिक मूल्यों के अनुरूप बनाना चाहिए, एक प्रक्रिया के रूप में, न कि एंडगेम के रूप में।