यह सवाल उठना लाजिमी है कि क्या आर्टिफिशियल इंटेलिजेंस भी पक्षपात करने लगा है या नहीं! ब्रिटिश साइंस फिक्शन टीवी सीरीज ‘ब्लैक मिरर’ के 2016 के एपिसोड ‘हेटेड इन द नेशन’ में दिखाया गया है कि किस तरह कृत्रिम बुद्धिमत्ता एआई सिस्टम उस डेटा के आधार पर लोगों या समूहों के खिलाफ पूर्वग्रह और भेदभाव को बढ़ा सकते हैं, जिस पर उन्हें प्रशिक्षित किया जाता है। यह एक ऐसी कहानी सुनाता है जिसमें असली मधुमक्खियों के विलुप्त होने के कारण परागण के लिए एआई क्षमताओं वाली रोबोट मधुमक्खियों का उपयोग किया जाता है। हालांकि, अंततः एआई सिस्टम उन लोगों को निशाना बनाती है जो ऑनलाइन नफरत अभियानों का केंद्र रहे हैं। गूगल के जेमिनी एआई को लेकर हुए हंगामे के बहुत पहले से एआई में पक्षपात मौजूद है। वास्तव में, भेदभावपूर्ण डेटा और एल्गोरिदम पर चलने वाले एआई मॉडल बड़े पैमाने पर अपने पूर्वग्रहों को विस्तार देते हैं। एआई सिस्टम के सीखने, ग्रहण करने और सही निर्णय लेने का आधार डेटा है। उदाहरण के लिए, चैटजीपीटी को तीन खरब से अधिक शब्दों के साथ प्रशिक्षित किया गया था। एआई डेवलपर्स, लैंग्वेज मॉडल को प्रशिक्षित करने के लिए शैक्षणिक पत्रों, पुस्तकों, समाचार लेखों, विकिपीडिया और फिल्टर की गई ऑनलाइन सामग्री से हाई क्वॉलिटी डेटा का उपयोग करते हैं। लेकिन इतना ही काफी नहीं है। बाकी डेटा को लो क्वॉलिटी माना गया है जो यूजर क्रिएटेड होता है। इसमें ब्लॉग, सोशल मीडिया पोस्ट और वेबसाइट कमेंट्स शामिल हैं।
2020 की अमेरिकी डॉक्युमेंट्री ‘कोडेड बायस’ बताती है कि कैसे एआई भेदभाव को कायम रखता है। यह डॉक्युमेंट्री जॉय बुओलामविनी नाम के एक कैरेक्टर पर आधारित है जो एमआईटी मीडिया लैब की रिसर्चर है। जॉय को जब समझ गई कि चेहरे की पहचान करने वाला सॉफ्टवेयर गहरे रंग की त्वचा वाले चेहरों की विशेषताओं को गलत पढ़ता है तो उसने एल्गोरिदम में पक्षपात के खिलाफ अमेरिकी कानून के तहत लड़ाई लड़ने का फैसला किया। एआई के पूर्वग्रह बेहद भयावह हैं, खासकर जब एआई हमारी जीवन शैली को नियंत्रित कर रहा है तो इसका पक्षपाती स्वरूप केवल अंतर्निहित मानवीय पूर्वग्रह का प्रतिबिंब और प्रकटीकरण है। यह मनुष्यों द्वारा निर्मित डेटा पर प्रशिक्षित होता है और इसके अंतर्निहित एल्गोरिदम भी मनुष्यों द्वारा लिखे जाते हैं। जब कोई एआई मॉडल किसी खास सबसेट के डेटा पर बहुत ज्यादा फिट हो जाता है, उसके रिजल्ट के रुझान ही वही डेटी सबसेट हो जाते हैं। ऐसे में उसे नए डेटा का सामना करना पड़ता है तो वह गलत आउटपुट देने लगता है। उस आउटपुट में उस डेटा सबसेट के प्रति पक्षपात साफ झलकता है जिस पर एआई मॉडल ट्रेंड हुआ है। अमेरिकी गणितज्ञ कैथी ओ’नील ने अपनी 2016 की किताब ‘वेपन्स ऑफ मैथ डिस्ट्रक्शन: हाउ बिग डेटा इंक्रीजेज इनइक्वलिटी एंड थ्रेटेंस डेमोक्रेसी’ में ऐसे कई उदाहरण दिए हैं, जहां मॉडल अपारदर्शी, अनियमित और अविश्वसनीय होते हैं।
2014 में ऐमजॉन द्वारा बनाया गया एक एआई बेस्ड अप्लीकेंट इवेल्युएशन टूल, जो 2018 में बंद कर दिया गया था, पक्षपाती डेटा का एक सटीक उदाहरण है। इसने पहले हुई भर्ती प्रक्रियाओं के आंकड़ों से सीखा, जिससे महिलाओं को योग्य उम्मीदवारों के समूह से बाहर कर दिया गया। इसी तरह, अपराध, पुलिसिंग या जेल जाने के रुझानों से सीखने वाले एल्गोरिदम, जो अश्वेत लोगों को असमान रूप से प्रभावित करते हैं, फिलाडेल्फिया के एआई सिक्यॉरिटी सिस्टम SEPTA में रेसियल प्रोफाइलिंग और भेदभाव का कारण बन सकते हैं। डेटा पक्षपात के बारे में 400 साल पहले फ्रांसिस बेकन ने एक शुरुआती वर्णन में दावा किया था कि ‘आज के सिद्धांत बहुत कम डेटा और कुछ बार-बार होने वाले मामलों से लिए गए थे, जिसके बाद उन्हें मॉडल बनाया गया था। इसलिए कोई आश्चर्य नहीं कि वे नई घटनाओं की भविष्यवाणी करने में विफल रहते हैं।’ आलोचकों का कहना है कि एआई ऐसे पूर्वग्रहों को और बढ़ा देता है। पक्षपाती डेटा पर प्रशिक्षित एआई टूल्स ने ऐसी गलतियां की हैं, जैसे यह मान लेना कि केवल पुरुष ही हाई लेवल जॉब की योग्यता रखते हैं। काले चेहरों को इंसान के रूप में पहचानने में विफलता भी ऐसी गलतियों का उदाहरण है।
स्टीवन स्पीलबर्ग की 2002 की फिल्म ‘माइनॉरिटी रिपोर्ट’ में वॉशिंगटन डीसी के प्रीक्राइम पुलिस होने वाले अपराधों की भविष्यवाणी के लिए डेटा एनालिसिस का उपयोग करते हैं। सिस्टम में एक पुलिस अधिकारी जॉन को भविष्य की हत्या के लिए फंसाया जाता है और वह अपनी बेगुनाही साबित करने के लिए निकल पड़ता है। क्या हम पक्षपाती एआई के साथ ऐसे ही विपरीत भविष्य की ओर बढ़ रहे हैं?