Monday, July 29, 2024
HomeIndian Newsक्या GPT-4 के उत्तर कभी गलत हो सकते हैं?

क्या GPT-4 के उत्तर कभी गलत हो सकते हैं?

हां, GPT-4 पिछले GPT मॉडल की तरह ही समान सीमाओं से ग्रस्त है। ओपनएआई यहां तक ​​कहता है कि यह मॉडल “पूरी तरह से विश्वसनीय नहीं है (यह” मतिभ्रम “तथ्यों और तर्क त्रुटियों को बनाता है”)।

चेतावनी के बावजूद, OpenAI का कहना है कि GPT-4 पिछले मॉडल की तुलना में अक्सर कम मतिभ्रम करता है, GPT-4 के साथ आंतरिक प्रतिकूल तथ्यात्मक मूल्यांकन में GPT-3.5 की तुलना में 40% अधिक स्कोर करता है। चार्ट नीचे शामिल है।

जबकि चैटजीपीटी की मानव जैसे उत्तर उत्पन्न करने की क्षमता व्यापक रूप से मनाई गई है, यह व्यवसायों के लिए सबसे बड़ा जोखिम भी पैदा कर रहा है। पिछले महीने पोस्ट किए गए एक नोट में, चेक प्वाइंट टेक्नोलॉजीज के थ्रेट इंटेलिजेंस ग्रुप मैनेजर सर्गेई शायकेविच ने यह भी नोट किया कि संकेत साइबर अपराधियों के बीच चैटजीपीटी के उपयोग की ओर इशारा कर रहे थे ताकि उनके कोड लेखन को तेज किया जा सके। एक उदाहरण में!

ब्लैकबेरी के एशिया-प्रशांत निदेशक इंजीनियरिंग जोनाथन जैक्सन ने कहा कि फ़िशिंग हमलों को बढ़ाने के लिए पहले से ही कृत्रिम बुद्धिमत्ता (एआई) उपकरण का उपयोग किया जा रहा है।

भूमिगत मंचों में देखी गई गतिविधियों की ओर इशारा करते हुए, उन्होंने कहा कि संकेत थे कि हैकर्स प्रतिरूपण हमलों में सुधार के लिए ओपनएआई के चैटजीपीटी और अन्य एआई-संचालित चैटबॉट्स का उपयोग कर रहे थे। ZDNET के साथ एक वीडियो साक्षात्कार में जैक्सन ने कहा कि उनका उपयोग डीपफेक को शक्ति देने और गलत सूचना फैलाने के लिए भी किया जाता था। उन्होंने कहा कि हैकर फोरम नापाक उद्देश्यों के लिए चैटजीपीटी का लाभ उठाने के लिए सेवाएं दे रहे थे।

पिछले महीने पोस्ट किए गए एक नोट में, चेक प्वाइंट टेक्नोलॉजीज के थ्रेट इंटेलिजेंस ग्रुप मैनेजर सर्गेई शायकेविच ने यह भी नोट किया कि संकेत साइबर अपराधियों के बीच चैटजीपीटी के उपयोग की ओर इशारा कर रहे थे ताकि उनके कोड लेखन को तेज किया जा सके। एक उदाहरण में, सुरक्षा विक्रेता ने नोट किया कि उपकरण का उपयोग एक संक्रमण प्रवाह को सफलतापूर्वक पूरा करने के लिए किया गया था, जिसमें एक विश्वसनीय स्पीयर-फ़िशिंग ईमेल और एक रिज़र्व शेल बनाना शामिल था जो अंग्रेजी में कमांड स्वीकार कर सकता था।

जबकि अब तक विकसित हमले के कोड काफी बुनियादी बने रहे, शायकेविच ने कहा कि यह केवल कुछ समय पहले की बात है जब अधिक परिष्कृत खतरे वाले अभिनेताओं ने इस तरह के एआई-आधारित उपकरणों का उपयोग करने के तरीके को बढ़ाया।

Synopsys Software Integrity Group के प्रमुख वैज्ञानिक सैमी मिगुएस ने अपनी 2023 की भविष्यवाणियों में लिखा है कि डीपफेक और चैटजीपीटी को शक्ति देने वाली तकनीकों से कुछ “दुष्प्रभाव” सामने आएंगे। जिन लोगों को नए सुरक्षा उपकरण को कॉन्फ़िगर करने के तरीके पर “विशेषज्ञ” सलाह या तकनीकी सहायता की आवश्यकता होती है, वे ChatGPT की ओर रुख कर सकते हैं। बजट समीक्षा उत्पन्न करने के लिए उनके पास क्रिप्टो मॉड्यूल लिखने या लॉग डेटा के वर्षों के माध्यम से चलाने के लिए एआई उपकरण भी हो सकता है।

“संभावनाएं अनंत हैं,” मिगुएस ने कहा। “निश्चित रूप से, एआई सिर्फ एक नासमझ ऑटोमेटन है जो इसे इकट्ठा कर रहा है, लेकिन यह पहली नज़र में बहुत आश्वस्त हो सकता है।”

एआई से लड़ने के लिए एआई का दोहन
जैक्सन ने कहा कि चैटजीपीटी जैसे जेनेरेटिव एआई अनुप्रयोगों के उद्भव से साइबर परिदृश्य में महत्वपूर्ण बदलाव आएगा। उन्होंने कहा कि सुरक्षा और साइबर रक्षा उपकरणों को बड़े भाषा मॉडल के परिणामस्वरूप उभरने वाले नए खतरों की पहचान करने में सक्षम होने की आवश्यकता होगी, जिन पर ये एप्लिकेशन बनाए गए हैं।

यह उचित है क्योंकि व्यवसाय इस तरह के जोखिमों के जल्द आने की उम्मीद कर रहे हैं।

ऑस्ट्रेलिया में, 84% आईटी निर्णय निर्माताओं ने संभावित खतरों के बारे में चिंता व्यक्त की, जो हाल ही में ब्लैकबेरी के एक अध्ययन के अनुसार जनरेटिव एआई और बड़े भाषा मॉडल ला सकते हैं, जिसने देश में 500 उत्तरदाताओं को चुना।

आधे उत्तरदाताओं के बीच सबसे बड़ी चिंता यह थी कि तकनीक कम अनुभवी हैकर्स को अपने ज्ञान में सुधार करने और अधिक विशिष्ट कौशल विकसित करने में मदद कर सकती है।

अन्य 48% चैटजीपीटी की अधिक विश्वसनीय और वैध दिखने वाले फ़िशिंग ईमेल संदेशों का उत्पादन करने की क्षमता के बारे में चिंतित थे; 36% ने सोशल इंजीनियरिंग हमलों में तेजी लाने की अपनी क्षमता देखी।

RELATED ARTICLES

Most Popular

Recent Comments