Thursday, December 12, 2024
Advertisement
  1. Hindi News
  2. Explainers
  3. Explainer: ChatGPT जैसे जेनरेटिव AI भ्रमित होकर दे रहे गलत जानकारी, जानें क्या है AI Hallucination?

Explainer: ChatGPT जैसे जेनरेटिव AI भ्रमित होकर दे रहे गलत जानकारी, जानें क्या है AI Hallucination?

AI Hallucination: चैटजीपीटी जैसे जेनरेटिव एआई चैटबॉट के जरिए गलत और भ्रामक जानकारियां फैलाए जाने वाले कई मामले सामने आए हैं। टेक कंपनियों के लिए यह एक चिंता का विषय बनती जा रही है। कई मामलों में गलत जानकारी फैलाए जाने की वजह से कंपनियों पर जुर्माना भी लगाया गया है।

Written By: Harshit Harsh @HarshitKHarsh
Published : Jul 09, 2024 16:20 IST, Updated : Jul 09, 2024 16:21 IST
AI Hallucination- India TV Hindi
Image Source : FILE AI Hallucination

ChatGPT जैसे जेनरेटिव AI टूल के आने के साथ ही काफी लोकप्रिय हो गए। 2023 की शुरुआत में कई दिग्गज टेक कंपनियों ने जेनरेटिव AI टूल्स की घोषणा कर दी। इन जेनरेटिव AI चैटबॉट की खास बात यह है कि ये इंसानों की तरह आपके सवालों के जबाब दे सकते हैं। OpenAI द्वारा ChatGPT लॉन्च करने के साथ ही यह पहले युवाओं में काफी लोकप्रिय हो गया। छात्र इसका इस्तेमाल अपने स्कूल और कॉलेज के प्रोजेक्ट एवं असाइनमेंट बनाने में करने लगे। हालांकि, बाद में कई ऐसे मामले सामने आए हैं, जिनमें ये जेनरेटिव AI गलत जानकारियां देते हुए पाए गए हैं। इसके बाद से AI Hallucination नाम का नया शब्द चर्चा में आ गया है।

AI चैटबॉट फैला रहे भ्रम

कुछ दिन पहले कनाडा के सिविल रेजोलूशन्स ट्रिब्यूनल ने AI Hallucination से जुड़े एक मामले में सुनवाई करते हुए सर्विस प्रोवाइडर कंपनी पर भारी जुर्माना लगाया है। जेक मोफाट (Jeff Mofatt) नाम के एक कैनेडियाई नागरिक ने एक मामले में एयर कनाडा से AI चैटबॉट द्वारा भ्रामक जानकारी शेयर करने को लेकर कंपन्सेशन की मांग की है।

AI Hallucination

Image Source : FILE
AI Hallucination

मोफाट के मुताबिक, एयर कनाडा के चैटबॉट ने जानकारी शेयर करते हुए कहा कि कंपनी की पॉलिसी के तहत फ्लाइट लेने के 90 दिनों के अंदर वो डिस्काउंट क्लेम किया जा सकता है। चैटबॉट द्वारा दिया गया यह जबाब भ्रामक साबित हुआ और इसे हेलुसिनेटेड कहा गया। एयर कनाडा की पॉलिसी के तहत कोई भी यात्री फ्लाइट लेने से पहले ही डिस्काउंट क्लेम कर सकते हैं। इसके बाद ट्रिब्यूनल कोर्ट ने एयर कनाडा से मोफाट को 812.02 डॉलर का कंपन्सेशन देने का आदेश जारी किया।

हालांकि, AI Hallucination का यह पहला मामला नहीं है। इससे पहले भी पिछले साल जून में एक अमेरिकी वकील पर AI चैटबॉट का इस्तेमाल क्लाइंट को केस समझाने के लिए किए जाने पर 5,000 डॉलर का जुर्माना लगाया गया है। AI चैटबॉट ने केस से जुड़ी गलत जानकारी शेयर की थी। इसके अलावे भी कई ऐसे मामले सामने आ चुके हैं, जिनमें एआई चैटबॉट ने गलत जानकारी शेयर की है। इन मामलों को देखते हुए कहा जा सकता है कि टेक कंपनियों के लिए AI Hallucination सबसे बड़ी समस्या बन गई है।

AI Hallucination

Image Source : FILE
AI Hallucination

क्या है AI Hallucination?

आम भाषा में कहा जाए तो Hallucination दिमाग की एक ऐसी अवस्था होती है, जिसमें इंसान को कुछ समझ में नहीं आता है कि वह क्या कर रहा है। AI के लिए Hallucination का मतलब है चैटबॉट द्वारा गलत जानकारी शेयर करना। यह इन दिनों टेक कंपनियों के लिए बड़ी समस्या बन गया है।

सितंबर 2023 में AutoHall: Automated Hallucination Dataset Generation for Large Language Models नाम की एक रिसर्च रिपोर्ट शेयर की गई है, जिसमें जेनरेटिव AI का Hallucination रेट 20 से 30 प्रतिशत तक पाया गया है। एक्सपर्ट्स की मानें तो AI एक मशीन है, इंसान नहीं, जिसकी वजह से आसानी से गलतफहमी पैदा हो सकती है।

यह भी पढ़ें - Redmi ने 108MP कैमरा वाला एक और सस्ता 5G फोन किया लॉन्च, मिलते हैं ये जबरदस्त फीचर्स

India TV पर हिंदी में ब्रेकिंग न्यूज़ Hindi News देश-विदेश की ताजा खबर, लाइव न्यूज अपडेट और स्‍पेशल स्‍टोरी पढ़ें और अपने आप को रखें अप-टू-डेट। News in Hindi के लिए क्लिक करें Explainers सेक्‍शन

Advertisement
Advertisement
Advertisement