A
Hindi News Explainers AI इंसानों के लिए कैसे बन रहा खतरा? Google, OpenAI समेत सभी एआई कंपनियों ने बढ़ाई टेंशन

AI इंसानों के लिए कैसे बन रहा खतरा? Google, OpenAI समेत सभी एआई कंपनियों ने बढ़ाई टेंशन

AI का इस्तेमाल लगातार बढ़ता रहा है। टेक कंपनियां नए और एडवांस एआई टूल्स लॉन्च कर रही हैं। हालांकि, एआई को लेकर लगातार नए सवाल उठ रहे हैं और इसे इंसानों के लिए बड़ा खतरा बताया जा रहा है।

AI- India TV Hindi Image Source : INDIA TV एआई

AI यानी आर्टिफिशियल इंटेलिजेंस हमारी जिंदगी को आसान बनाने के साथ-साथ एक नया खतरा बनता जा रहा है। खास तौर पर जेनरेटिव एआई के आने के बाद से एआई का इस्तेमाल बढ़ता रहा है। हाल में सामने आई एक दर्दनाक घटना ने एआई के जरिए होने वाले नए खतरे की तरफ सबका ध्यान खींचा है। हालांकि, हर चीज के दो पहलू होते हैं, जिनके बारे में हमें सोचने की जरूरत है।

दरअसल एआई के इस नए खतरे का आभास अमेरिकी राज्य फ्लोरिडा के एक दर्दनाक मामले की वजह से हुआ है। पिछले साल फरवरी में एक 14 साल के बच्चे ने एआई के चक्कर में आत्महत्या कर ली। इस मामले में बच्चे की मां मेगन गार्सिया ने एआई कंपनी के खिलाफ मुकदमा दायर किया था। इस मामले की सुनवाई के बाद कोर्ट ने गूगल और एआई स्टार्ट-अप कंपनी Character.ai  पर कानूनी कार्रवाई करने की इजाजत दे दी।

क्या है मामला?

फ्लोरिडा की रहने वाली मेगन गार्सिया ने एआई कंपनी पर दायर मुकदमें में बताया कि उसके 14 साल के बेटे सेवेल सेट्जर III (Sewell Setzer III) ने एआई पर भरोसा करके इस साल फरवरी में आत्महत्या कर ली। आत्महत्या करने से पहले सेवेल Character.ai के चैटबॉट के साथ चैटिंग कर रहा था। मेगन का आरोप है कि एआई के उकसाने की वजह से ही उसके नाबालिग बेटे ने आत्महत्या करने का फैसला किया था।

Image Source : India TVएआई

अमेरिकी डिस्ट्रिक जज एनी कॉन्वे ने अपने फैसले में कहा कि  कंपनियों ने कानूनी कार्यवाही के इस प्रारंभिक चरण में यह प्रदर्शित नहीं किया था कि अमेरिकी संविधान की मुक्त-भाषण सुरक्षा ने उन्हें मेगन गार्सिया के मुकदमे से बचाया था। यह बच्चों को मनोवैज्ञानिक नुकसान से बचाने में कथित विफलता के लिए एआई फर्म के खिलाफ अमेरिका में पहले मुकदमों में से एक माना जाने वाला मुकदमा है, जो दर्शाता है कि एआई-संचालित चैटबॉट के प्रति जुनून विकसित होने के बाद किशोर ने आत्महत्या कर ली।

हालांकि, Character.ai और Google इस मुकदमे को लड़ना चाहते हैं और अपने प्लेटफॉर्म पर नाबालिगों की सुरक्षा के लिए उपायों को नियोजित करने की बात करते हैं, जिनमें "खुद को नुकसान पहुंचाने के बारे में बातचीत" को रोकने के लिए डिजाइन की गई सुविधाएं भी शामिल हैं। मेगन गार्सिया ने गूगल और कैरेक्टर.एआई पर पिछले साल अक्टूबर में यह मुकदमा दायर किया था।

इस मुकदमे की सुनवाई करने वाली जज ने टेक कंपनियों के सभी दलीलों को नकार दिया। यही नहीं, जज ने गूगल के इस दलील को भी अस्वीकार कर दिया कि उसमें उसका कोई लेना-देना नहीं है। बता दें कि Character.ai गूगल के लार्ज लैंग्वेज मॉडल (LLM) पर काम करता है। इसकी वजह से कोर्ट ने Character.ai के साथ-साथ गूगल को भी इसके लिए जिम्मेदार ठहराया है। गूगल के दो पुराने इंजीनियर ही एआई स्टार्टअप कंपनी Character.ai के फाउंडर हैं।

AI पर क्यों उठ रहे सवाल?

AI को लेकर कई बार सवाल उठते रहे हैं। खास तौर पर पिछले दिनों सोशल मीडिया पर अफवाह फैलाने वाले डीपफेक वीडियो और फोटो के सामने आने के बाद से एआई की विश्वसनीयता पर सवाल उठना शुरू हो गया। इसके बाद सोशल मीडिया कंपनियों ने एआई द्वारा जेनरेट किए जाने वाले फोटो और वीडियो को लेबल करना शुरू कर दिया है, ताकि लोग ये पहचान सके कि ये वीडियो या फोटो सही नहीं हैं, बल्कि एआई द्वारा बनाए गए हैं। हालांकि, अभी भी लाखों की संख्यां में एआई द्वारा बनाए गए वीडियो और फोटो सोशल मीडिया पर शेयर किए जा रहे हैं, जिन्हें आम लोगों के लिए पहचान करना बेहद मुश्किल है।

Image Source : India TVएआई

इसके अलावा एआई की समझ को लेकर भी सवाल उठे हैं। जेनरेटिव एआई डिजाइन करने वाली कंपनियां दावा करती हैं कि एआई पूरी तरह से निष्पक्ष है और वो डेटा के आधार पर ही जानकारी उपलब्ध करवाता है। हालांकि, ऐसी कई घटनाएं सामने आ चुकी हैं, जिनमें एआई द्वारा इस्तेमाल किए गए डेटा में गड़बड़ी और आकलन में दिक्कत की वजह से गलत रिजल्ट सामने आए हैं। गूगल के एआई मॉडल Gemini AI (तब Bard) द्वारा उपलब्ध कराई गई एक जानकारी की वजह से कंपनी को माफी तक मांगनी पड़ गई थी।

जेनरेटिव एआई की कोडिंग में अगर किसी भी तरह की दिक्कत आती है, तो इसके गंभीर परिणाम हो सकते हैं। पिछले दिनों चीन का एक वीडियो सोशल मीडिया पर वायरल हुआ था, जिसमें एआई बेस्ड रोबोट में तकनीकी दिक्कत आने के बाद वो भीड़ से लड़ने के लिए सामने आ गया था। यही नहीं, एक एआई बेस्ड रोबोट ने तो आत्महत्या तक कर ली थी। ऐसे में एआई द्वारा विनाशकारी व्यवहार विकसित करने का भी बड़ा खतरा है, जो टेक कंपनियों के लिए परेशानी खड़ा कर सकता है।

पिछले दिनों सामने आई एक सर्वे में यह पता चला है कि एआई हमें आलसी बना रहा है। इस सर्वे में लोगों ने एआई पर अपनी निर्भरता की बात कबूली थी। एआई की वजह से वो किसी चीज के बारे में रिसर्च करने से बचते हैं और एआई द्वारा दी गई जानकारी पर निर्भर रहते हैं। इस सर्वे के मुताबिक, AI लोगों को आलसी बनाने के साथ-साथ उसकी सोचने-समझने की शक्तियों को भी खत्म कर रहा है।

यह भी पढ़ें -