Friday, January 30, 2026
Advertisement
  1. Hindi News
  2. Explainers
  3. AI इंसानों के लिए कैसे बन रहा खतरा? Google, OpenAI समेत सभी एआई कंपनियों ने बढ़ाई टेंशन

AI इंसानों के लिए कैसे बन रहा खतरा? Google, OpenAI समेत सभी एआई कंपनियों ने बढ़ाई टेंशन

AI का इस्तेमाल लगातार बढ़ता रहा है। टेक कंपनियां नए और एडवांस एआई टूल्स लॉन्च कर रही हैं। हालांकि, एआई को लेकर लगातार नए सवाल उठ रहे हैं और इसे इंसानों के लिए बड़ा खतरा बताया जा रहा है।

Written By: Harshit Harsh @HarshitKHarsh
Published : May 22, 2025 12:51 pm IST, Updated : May 22, 2025 04:31 pm IST
AI- India TV Hindi
Image Source : INDIA TV एआई

AI यानी आर्टिफिशियल इंटेलिजेंस हमारी जिंदगी को आसान बनाने के साथ-साथ एक नया खतरा बनता जा रहा है। खास तौर पर जेनरेटिव एआई के आने के बाद से एआई का इस्तेमाल बढ़ता रहा है। हाल में सामने आई एक दर्दनाक घटना ने एआई के जरिए होने वाले नए खतरे की तरफ सबका ध्यान खींचा है। हालांकि, हर चीज के दो पहलू होते हैं, जिनके बारे में हमें सोचने की जरूरत है।

दरअसल एआई के इस नए खतरे का आभास अमेरिकी राज्य फ्लोरिडा के एक दर्दनाक मामले की वजह से हुआ है। पिछले साल फरवरी में एक 14 साल के बच्चे ने एआई के चक्कर में आत्महत्या कर ली। इस मामले में बच्चे की मां मेगन गार्सिया ने एआई कंपनी के खिलाफ मुकदमा दायर किया था। इस मामले की सुनवाई के बाद कोर्ट ने गूगल और एआई स्टार्ट-अप कंपनी Character.ai  पर कानूनी कार्रवाई करने की इजाजत दे दी।

क्या है मामला?

फ्लोरिडा की रहने वाली मेगन गार्सिया ने एआई कंपनी पर दायर मुकदमें में बताया कि उसके 14 साल के बेटे सेवेल सेट्जर III (Sewell Setzer III) ने एआई पर भरोसा करके इस साल फरवरी में आत्महत्या कर ली। आत्महत्या करने से पहले सेवेल Character.ai के चैटबॉट के साथ चैटिंग कर रहा था। मेगन का आरोप है कि एआई के उकसाने की वजह से ही उसके नाबालिग बेटे ने आत्महत्या करने का फैसला किया था।

AI

Image Source : INDIA TV
एआई

अमेरिकी डिस्ट्रिक जज एनी कॉन्वे ने अपने फैसले में कहा कि  कंपनियों ने कानूनी कार्यवाही के इस प्रारंभिक चरण में यह प्रदर्शित नहीं किया था कि अमेरिकी संविधान की मुक्त-भाषण सुरक्षा ने उन्हें मेगन गार्सिया के मुकदमे से बचाया था। यह बच्चों को मनोवैज्ञानिक नुकसान से बचाने में कथित विफलता के लिए एआई फर्म के खिलाफ अमेरिका में पहले मुकदमों में से एक माना जाने वाला मुकदमा है, जो दर्शाता है कि एआई-संचालित चैटबॉट के प्रति जुनून विकसित होने के बाद किशोर ने आत्महत्या कर ली।

हालांकि, Character.ai और Google इस मुकदमे को लड़ना चाहते हैं और अपने प्लेटफॉर्म पर नाबालिगों की सुरक्षा के लिए उपायों को नियोजित करने की बात करते हैं, जिनमें "खुद को नुकसान पहुंचाने के बारे में बातचीत" को रोकने के लिए डिजाइन की गई सुविधाएं भी शामिल हैं। मेगन गार्सिया ने गूगल और कैरेक्टर.एआई पर पिछले साल अक्टूबर में यह मुकदमा दायर किया था।

इस मुकदमे की सुनवाई करने वाली जज ने टेक कंपनियों के सभी दलीलों को नकार दिया। यही नहीं, जज ने गूगल के इस दलील को भी अस्वीकार कर दिया कि उसमें उसका कोई लेना-देना नहीं है। बता दें कि Character.ai गूगल के लार्ज लैंग्वेज मॉडल (LLM) पर काम करता है। इसकी वजह से कोर्ट ने Character.ai के साथ-साथ गूगल को भी इसके लिए जिम्मेदार ठहराया है। गूगल के दो पुराने इंजीनियर ही एआई स्टार्टअप कंपनी Character.ai के फाउंडर हैं।

AI पर क्यों उठ रहे सवाल?

AI को लेकर कई बार सवाल उठते रहे हैं। खास तौर पर पिछले दिनों सोशल मीडिया पर अफवाह फैलाने वाले डीपफेक वीडियो और फोटो के सामने आने के बाद से एआई की विश्वसनीयता पर सवाल उठना शुरू हो गया। इसके बाद सोशल मीडिया कंपनियों ने एआई द्वारा जेनरेट किए जाने वाले फोटो और वीडियो को लेबल करना शुरू कर दिया है, ताकि लोग ये पहचान सके कि ये वीडियो या फोटो सही नहीं हैं, बल्कि एआई द्वारा बनाए गए हैं। हालांकि, अभी भी लाखों की संख्यां में एआई द्वारा बनाए गए वीडियो और फोटो सोशल मीडिया पर शेयर किए जा रहे हैं, जिन्हें आम लोगों के लिए पहचान करना बेहद मुश्किल है।

AI

Image Source : INDIA TV
एआई

इसके अलावा एआई की समझ को लेकर भी सवाल उठे हैं। जेनरेटिव एआई डिजाइन करने वाली कंपनियां दावा करती हैं कि एआई पूरी तरह से निष्पक्ष है और वो डेटा के आधार पर ही जानकारी उपलब्ध करवाता है। हालांकि, ऐसी कई घटनाएं सामने आ चुकी हैं, जिनमें एआई द्वारा इस्तेमाल किए गए डेटा में गड़बड़ी और आकलन में दिक्कत की वजह से गलत रिजल्ट सामने आए हैं। गूगल के एआई मॉडल Gemini AI (तब Bard) द्वारा उपलब्ध कराई गई एक जानकारी की वजह से कंपनी को माफी तक मांगनी पड़ गई थी।

जेनरेटिव एआई की कोडिंग में अगर किसी भी तरह की दिक्कत आती है, तो इसके गंभीर परिणाम हो सकते हैं। पिछले दिनों चीन का एक वीडियो सोशल मीडिया पर वायरल हुआ था, जिसमें एआई बेस्ड रोबोट में तकनीकी दिक्कत आने के बाद वो भीड़ से लड़ने के लिए सामने आ गया था। यही नहीं, एक एआई बेस्ड रोबोट ने तो आत्महत्या तक कर ली थी। ऐसे में एआई द्वारा विनाशकारी व्यवहार विकसित करने का भी बड़ा खतरा है, जो टेक कंपनियों के लिए परेशानी खड़ा कर सकता है।

पिछले दिनों सामने आई एक सर्वे में यह पता चला है कि एआई हमें आलसी बना रहा है। इस सर्वे में लोगों ने एआई पर अपनी निर्भरता की बात कबूली थी। एआई की वजह से वो किसी चीज के बारे में रिसर्च करने से बचते हैं और एआई द्वारा दी गई जानकारी पर निर्भर रहते हैं। इस सर्वे के मुताबिक, AI लोगों को आलसी बनाने के साथ-साथ उसकी सोचने-समझने की शक्तियों को भी खत्म कर रहा है।

यह भी पढ़ें -

Google पर इंडिया टीवी को अपना पसंदीदा न्यूज सोर्स बनाने के लिए यहां
क्लिक करें

India TV हिंदी न्यूज़ के साथ रहें हर दिन अपडेट, पाएं देश और दुनिया की हर बड़ी खबर। Explainers से जुड़ी लेटेस्ट खबरों के लिए अभी विज़िट करें।

Advertisement
Advertisement
Advertisement