Friday, May 03, 2024
Advertisement

Rajat Sharma's Blog | 'डीप फेक' वीडियो : एक नया खतरा

किसी वीडियो पर नकली आवाज़ लगाना, लिप सिंक मैच करना तो और भी आसान हो गया है। नकली वीडियो से रातों रात किसी की बदनामी हो सकती है, लोगों की भावनाएं भड़काई जा सकती हैं, इसलिए ये समाज के लिए बड़ा खतरा है।

Rajat Sharma Written By: Rajat Sharma @RajatSharmaLive
Published on: November 18, 2023 15:58 IST
Rajat Sharma, India TV- India TV Hindi
Image Source : INDIA TV इंडिया टीवी के चेयरमैन एवं एडिटर-इन-चीफ रजत शर्मा।

आज आपको एक खतरे के बारे में आगाह करना चाहता हूं। ये खतरा है, डीप फेक वीडियो का। प्रधानमंत्री नरेन्द्र मोदी ने शुक्रवार को इस बारे में चेतावनी भी दी। मोदी ने कहा कि एक तरफ नई-नई टैक्नोलॉजी जिंदगी को जहां आसान बना रही है, वहीं नई टैक्नोलॉजी के अपने खतरे भी हैं। ऐसे खतरे, जो किसी की जिंदगी बर्बाद कर सकते हैं, सामाजिक ताने-बाने को खराब कर सकते हैं, समाज में तनाव पैदा कर सकते हैं, इसलिए इससे सावधान रहने की ज़रूरत है। मोदी ने कहा कि आर्टिफिशियल इंटैलीजेंस के आने के बाद अब जागरूकता जरूरी है क्योंकि आर्टिफीशियल इंटैलीजेंस असली-नकली का फर्क खत्म कर देती है, पता ही नहीं चलता कि क्या सच्चा है और क्या नकली। मोदी ने फेक वीडियो की बात की। कहा कि आजकल सबके हाथ में फोन है, हर फोन में तमाम तरह के एप हैं, सबमें सोशल मीडिया एप हैं और अगर एक फेक वीडियो आता है तो वो कुछ ही मिनटों में सोशल मीडिया के जरिए लाखों लोगों तक पहुंच जाता है, लोग उसे सही समझ लेते हैं। इससे किसी व्यक्ति या समाज का बड़ा नुकसान हो सकता है। 

मोदी ने जो कहा वो बात सुनने में छोटी लग सकती है लेकिन ये खतरा वाकई में बहुत बड़ा है। मोदी शुक्रवार को पत्रकारों के साथ एक दीपावली मिलन समारोह में बोल रहे थे। उन्होंने बताया कि कैसे एक नकली वीडियो में उन्हें महिलाओं के साथ गरबा डांस करते हुए दिखाया गया। मोदी ने बताया कि स्कूल के दिनों के बाद से उन्होंने कभी गरबा डांस किया ही नहीं। लेकिन इस वीडियो को देखकर कोई नहीं कह सकता कि वीडियो में जो व्यक्ति गरबा कर रहा है, वो प्रधानमंत्री नहीं। ये एक डीप फेक वीडियो है। चूंकि टैकनोलॉजी इतनी आगे बढ़ गई है कि किसी भी व्यक्ति को कुछ भी करते हुए, कहते हुए दिखाया जा सकता है। चेहरा भी उसी का होगा, आवाज़ भी उसी की होगी, लेकिन सब नकली। और क्या असली है, क्या नकली है, इसकी पुष्टि करने के लिए आम लोगों के पास कोई ज़रिया नहीं है। इसलिए जो दिखता है, लोग उसी पर भरोसा कर लेते हैं। मोदी ने कहा कि अभी भले समझ में न आए लेकिन आर्टिफिशियल इंटैलीजेंस का खतरा भविष्य में बड़ी परेशानियां पैदा कर सकता है, इसलिए इसके प्रति लोगों को सावधान करने की जरूरत है। 

फेक वीडियो का कैसे दुरूपयोग हो सकता है, इसका उदाहरण मध्य प्रदेश के चुनाव में हुआ। चुनाव के दौरान फेक वीडियो का खूब इस्तेमाल हुआ। कांग्रेस और बीजेपी ने इसको लेकर चुनाव आयोग में एक दूसरे के खिलाफ खूब शिकायतें कीं। शुक्रवार को  वोटिंग खत्म होने के बाद मुख्यमंत्री शिवराज चौहान ने आरोप लगाया कि कांग्रेस ने चुनाव के दौरान नकली, झूठे वीडियो दिखाए और जनता को गुमराह करने की कोशिश की। दरअसल, बीजेपी ने झूठे प्रचार और गलत तरीकों से प्रचार के करीब दो दर्जन शिकायतें की हैं, इनमें ज्यादातर शिकायतें उन वीडियो की है, जो दूसरे वीडियो पर नकली आवाज़ और ग्राफिक्स सुपरइंपोज करके बनाए गए हैं। इस तरह के कई वीडियो मध्य प्रदेश में सोशल मीडिया के जरिए खूब फैलाए गए। एक वीडियो में दिखाया गया कि शिवराज सिंह कैबिनेट की मीटिंग के दौरान मंत्रियों और अफसरों से कह रहे है कि ‘जनता बहुत नाराज है.. बीजेपी भारी अंतर से हार सकती है...इसलिए कुछ भी करो...हर गांव में जाओ, बूथ पर जाओ...जो करना है करो...अभी वक्त है...सब ठीक करो...मैनेज करो...’  असली वीडियो चुनाव के एलान से पहले शिवराज सिंह चौहान की आखिरी कैबिनेट मीटिंग का है। वीडियो असली था, लेकिन इसमें आवाज शिवराज सिंह चौहान की नहीं है। चौहान की आवाज की हुबहू नकल करके इसे वीडियो पर सुपर इंपोज किया गया। इस वीडियो को जिन व्हॉट्सऐप ग्रुप्स के जरिए फैलाया गया, उनकी शिकायत पुलिस से की गई। पुलिस ने जांच करके इस तरह के वीडियो को तमाम सोशल मीडिया प्लेटफॉर्म्स से हटवाया। इस तरह के वीडियो कांग्रेस से जुड़े लोगों की तरफ से सर्कुलेट किए गए। ऐसे दर्जनों वीडियो बनाए गए।

‘कौन बनेगा करोड़पति’ की ओरिजनल क्लिप से छेड़छाड़ की गई। होस्ट और कंटेस्टेंट की आवाज़ बदलकर सारा कटेंट बदल दिया गया। इस वीडियो से ये मैसेज देने की कोशिश की गई कि शिवराज सिंह सिर्फ घोषणाएं करते हैं, उन पर अमल नहीं करते। कौन बनेगा करोड़पति शो के होस्ट अमिताभ बच्चन थे, लेकिन आवाज सबकी नकली थी। आवाज सुपरइंपोज करके, ग्राफिक्स डालकर ऐसा दिखाने की कोशिश की गई जैसे वाकई में ‘कौन बनेगा करोड़पति’ में सवाल पूछा गया और शिवराज सिंह चौहान को घोषणा मुख्यमंत्री बताया गया। कांग्रेस के नेताओं और कार्यकर्ताओं ने इसे मध्य प्रदेश में खूब सर्कुलेट किया। 'कौन बनेगा करोड़पति' को टेलीकास्ट करने वाली कंपनी सोनी टीवी को सफाई देनी पड़ी जिसमें कहा गया कि ये नकली वीडियो है, होस्ट और कंटेस्टेंट्स की आवाज़ से छेड़छाड़ की गई है, साइबर क्राइम सेल में शिकायत की गई है। सोनी टीवी ने लोगों से अपील की कि इस तरह के वीडियो शेयर न करें। इसी तरह मशहूर एक्टर कार्तिक आर्यन को भी इस तरह के गुमराह करने वाले एक नकली कैम्पेन में लपेट लिया गया। कांग्रेस के ब्लू टिक वाले किसी समर्थक ने कार्तिक आर्यन का एक वीडियो शेयर कर दिया और उसके साथ कैप्शन लिखा कि अब तो कार्तिक आर्यन भी कांग्रेस का समर्थन करने लगे हैं। चूंकि कार्तिक आर्यन मध्यप्रदेश के ही रहने वाले हैं, इसलिए जानबूझकर उनका वीडियो इस फर्जी  कैम्पेन के लिए इस्तेमाल किया गया। इस वीडियो की खास बात ये थी कि इसमें कांग्रेस का चुनाव निशान पंजा भी लगाया गया था। कार्तिक आर्यन ने अगले ही दिन स्पष्टीकरण जारी कर दिया और कहा कि जिस वीडियो से छेड़छाड़ कर सियासत की जा रही है वो तो एक OTT प्लेटफॉर्म का एड है, जिसे डॉक्टर्ड करके कांग्रेस का विज्ञापन बना दिया गया। 

नकली  वीडियो की समस्या गंभीर है। अब AI से,  DEEP FAKE से ये खतरा और भी बढ़ गया है। चुनाव के दौरान शिवराज सिंह को बदनाम करने के लिए अमिताभ बच्चन की लोकप्रियता का गलत इस्तेमाल किया गया, KBC जैसे बड़े शो की विश्सनीयता का बेजा इस्तेमाल हुआ, ये खतरनाक प्रवृत्ति है। जब तक चुनाव आयोग के पास शिकायतें पहुंची, पुलिस में FIR हुई तब तक काफी नुकसान हो चुका था। ये तो कुछ मिसालें हैं। आजकल सबके फोन में नकली वीडियो हर रोज़ आते हैं लेकिन ज्यादातर लोग इन्हें गंभीरता से नहीं लेते। जो गंभीरता से लेते हैं, उनके पास इन वीडियो की सच्चाई जानने का कोई तरीका नहीं है। मुझे हर रोज पांच-छह लोग वीडियो भेजकर पूछते हैं, क्या ये सही है या fake है? इंडिया टीवी के पास एक टीम है जो ऐसे वीडियो को वैरिफाई करती है लेकिन इंटरनेट तो एक महासागर है, इसका जाल कोने-कोने में फैला है। सारे वीडियो को वैरिफाई कर पाना असंभव है। दूसरी बात ये है कि दो तीन साल पहले एक नकली वीडियो तैयार करने में दो-तीन दिन लग जाते थे, उसके लिए बहुत सारी हाई डेफिनेशन फुटेज की जरुरत होती थी, अब तो एक से एक सॉफ्टवेयर उपलब्ध है। चार-पांच घंटे में फर्जी वीडियो तैयार हो जाते हैं। किसी वीडियो पर नकली आवाज़ लगाना, लिप सिंक मैच करना तो और भी आसान हो गया है। नकली वीडियो से रातों रात किसी की बदनामी हो सकती है, लोगों की भावनाएं भड़काई जा सकती हैं, इसलिए ये समाज के लिए बड़ा खतरा है। इसका एक और पहलू है। वो ये कि अगर किसी नेता का वीडियो असली हो, वो रिश्वत लेते भी पकड़ा जाए, सिफारिश करते उसका वीडियो रिकॉर्ड हो जाए, तो वो बड़ी आसानी से कह देगा कि ये वीडियो नकली है। फॉरेंसिक जांच करवा लो, जांच होते होते, रिपोर्ट आते-आते महीनों लग जाएंगे। अगर रिपोर्ट खिलाफ आई तो रिपोर्ट पर सवाल उठा दिए जाएंगे, इसलिए इस खतरे को समझना जरूरी है। साइबर एक्सपर्ट्स की मदद से इसके बारे में लोगों को जागरूक करना ज़रुरी है,और हम सबको सावधान रहना है कि बिना वैरिफाई करे, किसी भी वीडियो को forward न करें और जैसा प्रधानमंत्री मोदी ने कहा,   fake video और deep fake पर, AI पर, नकली होने का,  फेक होने का, फर्जी होने का ठप्पा लगाना पहला कदम है। जैसे-जैसे technology और आगे जाएगी, ये खतरा और बढ़ेगा और हम सबको और ज्यादा सतर्क रहने की जरूरत पड़ेगी।।  इस पूरे मसले में मीडिया की जिम्मेदारी बहुत अहम है। हम लोगों को INFORMED रखें, AI को और CHAT GPT को विश्वसनीयता देने की बजाए जहां-जहां इसका इस्तेमाल करें उसे फेक बताना न भूलें। ये हम सबकी जिम्मेदारी है। टेक्नोलॉजी का बेजा इस्तेमाल न हो। कोई किसी की इज्जत उछालने के लिए फर्जी वीडियो और DEEP FAKE का इस्तेमाल न कर पाए। एक और बात कहना चाहता हूं। मुझे शिकायतें मिलती है कि कोई मेरी तस्वीर लगाकर दवाई बेच रहा है, कोई मेरे नाम से मीडिया में नौकरियां देने की बात कर रहा है, किसी ने तो मेरे नाम से फर्जी फोन मैसेज भी भेज दिए। मेरे ऑफिस ने इन सबके बारे में पुलिस में शिकायत की है। आप भी सावधान रहें, किसी फर्जी विज्ञापन पर भरोसा न करें, जब ज़रूरत हो तो इंडिया टीवी से संपर्क करें। ऐसी किसी भी जानकारी को वैरिफाई करें। मेरे बारे में कोई भी सूचना, मेरे अपने या इंडिया टीवी के ऑफिशियल हैंडल से पोस्ट की जाती है। वही verified है, उसी पर यकीन करें। (रजत शर्मा)

देखें: ‘आज की बात, रजत शर्मा के साथ’ 17 नवंबर, 2023 का पूरा एपिसोड

Latest India News

India TV पर हिंदी में ब्रेकिंग न्यूज़ Hindi News देश-विदेश की ताजा खबर, लाइव न्यूज अपडेट और स्‍पेशल स्‍टोरी पढ़ें और अपने आप को रखें अप-टू-डेट। National News in Hindi के लिए क्लिक करें भारत सेक्‍शन

Advertisement
Advertisement
Advertisement