भविष्य में बड़ी परेशानियां पैदा कर सकता है डीप फेक वीडियो का ट्रेंड

अन्तर्द्वन्द

नई-नई टैक्नोलॉजी जिंदगी को जहां आसान बना रही है, वहीं नई टैक्नोलॉजी के अपने खतरे भी हैं। ऐसे खतरे, जो किसी की जिंदगी बर्बाद कर सकते हैं, सामाजिक ताने-बाने को खराब कर सकते हैं, समाज में तनाव पैदा कर सकते हैं, इसलिए इससे सावधान रहने की ज़रूरत है।

आर्टिफिशियल इंटैलीजेंस के आने के बाद अब जागरूकता जरूरी है क्योंकि आर्टिफीशियल इंटैलीजेंस असली-नकली का फर्क खत्म कर देती है, पता ही नहीं चलता कि क्या सच्चा है और क्या नकली।

आजकल सबके हाथ में फोन है, हर फोन में तमाम तरह के एप हैं, सबमें सोशल मीडिया एप हैं और अगर एक फेक वीडियो आता है तो वो कुछ ही मिनटों में सोशल मीडिया के जरिए लाखों लोगों तक पहुंच जाता है, लोग उसे सही समझ लेते हैं। इससे किसी व्यक्ति या समाज का बड़ा नुकसान हो सकता है।

चूंकि टैकनोलॉजी इतनी आगे बढ़ गई है कि किसी भी व्यक्ति को कुछ भी करते हुए, कहते हुए दिखाया जा सकता है। चेहरा भी उसी का होगा, आवाज़ भी उसी की होगी, लेकिन सब नकली। और क्या असली है, क्या नकली है, इसकी पुष्टि करने के लिए आम लोगों के पास कोई ज़रिया नहीं है। इसलिए जो दिखता है, लोग उसी पर भरोसा कर लेते हैं।

अभी भले समझ में न आए लेकिन आर्टिफिशियल इंटैलीजेंस का खतरा भविष्य में बड़ी परेशानियां पैदा कर सकता है, इसलिए इसके प्रति लोगों को सावधान करने की जरूरत है।

नकली  वीडियो की समस्या गंभीर है। अब AI से,  DEEP FAKE से ये खतरा और भी बढ़ गया है। चुनाव के दौरान शिवराज सिंह को बदनाम करने के लिए अमिताभ बच्चन की लोकप्रियता का गलत इस्तेमाल किया गया, KBC जैसे बड़े शो की विश्सनीयता का बेजा इस्तेमाल हुआ, ये खतरनाक प्रवृत्ति है। जब तक चुनाव आयोग के पास शिकायतें पहुंची, पुलिस में FIR हुई तब तक काफी नुकसान हो चुका था। ये तो कुछ मिसालें हैं। आजकल सबके फोन में नकली वीडियो हर रोज़ आते हैं लेकिन ज्यादातर लोग इन्हें गंभीरता से नहीं लेते। जो गंभीरता से लेते हैं, उनके पास इन वीडियो की सच्चाई जानने का कोई तरीका नहीं है। मुझे हर रोज पांच-छह लोग वीडियो भेजकर पूछते हैं, क्या ये सही है या fake है? इंडिया टीवी के पास एक टीम है जो ऐसे वीडियो को वैरिफाई करती है लेकिन इंटरनेट तो एक महासागर है, इसका जाल कोने-कोने में फैला है। सारे वीडियो को वैरिफाई कर पाना असंभव है।

दूसरी बात ये है कि दो तीन साल पहले एक नकली वीडियो तैयार करने में दो-तीन दिन लग जाते थे, उसके लिए बहुत सारी हाई डेफिनेशन फुटेज की जरुरत होती थी, अब तो एक से एक सॉफ्टवेयर उपलब्ध है। चार-पांच घंटे में फर्जी वीडियो तैयार हो जाते हैं। किसी वीडियो पर नकली आवाज़ लगाना, लिप सिंक मैच करना तो और भी आसान हो गया है। नकली वीडियो से रातों रात किसी की बदनामी हो सकती है, लोगों की भावनाएं भड़काई जा सकती हैं, इसलिए ये समाज के लिए बड़ा खतरा है। इसका एक और पहलू है। वो ये कि अगर किसी नेता का वीडियो असली हो, वो रिश्वत लेते भी पकड़ा जाए, सिफारिश करते उसका वीडियो रिकॉर्ड हो जाए, तो वो बड़ी आसानी से कह देगा कि ये वीडियो नकली है। फॉरेंसिक जांच करवा लो, जांच होते होते, रिपोर्ट आते-आते महीनों लग जाएंगे। अगर रिपोर्ट खिलाफ आई तो रिपोर्ट पर सवाल उठा दिए जाएंगे, इसलिए इस खतरे को समझना जरूरी है।

साइबर एक्सपर्ट्स की मदद से इसके बारे में लोगों को जागरूक करना ज़रुरी है,और हम सबको सावधान रहना है कि बिना वैरिफाई करे, किसी भी वीडियो को forward न करें और जैसा प्रधानमंत्री मोदी ने कहा,   fake video और deep fake पर, AI पर, नकली होने का,  फेक होने का, फर्जी होने का ठप्पा लगाना पहला कदम है। जैसे-जैसे technology और आगे जाएगी, ये खतरा और बढ़ेगा और हम सबको और ज्यादा सतर्क रहने की जरूरत पड़ेगी।।

इस पूरे मसले में मीडिया की जिम्मेदारी बहुत अहम है। हम लोगों को INFORMED रखें, AI को और CHAT GPT को विश्वसनीयता देने की बजाए जहां-जहां इसका इस्तेमाल करें उसे फेक बताना न भूलें। ये हम सबकी जिम्मेदारी है। टेक्नोलॉजी का बेजा इस्तेमाल न हो। कोई किसी की इज्जत उछालने के लिए फर्जी वीडियो और DEEP FAKE का इस्तेमाल न कर पाए। एक और बात कहना चाहता हूं। मुझे शिकायतें मिलती है कि कोई मेरी तस्वीर लगाकर दवाई बेच रहा है, कोई मेरे नाम से मीडिया में नौकरियां देने की बात कर रहा है, किसी ने तो मेरे नाम से फर्जी फोन मैसेज भी भेज दिए। मेरे ऑफिस ने इन सबके बारे में पुलिस में शिकायत की है। आप भी सावधान रहें, किसी फर्जी विज्ञापन पर भरोसा न करें, जब ज़रूरत हो तो इंडिया टीवी से संपर्क करें। ऐसी किसी भी जानकारी को वैरिफाई करें। मेरे बारे में कोई भी सूचना, मेरे अपने या इंडिया टीवी के ऑफिशियल हैंडल से पोस्ट की जाती है। वही verified है, उसी पर यकीन करें।

– एजेंसी