McAfee के ऑनलाइन प्रोटेक्शन और साइबर सिक्योरिटी एक्सपर्ट्स ने डीपफेक को लेकर एक सर्वे किया, भारतीयों के बीच किए सर्वे में कई चौंकाने वाले नतीजे सामने आए हैं. जनवरी और फरवरी 2024 में McAfee ने फ्यूचर में आर्टिफिशियल इंटेलिजेंस (AI) और टेक्नोलॉजी के प्रभाव की जांच के लिए कई देशों में एक रिसर्च स्टडी की. एमएसजाई-एसीआई द्वारा आयोजित स्टडी में अमेरिका, ब्रिटेन, फ्रांस, जर्मनी, ऑस्ट्रेलिया, भारत और जापान सहित विभिन्न देशों के 7,000 लोग शामिल थे.
चार में से एक भारतीय (22 फीसदी) ने पॉलिटिकल डीपफेक का सामना करने की बात स्वीकार की, जिसे पहले देखने पर वे असली मानते थे, बढ़ता डीपफेक एक्सपोजर चिता पैदा करता है, खासतौर पर भारत में चल रहे चुनावों और स्पोर्टस इवेंट्स के बीच जहां एआई टेक्नोलॉजी के कारण असली और नकली वीडियो और बॉयस के बीच अंतर करना बहुत चुनौतीपूर्ण है.
सर्वे से कुछ चौंकाने वाले नतीजे
31 फीसदी लोगों ने आम चुनावों पर डीपफेक के प्रभाव को एआई-बेस्ट टेक्नोलॉजी से संबंधित सबसे चिंताजनक मुद्दों में से एक के तौर पर शामिल किया है. गलत सूचना और दुष्प्रचार जरूरी चिंताओं के रूप में उभरे, जिसमें अचिन तेंदुलकर, विराट कोहली, आमिर खान और रणवीर सिंह जैसे सेलिब्रिटीज से जुड़े डीपफेक हमारे सामने गाए हैं.
लोगों ने डीपफेक के अलग-अलग इस्तेमाल के बारे में चिंता जाहिर की, जिनमें लाइबरबुलिंग (55 फीसदी), नकली जश्लील कंटेंट बनाना (52 फीसदी), स्कैम को बढ़ावा देना (49 फीसदी), सेलिब्रिटीज की नकल बनाना (44 फीसदी), चुनावों को प्रभावित करना (31 फीसदी), और ऐतिहासिक तथ्यों से छेड़छाड़ करना (27 फीसदी), मीडिया में जनता के विश्वास को कम करना (37) फीसदी) शामिल है.
80 फीसदी लोगों ने कहा कि वे एक साल पहले की तुलना में डीपफेक के बारे में ज्यादा चिंतित है, जो इस टेक्नोलॉजी से जुड़े रिस्क के बारे में बढ़ती जागरुकता को दर्शाता है. 64 फीसदी लोगों का मानना है कि एआई ने ऑनलाइन स्कैम को पहचानना कठिन बना दिया है.
डीपफेक से स्कैम
घोटालों और हेरफेर के लिए AI-जनरेटेड ऑडियो का इस्तेमाल करने वाले साइबर अपराधियों के बढ़ते खतरे से निपटने के लिए McAfee ने प्रोजेक्ट मॉकिंगबर्ड, एक Al-बेस्ड डीपफैक ऑडियो डिटेक्शन टेक्नोलॉजी विकसित की
McAfee Labs द्वारा बनाई गई यह नई टेक्नोलॉजी यूजर्स को चीडियो में AI-जनरेटेड ऑडियो की पहचान करने में मदद करती है. इससे डिजिटल दुनिया और कंटेंट के संभावित हेरफेर की बेहतर समझ मिलती है.
भावनाओं को भड़काने वाले कटेंट सावधान रहें, खासकर अगर यह गुस्से या उदासी जैसी भावनाओं को उकसाती हो, डीपफेक का उद्देश्य आपकी सोच और कामों में हेरफेर करना है.
केवल 30 फीसदी लोग एआई से बने असली और नकली कंटेंट के बीच अंतर करने की अपनी क्षमता में आत्मविश्वास महसूस करते हैं. यह जागरूकता और तैयारियों में बड़ी कमी को दर्शाता है.
बीते 12 महीनों में 38 फीसदी लोगों को डीपफैक स्कैम का सामना करना पड़ा, जबकि 18 फीसदी लोग ऐसे स्कैम का शिकार बने. इन स्कैम में अक्सर सेलिब्रिटीज या किसी दूसरे इंसान के डीपफेक से धोखा देकर पर्सनल जानकारी या धन हड़पना शामिल होता है,
डीपफेक से ऐसे रहें सुरक्षित
इस डिजिटल दौर में अपनी पर्सनल जानकारी शेयर करने से पहले उसे वेरिफाई करना जरूरी है. खासतौर पर डीपफेक और एआई-जेनरेटेड कंटेंट के बढ़ने के साथ ऐसा करना और जरूरी हो गया है. इंटरनेट पर फोटो-वीडियो, रोबोटिक आवाजों, या इमोशनल कंटेंट देखते समय सावधान रहे, क्योंकि ये अक्सर नकली होने का संकेत दे सकते हैं.
कोई भी मैसेज या जानकारी शेयर करने से पहले भरोसेमंद फैक्ट चेक टूल्स और न्यूज सोर्स का इस्तेमाल करके सुनिश्चित करें कि यह सच और सटीक है. हेरफेर की गई फोटो से सावधान रहें, क्योंकि उनमें अक्सर ज्यादा उंगलियां या धुंधले पेहरे जैसी खामियां होती हैं, जिन्हें आप पहचान सकते हैं. डीपफेक वीडियों में आताजों पर ध्यान दें, क्योंकि AI-जेनरेटेड आवाजों में अजीब रुकावट या अननेचुरल फील हो सकता है
– एजेंसी