डीपफेक -चरित्र हनन का औजार जिसने प्रधानमंत्री मोदी को भी नहीं छोड़ा  

पांच नवंबर को अभिनेत्री रश्मिका मंदाना का डीपफेक वीडियो सोशल मीडिया पर खूब वायरल हुआ था। सोशल मीडिया पर यूजर्स ने इस वीडियो का विरोध करते हुए कानूनी कार्रवाई की मांग की थी। वहीं अभिनेत्री के समर्थन में अमिताभ बच्चन आए और कानूनी कार्रवाई की मांग की, जिसके बाद इस फेक वीडियो पर रश्मिका की भी प्रतिक्रिया सामने आई थी । दरअसल, यह वीडियो असल में जारा पटेल का था । अभिनेत्री रश्मिका मंदाना के डीप फेक वीडियो के बाद हर कोई सकते में था ।

पर इस मामले में ज्यादा तूल तब पकड़ा जब प्रधानमंत्री नरेन्द्र मोदी ने शुक्रवार को इस बारे में चेतावनी  दी। मोदी ने कहा कि एक तरफ नई-नई टैक्नोलॉजी जिंदगी को जहां आसान बना रही है, वहीं नई टैक्नोलॉजी के अपने खतरे भी हैं। ऐसे खतरे, जो किसी की जिंदगी बर्बाद कर सकते हैं, सामाजिक ताने-बाने को खराब कर सकते हैं, समाज में तनाव पैदा कर सकते हैं, इसलिए इससे सावधान रहने की ज़रूरत है। मोदी ने कहा कि आर्टिफिशियल इंटैलीजेंस के आने के बाद अब जागरूकता जरूरी है क्योंकि आर्टिफीशियल इंटैलीजेंस असली-नकली का फर्क खत्म कर देती है, पता ही नहीं चलता कि क्या सच्चा है और क्या नकली। मोदी ने फेक वीडियो की बात की। कहा कि आजकल सबके हाथ में फोन है, हर फोन में तमाम तरह के एप हैं, सबमें सोशल मीडिया एप हैं और अगर एक फेक वीडियो आता है तो वो कुछ ही मिनटों में सोशल मीडिया के जरिए लाखों लोगों तक पहुंच जाता है, लोग उसे सही समझ लेते हैं। इससे किसी व्यक्ति या समाज का बड़ा नुकसान हो सकता है। 

प्रधानमंत्री नरेंद्र मोदी शुक्रवार को पत्रकारों के साथ एक दीपावली मिलन समारोह में बोल रहे थे। उन्होंने बताया कि कैसे एक नकली वीडियो में उन्हें महिलाओं के साथ गरबा डांस करते हुए दिखाया गया। मोदी ने बताया कि स्कूल के दिनों के बाद से उन्होंने कभी गरबा डांस किया ही नहीं। लेकिन इस वीडियो को देखकर कोई नहीं कह सकता कि वीडियो में जो व्यक्ति गरबा कर रहा है, वो प्रधानमंत्री नहीं। ये एक डीप फेक वीडियो है। चूंकि टैकनोलॉजी इतनी आगे बढ़ गई है कि किसी भी व्यक्ति को कुछ भी करते हुए, कहते हुए दिखाया जा सकता है। चेहरा भी उसी का होगा, आवाज़ भी उसी की होगी, लेकिन सब नकली। और क्या असली है, क्या नकली है, इसकी पुष्टि करने के लिए आम लोगों के पास कोई ज़रिया नहीं है। इसलिए जो दिखता है, लोग उसी पर भरोसा कर लेते हैं। मोदी ने कहा कि अभी भले समझ में न आए लेकिन आर्टिफिशियल इंटैलीजेंस का खतरा भविष्य में बड़ी परेशानियां पैदा कर सकता है, इसलिए इसके प्रति लोगों को सावधान करने की जरूरत है। 

फेक वीडियो का कैसे दुरूपयोग हो सकता है, इसका उदाहरण मध्य प्रदेश के चुनाव में हुआ। चुनाव के दौरान फेक वीडियो का खूब इस्तेमाल हुआ। कांग्रेस और बीजेपी ने इसको लेकर चुनाव आयोग में एक दूसरे के खिलाफ खूब शिकायतें कीं। शुक्रवार को  वोटिंग खत्म होने के बाद मुख्यमंत्री शिवराज चौहान ने आरोप लगाया कि कांग्रेस ने चुनाव के दौरान नकली, झूठे वीडियो दिखाए और जनता को गुमराह करने की कोशिश की। दरअसल, बीजेपी ने झूठे प्रचार और गलत तरीकों से प्रचार के करीब दो दर्जन शिकायतें की हैं, इनमें ज्यादातर शिकायतें उन वीडियो की है, जो दूसरे वीडियो पर नकली आवाज़ और ग्राफिक्स सुपरइंपोज करके बनाए गए हैं। इस तरह के कई वीडियो मध्य प्रदेश में सोशल मीडिया के जरिए खूब फैलाए गए। एक वीडियो में दिखाया गया कि शिवराज सिंह कैबिनेट की मीटिंग के दौरान मंत्रियों और अफसरों से कह रहे है कि ‘जनता बहुत नाराज है.।बीजेपी भारी अंतर से हार सकती है…इसलिए कुछ भी करो…हर गांव में जाओ, बूथ पर जाओ…जो करना है करो…अभी वक्त है…सब ठीक करो…मैनेज करो…’  असली वीडियो चुनाव के एलान से पहले शिवराज सिंह चौहान की आखिरी कैबिनेट मीटिंग का है। वीडियो असली था, लेकिन इसमें आवाज शिवराज सिंह चौहान की नहीं है। चौहान की आवाज की हुबहू नकल करके इसे वीडियो पर सुपर इंपोज किया गया। इस वीडियो को जिन व्हॉट्सऐप ग्रुप्स के जरिए फैलाया गया, उनकी शिकायत पुलिस से की गई। पुलिस ने जांच करके इस तरह के वीडियो को तमाम सोशल मीडिया प्लेटफॉर्म्स से हटवाया। इस तरह के वीडियो कांग्रेस से जुड़े लोगों की तरफ से सर्कुलेट किए गए। ऐसे दर्जनों वीडियो बनाए गए ।

‘कौन बनेगा करोड़पति’ की ओरिजनल क्लिप से छेड़छाड़ की गई। होस्ट और कंटेस्टेंट की आवाज़ बदलकर सारा कटेंट बदल दिया गया। इस वीडियो से ये मैसेज देने की कोशिश की गई कि शिवराज सिंह सिर्फ घोषणाएं करते हैं, उन पर अमल नहीं करते। कौन बनेगा करोड़पति शो के होस्ट अमिताभ बच्चन थे, लेकिन आवाज सबकी नकली थी। आवाज सुपरइंपोज करके, ग्राफिक्स डालकर ऐसा दिखाने की कोशिश की गई जैसे वाकई में ‘कौन बनेगा करोड़पति’ में सवाल पूछा गया और शिवराज सिंह चौहान को घोषणा मुख्यमंत्री बताया गया। कांग्रेस के नेताओं और कार्यकर्ताओं ने इसे मध्य प्रदेश में खूब सर्कुलेट किया। ‘कौन बनेगा करोड़पति’ को टेलीकास्ट करने वाली कंपनी सोनी टीवी को सफाई देनी पड़ी जिसमें कहा गया कि ये नकली वीडियो है, होस्ट और कंटेस्टेंट्स की आवाज़ से छेड़छाड़ की गई है, साइबर क्राइम सेल में शिकायत की गई है। सोनी टीवी ने लोगों से अपील की कि इस तरह के वीडियो शेयर न करें। इसी तरह मशहूर एक्टर कार्तिक आर्यन को भी इस तरह के गुमराह करने वाले एक नकली कैम्पेन में लपेट लिया गया। कांग्रेस के ब्लू टिक वाले किसी समर्थक ने कार्तिक आर्यन का एक वीडियो शेयर कर दिया और उसके साथ कैप्शन लिखा कि अब तो कार्तिक आर्यन भी कांग्रेस का समर्थन करने लगे हैं। चूंकि कार्तिक आर्यन मध्यप्रदेश के ही रहने वाले हैं, इसलिए जानबूझकर उनका वीडियो इस फर्जी  कैम्पेन के लिए इस्तेमाल किया गया। इस वीडियो की खास बात ये थी कि इसमें कांग्रेस का चुनाव निशान पंजा भी लगाया गया था। कार्तिक आर्यन ने अगले ही दिन स्पष्टीकरण जारी कर दिया और कहा कि जिस वीडियो से छेड़छाड़ कर सियासत की जा रही है वो तो एक OTT प्लेटफॉर्म का एड है, जिसे डॉक्टर्ड करके कांग्रेस का विज्ञापन बना दिया गया  

दुष्प्रचार और अफवाहें किस कदर खतरनाक हो सकती हैं इससे हम सब वाकिफ हैं।ये झुंझलाहट पैदा करती है तो इनसे दुनिया में जंग तक की नौबत आ सकती है।कई ऐसी घटनाएं हो चुकी हैं जब इनकी वजह से समाज में फूट पड़ी और बड़े पैमाने पर कलह- झगड़ा हुआ है।ये झूठी होने के बाद भी इस कदर मजबूत होती हैं कि चुनावों के नतीजों तक असर डालने का दम रखती हैं । 

सोशल मीडिया के दौर में ये खतरा बेहद बढ़ा हुआ है।जब भू-राजनीतिक आकांक्षाओं वाले साइबर हैकर, किसी विचारधारा को पागलपन की हद तक मानने वाले लोग, हिंसक चरमपंथियों और पैसे लेकर खतरों पर खेलने वाले लोग सोशल मीडिया का इस्तेमाल अपने गलत मकसद के लिए करते हैं।इस तरह से भ्रामक और झूठे तरीकों से गलत सूचनाओं को फैलाने वाले लोगों के हाथ डीपफेक के तौर पर अब एक नया हथियार लगा है  । 

आखिर ये डीपफेक है क्या है ?यह जानना भी जरूरी है । दरअसल डीपफेक का मतलब आर्टिफिशियल इंटेलिजेंस- एआई के जरिए डिजिटल मीडिया में हेरफेर करना है।एआई के इस्तेमाल से शरारती तत्व वीडियो, ऑडियो, और फोटोज में आर्टिफिशियल इंटेलिजेंस का इस्तेमाल कर हेरफेर यानी मनिप्युलेशन और एडिटिंग को अंजाम देते हैं।एक तरह से देखा जाए तो ये बेहद वास्तविक लगना वाला डिजिटल फर्जीवाड़ा है, इसलिए इसे डीपफेक नाम दिया गया है । 

वैसे आर्टिफिशियल इंटेलिजेंस (एआई) से पैदा किया गया सिंथेटिक मीडिया या डीपफेक कुछ क्षेत्रों में बेहद फायदेमंद साबित होता है।उदाहरण के लिए शिक्षा, फिल्म निर्माण, आपराधिक फोरेंसिक और कलात्मक अभिव्यक्ति में ये बहुत काम की चीज है।आर्टिफिशियल इंटेलिजेंस का मतलब एक मशीन में इंसान की तरह सोचने-समझने और निर्णय लेने की क्षमता का विकास करना है । 

यही वजह है कि इसे कंप्यूटर साइंस में सबसे बेहतरीन और टॉप माना जाता है।इसमें कंप्यूटर को इस तरह से तैयार किया जाता है कि वो बिल्कुल इंसान की तरह से सोच कर काम कर सकें।इस सबके साथ इसका बहुत बड़ा नुकसान भी है।जैसे-जैसे सिंथेटिक मीडिया में टेक्नोलॉजी का दखल बढ़ रहा है, वैसे-वैसे इसके जरिए शोषण का खतरा भी बढ़ता जा रहा है।रोबोट्स, कंप्यूटर्स से लेकर मोबाइल एप्लीकेशन में एल्गोरिदम आर्टिफिशियल इंटेलिजेंस इस्तेमाल में लाई जाती है। इतना ही नहीं यह बड़े पैमाने और रफ्तार से हो सकता है।इसमें माइक्रो टारगेटिंग के जरिए नई टेक्नोलॉजी का इस्तेमाल कर बड़े पैमाने पर ऑनलाइन डेटा इकट्ठा किया जा सकता है।इसके जरिए आसानी से डिजिटल मीडिया में कोई भी बदलाव लाया जा सकता है । 

इतना सब घट जाने के बाद केंद्र सरकार भी अब कड़ाई से हरकत में आई है । केंद्रीय आईटी मंत्री अश्विनी वैष्णव ने शनिवार को सोशल मीडिया प्लेटफार्मों को चेतावनी दी कि सूचना और प्रौद्योगिकी अधिनियम  में ‘सुरक्षित बंदरगाह’ खंड  के तहत उन्हें जो छूट प्राप्त है, वह लागू नहीं होगी यदि वे डीपफेक  को हटाने के लिए कदम नहीं उठाते हैं।धारा के अनुसार, किसी ऑनलाइन प्लेटफॉर्म को उपयोगकर्ताओं द्वारा उस पर पोस्ट की गई सामग्री के लिए जिम्मेदार नहीं ठहराया जा सकता है।केंद्रीय मंत्री ने कहा कि केंद्र सरकार ने हाल ही में सभी बड़े सोशल मीडिया प्लेटफॉर्म को नोटिस जारी किया है और उनसे डीपफेक की पहचान करने और सामग्री को हटाने के लिए कदम उठाने को कहा है।उन्होंने कहा कि प्लेटफार्मों ने प्रतिक्रिया दी और वे कार्रवाई कर रहे हैं। उन्होंने कहा, “हमने सभी प्लेटफाॉर्मों से इस दिशा में और अधिक आक्रामक होने के लिए कहा है.” वैष्णव ने कहा कि सरकार ने हाल ही में डीपफेक मुद्दे पर कंपनियों को नोटिस जारी किया था और प्लेटफार्मों ने जवाब भी दिया।उन्होंने कहा कि लेकिन कंपनियों को ऐसी सामग्री पर कार्रवाई करने में अधिक आक्रामक होना होगा।वैष्णव ने कहा है कि  वे कदम उठा रहे हैं, लेकिन हमें लगता है कि कई और कदम उठाने होंगे ।

Related Articles

Back to top button