डीपफेक के दुरुपयोग से निपटने के लिए मानवीय बनना जरूरी ?

डीपफेक के दुरुपयोग: एआई के बढ़ते दायरे से सतर्कता समय की मांग; अधिक मानवीय बनने की जरूरत
दुनिया के कई देशों में हो रहे चुनावों में डीपफेक के दुरुपयोग का बढ़ता दायरा परेशान करने वाला है। जेनरेटिव एआई मॉडलों ने इनके निर्माण को आसान और सर्वसुलभ बना दिया है। ऐसे में जागरूकता और डिजिटल शिक्षा को बढ़ाने की भी जरूरत है, ताकि कमजोर लोग इसका निशाना बनने से बच सकें।
डीपफेक के दुरुपयोग से निपटने के लिए मानवीय बनना जरूरी ….

यह चुनाव का मौसम है और डीपफेक का भी। भारत में तो लोकसभा के चुनाव चल ही रहे हैं, अमेरिका और ब्रिटेन में भी चुनाव होने वाले हैं। ऐसे में अधिकारियों को बाधित करने के लिए विभिन्न तत्वों द्वारा डीपफेक की बाढ़ आने की आशंका निराधार नहीं है। डीपफेक दो शब्दों से बना है-आर्टिफिशियल टेक्नोलॉजी (एआई) आधारित डीप लर्निंग और फेक (नकली) से। डीपफेक एक कृत्रिम (बनावटी) मीडिया है, जिसमें बिना सहमति के किसी व्यक्ति की तस्वीर या वीडियो को उसी से मिलते-जुलते दूसरे व्यक्ति की तस्वीर या वीडियो से बदल दिया जाता है। शुरुआत में डीपफेक का इस्तेमाल पोर्नोग्राफिक (अश्लील) सामग्री तैयार करने के लिए किया जाता था। डीपफेक तकनीक वास्तविक और काल्पनिक के बीच की सीमा को धुंधला कर देती है।

जेनरेटिव एडवर्सरियल नेटवर्क्स नामक कृत्रिम बुद्धिमत्ता तकनीकों का उपयोग करते हुए डीपफेक शुरुआत में एक नवाचार थी, यानी एआई में किसी की विशेषज्ञता को प्रदर्शित करने का एक मजेदार तरीका। लेकिन अब यह सच नहीं है। डीपफेक बहुतायत में हैं-राजनीतिक नेताओं के भाषणों में हेरफेर करके राजनीतिक अशांति फैलाने वाले से लेकर अनुचित सामग्रियों से मशहूर हस्तियों को जोड़ने तक।

डीपफेक के दुरुपयोग का दायरा व्यापक और बेहद परेशान करने वाला है। यह चुनाव या युद्ध जैसे मामलों में विशेष रूप से खतरनाक हो सकता है, जहां राजनीतिक नेताओं को ऐसी बातें कहते या करते हुए दिखाया जा सकता है, जो उन्होंने वास्तव में नहीं कहा या किया है-कुछ ऐसा, जो संभवतः मतदाताओं को प्रभावित कर सकता है और लोकतंत्र व चुनाव की प्रक्रिया को बर्बाद कर सकता है।

वर्ष 2020 में महारानी एलिजाबेथ ने टीवी पर एक संदेश दिया था, जो बाद में डीपफेक निकला। इस तकनीक के संभावित खतरों को उजागर करने के लिए विशेष रूप से ‘महारानी के इस भाषण’ की व्यवस्था की गई थी। उदाहरण के लिए, अमेरिकी कांग्रेस की तत्कालीन स्पीकर नैन्सी पेलोसी के एक वीडियो के साथ छेड़छाड़ की गई थी, जिसमें उन्हें एक आधिकारिक भाषण के दौरान नशे में दिखाया गया था। डोनाल्ड ट्रंप की गिरफ्तारी दिखाने वाली एक अन्य तस्वीर ने बहुत से लोगों को बेवखूफ बनाया।

भारत में इस तरफ ध्यान तब गया, जब दो अभिनेत्रियों-कटरीना कैफ और रश्मिका मंधाना के साथ डीपफेक की समस्या हुई, जो इस डार्क तकनीक से बुरी तरह प्रभावित हुईं। डार्क टेक्नोलॉजी दुनिया भर की महिलाओं को निशाना बनाती है। यहां तक कि इस बार अमिताभ बच्चन और आईटी मंत्री राजीव चंद्रशेखर तक ने इसका संज्ञान लिया। फिर कथित तौर पर भारतीय प्रधानमंत्री को भी निशाना बनाया गया था, जिसने वास्तव में भारतीय अधिकारियों को चौंका दिया। उनके दिमाग में शायद यह बात ताजा है कि कैसे इमरान खान ने जेल में रहते हुए भी पाकिस्तान के नागरिकों से अपनी ही तरह दिखने और वैसी ही आवाज में बात करने के लिए एआई तकनीक का इस्तेमाल किया था।

डीपफेक अधिक परिष्कृत होते जा रहे हैं, क्योंकि इन्हें बनाने के लिए विशेषज्ञ सॉफ्टवेयर का उपयोग किया जा रहा है। जनरेटिव एआई मॉडलों ने बड़े पैमाने पर उनका निर्माण आसान बना दिया है, अब इसके लिए किसी खास विशेषज्ञता की आवश्यकता नहीं है। तो फिर डीपफेक को हम कैसे रोक सकते हैं? इसकी पहचान के तरीके हैं, जो वीडियो में मानव आंख से न दिखने वाली विशिष्टताओं की जांच के लिए एआई और मशीन लर्निंग का उपयोग करती है। डीपट्रेस जैसी कंपनियों ने ऐसे सॉफ्टवेयर का आविष्कार किया है, जो छाया और प्रतिबिंबों का विश्लेषण करके डीपफेक की पहचान करता है। हालांकि, वायरस-एंटीवायरस की तरह यह निर्माताओं और
डिटेक्टरों के बीच होड़ को बढ़ाता है। लेकिन सिर्फ तकनीक से ही इस खतरे को नहीं रोका जा सकता है, बल्कि इसके लिए हमें विनियमन और शिक्षा की भी आवश्यकता है।

हमें डीपफेक बनाने वालों और उन्हें प्रसारित करने वालों को दंडित करने के लिए कुछ सख्त और अनुकरणीय कानून बनाने होंगे। मेटा, गूगल और टिकटॉक जैसी सोशल मीडिया कंपनियों को डीपफेक को खत्म करने के लिए कदम उठाने की जरूरत है, क्योंकि वे इन्हें फैलाने के प्राथमिक माध्यम हैं। हमें समाज में जागरूकता और डिजिटल शिक्षा बढ़ाने की भी जरूरत है, ताकि कमजोर लोग इसका निशाना बनने से बच सकें। हालांकि इस जंग को जीतने का सबसे बड़ा उपाय अपनी विशिष्ट मानवीय क्षमता को प्रकट करना और उसे वापस लाना है, जो हर तरह की नकली चीजों का पता लगाने में सक्षम बनाती है। मनुष्य के पास हमेशा ‘एक नाक’ होती है, जो आवाज, तस्वीर या टिप्पणियों के झूठ को सूंघ लेती है। हम अक्सर अपने व्यक्तिगत और पेशेवर जिंदगी में इसका उपयोग करते हैं, लेकिन कहीं न कहीं हमने अपनी इस क्षमता को खो दिया है।

हजारों समाचार संगठनों, सोशल मीडिया और व्हाट्सएप द्वारा उत्पन्न सूचनाओं और समाचारों की विशाल मात्रा हम पर हावी हो जाती है। ऐसे में हमें डीपफेक को समझने के लिए अपनी मानवीय क्षमताओं को मजबूत करने की आवश्यकता है कि कौन-सी खबरें, आवाजें और तस्वीरें थोड़ी ‘अप्रिय’ दिखती हैं या नकली हो सकती हैं। हालांकि जिस तरह से डीपफेक का परिष्कार हो रहा है, उसे देखते हुए उनकी जांच करना लगातार कठिन होता जा रहा है। लेकिन डीपफेक का पता लगाने के लिए छवियों में विसंगतियों को देखें-चेहरे की विशेषताएं ठीक से मेल नहीं खातीं, रोशनी कम लगती है, या अनियमित पलक झपकती है। यदि ऑडियो और विजुअल्स मेल नहीं खाते हैं, तो वे भी नकली होने के संकेत हैं, जहां आवाज का स्वर और ताल व्यक्ति की सामान्य वार्ता शैली से मेल नहीं खा सकते हैं। नग्न आंखों के अलावा, यह वास्तविक नहीं है।

अब जबकि हम सुपर इंटेलिजेंट एआई के अस्तित्व संबंधी खतरें पर ध्यान केंद्रित कर रहे हैं, मौजूदा वक्त में ऐसी समस्याएं हैं, जिन्हें विनियमन, प्रौद्योगिकी और शिक्षा के माध्यम से तुरंत संबोधित किए जाने की आवश्यकता है। डीपफेक उनमें से सबसे गंभीर समस्या है। इस तेजी से जटिल होती दुनिया में अपना रास्ता तलाशने के लिए हमें एआई के इस युग में और अधिक मानवीय बनने की जरूरत है।

Leave a Reply

Your email address will not be published. Required fields are marked *