‘डीप फेक’ एक ऐसा तकनीकी कमाल जिसका गलत इस्तेमाल डाल देगा हमारी सुरक्षा को खतरे में

‘डीप फेक’ एक ऐसा तकनीकी कमाल जिसका गलत इस्तेमाल डाल देगा हमारी सुरक्षा को खतरे में
ऐसा कहा जाता है कि टेक्नोलॉजी हमारे जीवन को आसान बनाती है, बेहतर बनाती है, और हमारी कार्यकुशलता को बेहतर बनाती है. लेकिन वहीं दूसरी ओर टेक्नोलॉजी के बहुत बड़े दुष्परिणाम भी होते हैं, अगर उसे सही से इस्तेमाल ना किया जाए, या उसे गलत मंतव्य से इस्तेमाल किया जाए. इन दिनों आर्टिफिशल इंटेलिजेंस का बहुत बोलबाला हो रहा है, ऐसा बताया जा रहा है कि जैसे यह टेक्नोलॉजी मानव इतिहास में सबसे बड़ा बदलाव लाने वाली है. यह हमारे आचार व्यवहार को बदल कर रख देगी, और मशीनों के उपयोग को बढ़ा देगी. हमारे रोजमर्रा के काम इस टेक्नोलॉजी द्वारा किये जाएंगे, सब कुछ ऑटोमेट कर दिया जाएगा. लेकिन इसी टेक्नोलॉजी के कुछ बहुत बड़े खतरे भी हैं.

तकनीक से जीवन में खतरा भी

पिछले ही दिनों अभिनेत्री रश्मिका मंधाना का एक वीडियो वायरल हुआ था, जिसके पश्चात उन्होंने सोशल मीडिया पर एक पोस्ट करते हुए इस वीडियो का खंडन किया था. दरअसल इस वीडियो में रश्मिका के चेहरे का इस्तेमाल किया गया था, और एक ब्रिटिश लड़की जो इंस्टाग्राम पर अच्छा ख़ासा नाम हैं, उनके शरीर पर रश्मिका का चेहरा लगाया गया था, और यह इतना सटीक बनाया गया था, कि हर किसी को यह वीडियो रश्मिका का लग रहा था. इस वीडियो को बनाने के लिए डीप फेक टेक्नोलॉजी का इस्तेमाल किया गया था. रश्मिका ने ‘डीप फेक’ टेक्नोलॉजी के खतरों को इंगित किया था, और यह भी बताया कि उन जैसी सेलिब्रिटी को इस वीडियो की सच्चाई को स्थापित करने के लिए इतने प्रयास करने पड़ रहे हैं, ऐसे में कोई आम इंसान इस तरह के वीडियो और दुष्प्रचार से कैसे लड़ पायेगा? रश्मिका ने इस टेक्नोलॉजी के भयावह पक्ष को सामने रखा है. 

डीप फेक को समझिए 

डीप फेक दरअसल एक सिंथेटिक मीडिया को कहते हैं, जिसे deep learning और generative methods को इस्तेमाल करके, किसी तस्वीर या वीडियो को तोड़-मरोड़ (मैन्युपुलेट) करके बनाया जाता है. यह आर्टिफिशियल इंटेलिजेंस और मशीन लर्निंग जैसी टेक्नोलॉजी को इस्तेमाल करता है, जिससे किसी भी प्रकार की इमेज, वीडियो या ऑडियो कंटेंट बनाया जा सकता है, और यह कंटेंट दरअसल फेक होता है, जिससे किसी को धोखा दिया जा सकता है. इसका एक उदाहरण लेते हैं. मान लीजिये आपको एक डीप फेक वीडियो बनाना है, और आप किसी फिल्म एक्टर के चेहरे का इस्तेमाल कर उसे अपने धड़ पर लगा कर एक फेक वीडियो बनाना चाहते हैं. तो आप किसी भी डीप फेक वीडियो मेकर का इस्तेमाल कर सकते हैं .यह एप्लिकेशन आपके धड़ पर उस एक्टर के चेहरे को लगा देगा, आपकी आवाज़ को उस एक्टर की आवाज़ से बदल देगा, यहां तक कि आप के चेहरे के भावों और आपके शब्दों के भाव को उस एक्टर के चेहरे और आवाज़ के भावो से बदल देगा. इसके लिए deep fake एप्लीकेशन कुछ ख़ास टेक्नोलॉजी जैसे, Deep Learning, ऑटोएनकोडर्स, डिकोडर्स और जीएएन यानी जेनरेटिव एडवर्सरियल नेटवर्क्स का इस्तेमाल करता है. इन सभी टेक्नोलॉजी का इस्तेमाल करके उस एक्टर की पहले से उपस्थित फोटो, वॉयस सैम्पल्स, वीडियो सैम्पल्स का उपयोग किया जाएगा और उसे आपके बनाये वीडियो पर इस तरह से बैठाया जाएगा, कि लगेगा जैसे यह उसी एक्टर की वीडियो, ऑडियो या तस्वीर है.

डीप फेक का इस्तेमाल गंभीर अपराधों में

चीन में पिछले दिनों एक व्यक्ति को 5 करोड़ रूपए का चूना लग गया. हुआ यह था कि उसके पास एक वीडियो कॉल आई, वीडियो में उसका करीबी दोस्त था, जो काफी परेशानी में दिख रहा था. दोस्त ने स्वयं को बहुत बुरी हालत में दिखाया और आर्थिक मदद मांगी. चूंकि दोस्त सामने दिख रहा था, बात कर रहा था, इस व्यक्ति का दिल पसीज गया, और फिर इसने अपने कथित दोस्त के दिए गए अकाउंट में पैसे ट्रांसफर कर दिए. बाद में पता लगा कि उस दोस्त ने कभी कॉल किया ही नहीं था, यह एक डीप फेक कॉल थी, और इस व्यक्ति के साथ ठगी हो गई थी. मामले की जांच पुलिस ने की, बैंक के ट्रांसफर को ट्रेस किया गया और अधिकांश पैसा रिकवर कर लिया गया. अपराधी भी पकड़ा गया. इस घटना में अपराधी ने उस व्यक्ति के दोस्त की फोटो और वीडियो का इस्तेमाल करके (जो आमतौर पर social media पर मिल ही जाती हैं) अपने चेहरे पर उसका चेहरा लगा दिया. फिर एक वीडियो कॉल मिलाई, बातें की और यह बताया कि वह किसी समस्या में है. चूंकि डीप फेक की सहायता से बनाये वीडियो में अपराधी के हाव भाव भी हूबहू पीड़ित व्यक्ति के दोस्त के जैसे हो गए थे, इसलिए उसे विश्वास हो गया, और उसने पैसे ट्रांसफर कर दिए. ऐसी ही एक घटना अमेरिका के एरिजोना में हुई, जहाँ एक 15 साल की लड़की स्कीइंग करने गई थी. अचानक से उसकी मां को एक कॉल आता है. शुरुआत उस लड़की के रोने की आवाज़ से होती है, यह सुन कर माँ घबरा जाती है और अपनी बेटी से प्रश्न पूछने की कोशिश करती है.
इतने में ही एक पुरुष की आवाज़ आती है, वह कहता है कि उस महिला की बेटी उसके कब्जे में है, और अगर 10 लाख डॉलर नहीं दिये तो वह उसकी बेटी को मार देगा. मां गिड़गिड़ाई, कहा कि इतने पैसे नहीं हैं, लेकिन अपहरण करने वाला 5 लाख डॉलर पर अड़ जाता है. माँ उससे थोड़ी मोहलत मांगती है, वह आदमी धमकी देता है कि अगर पुलिस को पता चला तो उसकी बेटी को मार देगा.

महिला अपनी एक दोस्त को फोन करती है, और उसे यह सब बताती है. वह दोस्त तुरंत उस जगह कॉल करती है जो स्कीइंग के लिए गया था, वहाँ पता लगता है कि उस लड़की का अपहरण नहीं हुआ था, वह तो वहां घूम रही थी और सुरक्षित थी. उन्होंने तुरंत 911 पर कॉल किया और उन्हें इस बारे में बताया गया, कि उसकी बेटी की आवाज में उन्हें कॉल करके डराया गया और पैसे उगाहने की कोशिश की गई.
इस घटना में अपराधी ने लड़की की आवाज के सैंपल्स सोशल मीडिया या फ़ोन रिकॉर्डिंग से, या ऐसे ही कहीं बोलते हुए लिए होंगे, और फिर उस आवाज़ के सैंपल को डीप फेक वॉयस जेनरेटर में डाला गया होगा, और फिर उस लड़की की आवाज में चीखने चिल्लाने और मदद मांगने जैसे शब्द बना लिए गए होंगे. यह तो अच्छा हुआ कि उस महिला ने अपनी दोस्त से सहायता मांगी, और उन्होंने सीधा स्कीइंग ग्रुप को ही कॉल कर लिया, अन्यथा यहां भी अपराध हो सकता था.

डीप फेक के दुष्परिणाम 

अब समस्या यह है कि जैसे जैसे कृत्रिम बुद्धि (आर्टिफिशियल इंटेलिजेंस या एआई) और मशीन लर्निंग उन्नत होती जायेगी, इस तरह की और समस्याएं बढ़ती जाएंगी. कुछ समय पहले तक Deepfake Videos को पहचानना आसान हुआ करता था. लेकिन अब App Developers ने इन कमियों को भी सुधार दिया है, वैसे भी AI तो हमेशा learn ही करता रहता है, विभिन्न Data Patterns को समझता रहता है. अब डीप फेक की एप्स इतनी उन्नत हो गयी हैं कि इनमे बनाये वीडियो में पलकें झपकना भी एकदम सामान्य लगता है, वहीं वीडियो और इमेज के Edges भी अब पहले से बेहतर हो गए हैं. कई देशों में ए आई टीवी न्यूजकास्टर भी शुरू हो गए हैं, जो हूबहू इंसान जैसे लगते हैं, और ख़बर पढते हैं. पिछले ही दिनों भारत में भी कुछ मीडिया घरों ने इसको लांच किया था. हालांकि, इसके नुकसान भी हैं, जैसे ऊपर २ उदाहरणों में बताये हैं. इसके अलावा फेक न्यूज फैलाने में इसका इस्तेमाल किया जा सकता है. डीप फेक की सहायता से चुनावी अभियान भी प्रभावित किये जा सकते हैं.

कैसे बचें डीप फेक से?

लेख में बताई दोनों घटनाओं से आप अपने आपको बचा सकते हैं. फिलहाल तो यही कहा जा सकता है कि अगर आपको अनजाने नम्बर या आइडी से वीडियो कॉल आये, तो उस पर विश्वास ना करें. किसी को पैसा देने से पहले उससे फोन पर बात करे लें. अगर करीबी दोस्त है, परेशानी में है, तो उसके परिवार में से किसी से बात कर के स्थिति के बारे में जानने का प्रयास करें. आप कहीं छुट्टी पर जा रहे हैं, या आपके बच्चे कहीं जा रहे हैं, तो उसके बारे में सोशल मीडिया पर ना लिखें. दूसरी घटना में यह बात अपराधी को पता थी, और उसी का लाभ उठाने का प्रयास किया गया. आपको तस्वीरें डालनी हैं, वापस लौट कर डाल लें. क्या पता आप ऐसे इलाके में हों जहां आपसे संपर्क ना हो पाए, और कोई अपराधी इस स्थिति का लाभ उठा कर आपके घर वालों से पैसा वसूल ले. प्रयास कीजिये कि आपकी तसवीरें, वीडियो सोशल मीडिया पर कम से कम हों. अगर आपने यह कंटेंट डाला भी है, तो प्रयास कीजिये कि आप कड़ी सिक्योरिटी सेटिंग करके रखें, ताकि आपका कंटेंट चोरी कर उसका दुरुपयोग ना किया जा सके. अंत में सबसे महत्वपूर्ण बात. टेक्नोलॉजी कितनी ही उन्नत हो जाए, वह मानव के मूलभूत स्वभाव और परिस्थितिजन्य जागरूकता का मुकाबला नहीं कर पाएगी. कोई भी अपराध तभी होता है, जब आप अपने मूल स्वभाव से हट कर निर्णय लेते हैं. आपको पता है कि शॉर्टकट से पैसा नहीं मिलता, लेकिन फिर भी लोग लालच में आ कर लाखों झोंक देते हैं, और कोई उस पैसे को लेकर चंपत हो जाता है. अपनी बेसिक इंस्टिंक्ट को बचाये रखें, तभी टेक्नोलॉजी के दुष्प्रभावो से बच पाएंगे.

Leave a Reply

Your email address will not be published. Required fields are marked *