क्या भारत में AI से जुड़े खतरे से निपटने के लिए पर्याप्त कानून हैं?

क्या भारत में AI से जुड़े खतरे से निपटने के लिए पर्याप्त कानून हैं? किन संस्थाओं की है जिम्मेदारी

भारत में AI का इस्तेमाल तेजी से बढ़ रहा है और इससे जुड़े खतरे भी बढ़ रहे हैं. जैसे-जैसे AI हमारे जीवन में समाया जा रहा है, वैसे-वैसे डेटा प्रोटेक्शन, भेदभाव और गलत जानकारी जैसे मुद्दे भी उभर रहे हैं.

भारत सरकार ने साल 2019 में पुलिसिंग के लिए दुनिया का सबसे बड़ा चेहरा पहचानने वाला सिस्टम बनाने का ऐलान करके सबको चौंका दिया था. अब, यह सच होता दिख रहा है. रेलवे स्टेशनों पर आर्टिफिशियल इंटेलिजेंस (AI) आधारित कैमरे लग चुके हैं और दिल्ली पुलिस भी AI की मदद से गश्त करने की तैयारी कर रही है. अब सरकार 50 नए AI वाले सैटेलाइट भी छोड़ने वाली है जिससे पूरे देश पर नजर रखी जा सकेगी.

भारत में AI कैमरों और सर्विलांस सिस्टम का जाल तेजी से फैल रहा है, लेकिन इनके इस्तेमाल के लिए कोई पुख्ता कानून नहीं बना है. नया डिजिटल पर्सनल डेटा प्रोटेक्शन एक्ट 2023 भी सरकार को लोगों की जानकारी इकट्ठा करने की बहुत छूट देता है, जिससे हमारी निजता खतरे में पड़ सकती है. यूरोपियन यूनियन में आर्टिफिशियल इंटेलिजेंस के इस्तेमाल के सख्त नियम हैं, लेकिन भारत में ऐसा कुछ नहीं है. 

AI के खतरों से निपटने की जिम्मेदारी: भारत में कौन है जिम्मेदार?
आर्टिफिशियल इंटेलिजेंस तकनीक जहां एक तरफ विकास के नए रास्ते खोल रही है, वहीं दूसरी तरफ इससे जुड़े खतरे भी बढ़ रहे हैं. भारत में AI के दुरुपयोग से होने वाले अपराधों और खतरों से निपटने की जिम्मेदारी कई संस्थाओं की है. इनमें सरकारी और प्राइवेट दोनों ही शामिल हैं.

AI के इस्तेमाल के लिए नीतियां बनाना और नियमों का पालन करवाना सरकार की सबसे बड़ी जिम्मेदारी है. इसमें इलेक्ट्रॉनिक्स एंड इंफोरमेंशन टेक्नोलॉजी मनिस्ट्री (MeitY) मुख्य भूमिका निभाता है. AI के विकास और सही इस्तेमाल के लिए रणनीति बनाना नीति आयोग का काम है. AI से जुड़े अपराधों की रोकथाम और जांच करना गृह मंत्रालय और पुलिस की जिम्मेदारी है. AI से जुड़े क़ानूनों को बनाना और उन्हें लागू करना विधि मंत्रालय का काम है.

भारत में आर्टिफिशियल इंटेलिजेंस के लिए क्या कानून हैं?
अभी भारत में आर्टिफिशियल इंटेलिजेंस के लिए कोई खास कानून नहीं बना है, लेकिन कुछ पुराने कानून इसके कुछ हिस्सों पर लागू होते हैं.

  • सूचना प्रौद्योगिकी अधिनियम 2000: यह कानून ऑनलाइन लेनदेन को मान्यता देता है और आपके कंप्यूटर या मोबाइल में मौजूद जानकारी को चोरी होने से बचाता है. 
  • सूचना प्रौद्योगिकी (उचित सुरक्षा प्रथाओं और प्रक्रियाओं और संवेदनशील व्यक्तिगत डेटा या जानकारी) नियम 2011: यह नियम लोगों की निजी जानकारी को सुरक्षित रखने से जुड़ा है.
  • डिजिटल इंडिया अधिनियम 2023: यह कानून अभी बन रहा है और इसमें AI के इस्तेमाल के लिए कुछ नियम होने की उम्मीद है.
    सूचना प्रौद्योगिकी (मध्यस्थ दिशानिर्देश और डिजिटल मीडिया आचार संहिता) 2021: यह कानून सोशल मीडिया, ऑनलाइन वीडियो प्लेटफॉर्म और डिजिटल न्यूज मीडिया पर नजर रखता है.

क्या भारत में AI से जुड़े खतरे से निपटने के लिए पर्याप्त कानून हैं? किन संस्थाओं की है जिम्मेदारी

डिजिटल पर्सनल डेटा प्रोटेक्शन एक्ट (DPDP) 2023
2023 में पास हुआ DPDPA क़ानून भारत में लोगों की निजी जानकारी की सुरक्षा के लिए बनाया गया था. इसका मकसद था यह तय करना कि कंपनियां और सरकार आपकी जानकारी कैसे इकट्ठा कर सकती हैं, कितने समय तक रख सकती हैं और उसका क्या इस्तेमाल कर सकती हैं.

इस कानून में कुछ ऐसी छूट दी गई हैं जिनसे सरकार को बहुत ज्यादा ताकत मिल जाती है और वह बिना किसी रोक-टोक के लोगों की जानकारी का इस्तेमाल कर सकती है. धारा 7(g) के अनुसार, अगर कोई महामारी फैलती है, तो सरकार लोगों की मंजूरी के बिना ही उनकी जानकारी इकट्ठा कर सकती है और उसका इस्तेमाल कर सकती है. धारा 7(i) सरकार को नौकरी से जुड़ी जानकारी इकट्ठा करने और उसका इस्तेमाल करने की छूट देती है.

DPDPA में एक तरफ तो नागरिकों पर सख्त नियम लागू किए गए हैं, वहीं सरकार को डेटा इकट्ठा करने और उसका इस्तेमाल करने की छूट दी गई है. AI का इस्तेमाल करके सरकार लोगों की निजी जानकारी इकट्ठा कर सकती है और उन पर नजर रख सकती है. DPDPA में मौजूद कमियों के कारण यह खतरा और बढ़ जाता है.

वहीं, इस कानून में AI से जुड़ी समस्याओं जैसे  एल्गोरिथम में पक्षपात या AI द्वारा बनाए गए डेटा के गलत इस्तेमाल के बारे में कुछ खास नहीं बताया गया है. यह कानून यह नहीं बताता कि AI सिस्टम की जांच कैसे की जाएगी या अगर AI से कोई नुकसान होता है तो कौन जिम्मेदार होगा.

नए नियम क्या हैं?
मार्च 2024 में भारत सरकार ने एआई और लार्ज लैंग्वेज मॉडल (LLM) के इस्तेमाल के लिए कुछ नए नियम बनाए हैं. ये नियम खासतौर पर उन बड़े प्लेटफॉर्म्स के लिए हैं जो एआई का इस्तेमाल करते हैं, जैसे कि गूगल, फेसबुक. अब बड़े प्लेटफॉर्म्स को नए AI मॉडल को लोगों तक पहुंचाने से पहले सरकार से मंजूरी लेनी होगी. स्टार्टअप और छोटे प्लेटफॉर्म्स को इस नियम से छूट दी गई है. 

अगर कोई AI मॉडल अभी पूरी तरह से परखा नहीं गया है, तो उसे लेबल करना होगा, ताकि लोग जान सकें कि उससे मिली जानकारी पूरी तरह सही नहीं भी हो सकती है. अगर AI से कोई गलत जानकारी बनती है, तो प्लेटफॉर्म को लोगों को इसके बारे में बताना होगा. साथ ही उस प्लेटफॉर्म्स को डीपफेक का पता लगाने के लिए तरीके भी ढूंढने होंगे.

सरकार ये नियम इसलिए लेकर आई क्योंकि AI में बहुत सी खामियां भी हैं. जैसे एआई कभी-कभी भेदभाव कर सकता है, क्योंकि उसे जिस डेटा से ट्रेन किया जाता है, उसमें पहले से ही पक्षपात हो सकता है. एआई का इस्तेमाल चुनाव को प्रभावित करने के लिए गलत जानकारी फैलाने के लिए किया जा सकता है. एआई ऐसी तस्वीरें या वीडियो बना सकता है जो असली लगें, लेकिन नकली हों (जिन्हें डीप फेक कहा जाता है). इससे लोगों को गुमराह किया जा सकता है.

एल्गोरिथम में पक्षपात और भेदभाव
एआई सिस्टम कई बार गलत फैसले ले सकते हैं जिससे भेदभाव हो सकता है. एआई को जिस डेटा से सिखाया जाता है, अगर उसमें पहले से ही भेदभाव है, तो AI भी वही भेदभाव करेगा. अगर AI को यह नहीं बताया जाएगा कि उसे निष्पक्ष फैसले कैसे लेने हैं, तो वह समाज में मौजूद गलत बातों को ही दोहराएगा. यह समानता के अधिकार का उल्लंघन है.

भारत में कुछ AI टूल ऐसे  हैं जो टेक्नोलॉजी की नौकरियों के लिए महिलाओं को नहीं चुनते. साल 2018 में अमेजन को अपना AI टूल बंद करना पड़ा क्योंकि वह महिलाओं के साथ भेदभाव कर रहा था. लेकिन ऐसे ही और AI टूल भारत में इस्तेमाल हो रहे होंगे.

AI तकनीकें भारत की कानूनी व्यवस्था को कैसे चुनौती दे रही हैं?
एआई सिस्टम बहुत सारा डेटा इकट्ठा करते हैं, उसका विश्लेषण करते हैं. कई बार यह काम लोगों की जानकारी की सुरक्षा का ध्यान रखे बिना किया जाता है, जिससे लोगों की निजता खतरे में पड़ जाती है. डिजिटल पर्सनल डेटा प्रोटेक्शन एक्ट (2023) एक अच्छा कदम है, लेकिन इसमें एआई द्वारा की जाने वाली निगरानी को रोकने के लिए सख्त नियम नहीं हैं. ऐसे ही चेहरे की पहचान करने वाली तकनीक (FRT) का इस्तेमाल सार्वजनिक जगहों पर बढ़ रहा है, जैसे कि हैदराबाद पुलिस द्वारा स्मार्ट पुलिसिंग मिशन. लेकिन इससे लोगों की निगरानी बढ़ने का डर है. 

भारत में साइबर हमले बहुत ज्यादा होते हैं. PwC की 2022 की रिपोर्ट के अनुसार, भारत दुनिया में दूसरे नंबर पर है. NASSCOM की 2023 की रिपोर्ट बताती है कि 40% भारतीय कंपनियां जो एआई का इस्तेमाल करती हैं, उनके पास डेटा सुरक्षा के अच्छे इंतजाम नहीं हैं. 

क्या भारत में AI से जुड़े खतरे से निपटने के लिए पर्याप्त कानून हैं? किन संस्थाओं की है जिम्मेदारी

AI का गलत इस्तेमाल देश की सुरक्षा के लिए खतरा?
एआई का गलत इस्तेमाल देश की सुरक्षा के लिए बड़ा खतरा बन सकता है. हैकर्स AI का इस्तेमाल करके ज्यादा तेज और खतरनाक साइबर हमले कर सकते हैं. इससे सरकारी वेबसाइट्स, बैंकों और दूसरे जरूरी सिस्टमों को नुकसान पहुंच सकता है.

एआई का इस्तेमाल नेताओं की छवि खराब करने, लोगों को भड़काने और समाज में अशांति फैलाने के लिए किया जा सकता है. सोशल मीडिया पर झूठी खबरें और अफवाहें फैलाने के लिए किया जा सकता है. इससे लोगों को गुमराह किया जा सकता है.

उदाहरण के लिए लोकसभा चुनाव 2024 के दौरान डीप फेक वीडियो का इस्तेमाल करके नेताओं के बारे में झूठी बातें फैलाई गईं. 2023 में भारत में साइबर हमले बहुत बढ़ गए. 2022 की तुलना में हर हफ्ते 15% ज्यादा हमले हुए. 

Leave a Reply

Your email address will not be published. Required fields are marked *