AI और भारत का कानूनी परिदृश्य | 19 Dec 2024
यह एडिटोरियल 18/12/2024 को द हिंदू में प्रकाशित “The legal gaps in India’s unregulated AI surveillance” पर आधारित है। इस लेख में भारत में कमज़ोर कानूनी सुरक्षा उपायों के बीच फेशियल रिकॉग्निशन सहित AI-संचालित निगरानी के तेज़ी से विस्तार को दर्शाया गया है। यह इस बात पर भी प्रकाश डालता है कि किस प्रकार डिजिटल व्यक्तिगत डाटा संरक्षण अधिनियम, 2023 व्यापक सरकारी छूट प्रदान करता है, जिससे नागरिक यूरोपीय संघ के जोखिम-आधारित दृष्टिकोण के विपरीत अनियंत्रित डाटा संग्रह और गोपनीयता जोखिमों के प्रति संवेदनशील हो जाते हैं।
प्रिलिम्स के लिये:आर्टिफिशियल इंटेलिजेंस तकनीक, डिजिटल व्यक्तिगत डाटा संरक्षण अधिनियम- 2023, यूरोपीय संघ, लार्ज लैंग्वेज मॉडल, राष्ट्रीय आर्टिफिशियल इंटेलिजेंस रणनीति, सूचना प्रौद्योगिकी (मध्यस्थ संस्थानों के लिये दिशा-निर्देश और डिजिटल मीडिया आचार संहिता)- 2021, फेशियल रिकॉग्निशन टेक्नॉलजी, चार श्रम संहिताएँ, ई-कोर्ट पहल, ESG (पर्यावरण, सामाजिक और शासन) रिपोर्टिंग, भारतीय उपभोक्ता संरक्षण प्राधिकरण मुख्य परीक्षा के लिये:भारत में AI का विनियमन, AI और भारत का कानूनी परिदृश्य। |
भारत तेज़ी से AI-संचालित निगरानी ढाँचे का विस्तार कर रहा है, व्यापक कानूनी सुरक्षा उपायों के बिना कानून प्रवर्तन में फेशियल रिकॉग्निशन प्रणाली और आर्टिफिशियल इंटेलिजेंस तकनीकें तैनात कर रहा है। वर्तमान विनियामक परिदृश्य, जिसका उदाहरण डिजिटल व्यक्तिगत डाटा संरक्षण अधिनियम- 2023 है, व्यापक सरकारी छूट प्रदान करता है जो संभावित रूप से व्यक्तिगत गोपनीयता अधिकारों से समझौता करता है। यूरोपीय संघ के AI विनियमन के जोखिम-आधारित दृष्टिकोण के विपरीत, भारत में इन तकनीकों को नियंत्रित करने के लिये स्पष्ट विधायी तंत्र का अभाव है, जिससे नागरिक अनियंत्रित डाटा संग्रह और संभावित नागरिक स्वतंत्रता उल्लंघन के प्रति संवेदनशील हो जाते हैं।
वर्तमान में भारत में कृत्रिम बुद्धिमत्ता को किस प्रकार विनियमित किया जाता है?
- सूचना प्रौद्योगिकी अधिनियम, 2000: यह इलेक्ट्रॉनिक लेन-देन को वैधानिक मान्यता प्रदान करता है और इसमें इलेक्ट्रॉनिक डाटा, सूचना और रिकॉर्ड को अनधिकृत या गैर-कानूनी प्रयोग से बचाने के लिये नियम शामिल हैं।
- IT अधिनियम 2000 तथा सूचना प्रौद्योगिकी (उचित सुरक्षा पद्धतियाँ एवं प्रक्रियाएँ तथा संवेदनशील व्यक्तिगत डाटा या सूचना) नियम 2011।
- इन्हें डिजिटल इंडिया अधिनियम, 2023 द्वारा प्रतिस्थापित किया जाना है, जो वर्तमान में प्रारूप रूप में है और इसमें AI से संबंधित प्रमुख प्रावधान शामिल होने की उम्मीद है।
- सूचना प्रौद्योगिकी (मध्यस्थ संस्थानों के लिये दिशा-निर्देश और डिजिटल मीडिया आचार संहिता)- 2021 सोशल मीडिया, OTT प्लेटफॉर्म और डिजिटल समाचार मीडिया की निगरानी के लिये एक रूपरेखा प्रदान करता है।
- AI और लार्ज लैंग्वेज मॉडल पर सरकारी सलाह (मार्च 2024): पूर्वाग्रह, चुनावी हस्तक्षेप या अज्ञात AI-जेनरेटेड मीडिया को रोकने के लिये महत्त्वपूर्ण प्लेटफॉर्म को अपरीक्षित AI मॉडल को इंस्टॉल करने से पहले MeitY की मंज़ूरी लेनी होगी।
- छूट स्टार्टअप्स और छोटे प्लेटफॉर्म पर लागू होती है।
- संशोधित दिशा-निर्देशों में अविश्वसनीय AI मॉडलों की अनिवार्य लेबलिंग, कंटेंट की अशुद्धियों के लिये उपयोगकर्त्ता अधिसूचना और डीप फेक का पता लगाने के उपायों पर ध्यान केंद्रित किया गया है।
- डिजिटल व्यक्तिगत डाटा संरक्षण अधिनियम (DPDP), 2023 डाटा संग्रह, भंडारण और प्रसंस्करण को विनियमित करने वाला प्राथमिक कानून है।
- सीमाएँ: इसमें AI से संबंधित चुनौतियों जैसे एल्गोरिदम संबंधी पूर्वाग्रह या AI-जेनरेटेड डाटा दुरुपयोग के लिये विशिष्ट प्रावधानों का अभाव है।
- AI ऑडिट या जवाबदेही के लिये कोई स्पष्ट तंत्र नहीं है।
- सीमाएँ: इसमें AI से संबंधित चुनौतियों जैसे एल्गोरिदम संबंधी पूर्वाग्रह या AI-जेनरेटेड डाटा दुरुपयोग के लिये विशिष्ट प्रावधानों का अभाव है।
- उत्तरदायी AI के लिये सिद्धांत (वर्ष 2021): सात मुख्य सिद्धांत: सुरक्षा और विश्वसनीयता, समावेशिता, गैर-भेदभाव, गोपनीयता, पारदर्शिता, उत्तरदायित्व और सकारात्मक मानवीय मूल्यों का सुदृढ़ीकरण।
- सरकार, निजी क्षेत्र और अनुसंधान संस्थाओं के बीच सहयोग को प्रोत्साहित किया गया।
- राष्ट्रीय आर्टिफिशियल इंटेलिजेंस रणनीति (वर्ष 2018): NITI आयोग द्वारा #AIFORALL टैगलाइन के तहत लॉन्च की गई।
- फोकस क्षेत्र: स्वास्थ्य सेवा, शिक्षा, कृषि, स्मार्ट शहर और परिवहन।
- कार्यान्वित की गई सिफारिशें: उच्च गुणवत्ता वाले डाटासेट निर्माण और डाटा संरक्षण एवं साइबर सुरक्षा के लिये विधायी रूपरेखा।
- यह देश में भविष्य में AI विनियमन के लिये एक आधारभूत दस्तावेज़ के रूप में कार्य करता है।
- मसौदा राष्ट्रीय डाटा शासन रूपरेखा नीति (वर्ष 2022): सरकारी डाटा संग्रहण और प्रबंधन को आधुनिक बनाता है।
- इसका उद्देश्य एक व्यापक डाटासेट भंडार के माध्यम से AI-संचालित अनुसंधान और स्टार्टअप को समर्थन प्रदान करना है।
AI प्रौद्योगिकियाँ भारत के कानूनी परिदृश्य को कैसे मज़बूत कर सकती हैं?
- न्याय का समय पर और प्रभावी वितरण: AI दस्तावेज़ीकरण, केस वर्गीकरण और शेड्यूलिंग जैसे पुनरावृत्ति वाले कार्यों को स्वचालित करके केस प्रबंधन को सुव्यवस्थित कर सकता है।
- भारतीय न्यायालयों में 5 करोड़ से अधिक लंबित मामलों के साथ, AI-संचालित उपकरण प्रक्रियाओं में तेज़ी ला सकते हैं, जिससे न्यायाधीशों को मूल मामलों पर ध्यान केंद्रित करने के लिये स्वतंत्रता मिलेगी।
- AI कानूनी उदाहरणों और केस कानूनों का भी विश्लेषण कर सकता है तथा ऐतिहासिक डाटा प्रदान कर सकता है जो सूचित निर्णय लेने एवं मुकदमेबाज़ी रणनीति विकास में सहायक होता है।
- AI साक्ष्य संग्रहण, सत्यापन और विश्लेषण में सहायता कर सकता है, विशेष रूप से बड़े डाटासेट, फोरेंसिक साक्ष्य या डिजिटल धोखाधड़ी से जुड़े जटिल मामलों में।
- गुजरात स्थित राष्ट्रीय फोरेंसिक विज्ञान विश्वविद्यालय डिजिटल साक्ष्यों का विश्लेषण करने के लिये AI को एकीकृत कर रहा है, जिससे साइबर अपराध की जाँच में तेज़ी आएगी।
- दिल्ली के तीस हज़ारी ज़िला न्यायालय ने स्पीच-टू-टेक्स्ट सुविधा से युक्त अपना पहला AI-सुसज्जित 'पायलट हाइब्रिड कोर्ट' शुरू किया।
- AI-संचालित प्लेटफॉर्म संचार और संवाद ट्रैकिंग को स्वचालित करके मध्यस्थता एवं पंचनिर्णय प्रक्रियाओं को सरल बना सकते हैं।
- ODR इंडिया जैसे प्लेटफॉर्म ऑनलाइन विवाद समाधान की सुविधा के लिये AI का उपयोग करते हैं।
- भारतीय न्यायालयों में 5 करोड़ से अधिक लंबित मामलों के साथ, AI-संचालित उपकरण प्रक्रियाओं में तेज़ी ला सकते हैं, जिससे न्यायाधीशों को मूल मामलों पर ध्यान केंद्रित करने के लिये स्वतंत्रता मिलेगी।
- विधायी प्रक्रियाओं को बढ़ाना: AI विधि निर्माताओं को कानूनी और सार्वजनिक नीति संबंधी डाटा का विशाल मात्रा में प्रसंस्करण करके कानून का प्रारूप तैयार करने, उसका विश्लेषण करने तथा संशोधन करने में सहायता कर सकता है।
- AI-संचालित सिमुलेशन प्रस्तावित कानूनों के सामाजिक, आर्थिक और पर्यावरणीय प्रभाव का पूर्वानुमान कर सकते हैं, जिससे उनकी सटीकता एवं प्रासंगिकता बढ़ जाती है।
- उदाहरण के लिये, कुछ देशों में यूरोपीय संघ के विधान संपादन ओपन सॉफ्टवेयर (LEOS) जैसे उपकरणों को AI के साथ उन्नत किया गया है।
- AI-संचालित कानूनी उपकरण अब उन लोगों के लिये भी वकीलों के साथ संवाद करना आसान बनाते हैं जो वकील नहीं हैं: वे प्रक्रियाओं को गति दे सकते हैं और कानूनी शोध एवं अनुपालन विश्लेषण के लिये आवश्यक समय में कटौती कर सकते हैं।
- AI-संचालित सिमुलेशन प्रस्तावित कानूनों के सामाजिक, आर्थिक और पर्यावरणीय प्रभाव का पूर्वानुमान कर सकते हैं, जिससे उनकी सटीकता एवं प्रासंगिकता बढ़ जाती है।
- बेहतर कानून प्रवर्तन और अपराध रोकथाम: AI पूर्वानुमानित शासन, अपराध की रियल टाइम मॉनिटरिंग और साक्ष्य विश्लेषण को सक्षम करके कानून प्रवर्तन की दक्षता को बढ़ा सकता है।
- हाल ही में, दिल्ली पुलिस ने एक अज्ञात हत्या के शिकार व्यक्ति के चेहरे को पुनः निर्मित करने के लिये कृत्रिम बुद्धिमत्ता (AI) का उपयोग किया तथा उसकी पहचान के बारे में जानकारी प्राप्त करने के लिये एक पोस्टर पर उसकी छवि का उपयोग किया।
- इस नवीन दृष्टिकोण से न केवल पीड़ित की पहचान हो सकी, बल्कि इसने अपराधियों को पकड़ने में भी महत्त्वपूर्ण भूमिका निभाई।
- हाल ही में, दिल्ली पुलिस ने एक अज्ञात हत्या के शिकार व्यक्ति के चेहरे को पुनः निर्मित करने के लिये कृत्रिम बुद्धिमत्ता (AI) का उपयोग किया तथा उसकी पहचान के बारे में जानकारी प्राप्त करने के लिये एक पोस्टर पर उसकी छवि का उपयोग किया।
- अंतर्राष्ट्रीय कानूनों के अनुपालन को सुगम बनाना: AI सीमा-पार विनियमों और व्यापार कानूनों का विश्लेषण करके भारत में कार्यरत बहुराष्ट्रीय निगमों के लिये अनुपालन को सरल बना सकता है।
- स्वचालित अनुपालन उपकरण दंड के जोखिम को कम करते हैं और भारत की व्यापार सुगमता रैंकिंग में सुधार करते हैं।
- TCS और इन्फोसिस जैसी कंपनियाँ अंतर्राष्ट्रीय व्यापार समझौतों के लिये AI अनुपालन उपकरण विकसित कर रही हैं।
- कॉर्पोरेट अनुपालन को सुदृढ़ करना: AI निगरानी, रिपोर्टिंग और फाइलिंग प्रक्रियाओं को, विशेष रूप से कई अधिकार क्षेत्रों में संचालित व्यवसायों के लिये स्वचालित करके कानूनी अनुपालन को सरल बनाता है।
- भारत में ESG (पर्यावरण, सामाजिक और शासन) रिपोर्टिंग पर बढ़ते ज़ोर के साथ, AI समय पर अनुपालन सुनिश्चित करता है और उल्लंघनों को रोकता है।
- कंपनियाँ SEBI के ESG प्रकटीकरण मानदंडों के अनुपालन के लिये AI का उपयोग कर सकती हैं, जिससे मैनुअल त्रुटियाँ कम हो जाएंगी।
- उपभोक्ता संरक्षण तंत्र में सुधार: AI उपभोक्ता शिकायतों पर कार्रवाई कर सकता है, धोखाधड़ी गतिविधियों की निगरानी कर सकता है और उपभोक्ता सुरक्षा बढ़ाने के लिये बाज़ार के रुझान का पूर्वानुमान कर सकता है।
- बढ़ते ई-कॉमर्स और डिजिटल प्लेटफॉर्म के साथ, AI अधिकारियों को शिकायतों का कुशलतापूर्वक निवारण करने तथा धोखाधड़ी को रोकने में सक्षम बनाता है।
- भारतीय उपभोक्ता संरक्षण प्राधिकरण अनुचित व्यापार प्रथाओं पर नज़र रखने के लिये AI का उपयोग कर सकता है।
- पर्यावरण कानून प्रवर्तन को सुविधाजनक बनाना: AI सेंसर, उपग्रहों और फील्ड रिपोर्टों से डाटा का विश्लेषण करके पर्यावरण अनुपालन की निगरानी कर सकता है तथा विनियमों का पालन सुनिश्चित कर सकता है।
- AI उपकरण अवैध खनन या वनों की कटाई जैसे उल्लंघनों का अभिनिर्धारण करने में मदद करते हैं, जिससे त्वरित नियामक कार्रवाई संभव हो पाती है।
- कर्नाटक वन विभाग ने केवल 4 महीनों में AI-संचालित विश्लेषण और उपग्रह इमेजरी की मदद से अतिक्रमण के 167 मामलों की पहचान की है।
- बौद्धिक संपदा अधिकारों को अनिवार्य करना: AI उपकरण पेटेंट खोज, प्रारूपण और कॉपीराइट उल्लंघन का पता लगाने में सहायता करके IPR प्रक्रियाओं को सुव्यवस्थित कर सकते हैं।
- जटिल अन्वेषण और फाइलिंग को स्वचालित करके, AI तेज़ी से अनुमोदन सुनिश्चित करता है तथा फार्मास्यूटिकल्स व IT जैसे IP-गहन उद्योगों में विवादों को कम करता है।
- AI में प्रगति के साथ, अमेरिकन पेटेंट एंड ट्रेडमार्क ऑफिस (USPTO) ने AI-सहायता प्राप्त आविष्कारों के लिये पेटेंट आवेदनों में वृद्धि देखी है, जिन्हें भारत में भी दोहराया जा सकता है।
AI प्रौद्योगिकियाँ भारत के कानूनी फ्रेमवर्क को कैसे चुनौती दे रही हैं?
- गोपनीयता और डाटा संरक्षण कमज़ोरियाँ: AI प्रणालियाँ प्रायः पर्याप्त सुरक्षा उपायों के बिना, बड़े पैमाने पर व्यक्तिगत डाटा एकत्र करती हैं, उसका विश्लेषण करती हैं और उसका मुद्रीकरण करती हैं, जिससे नागरिकों के गोपनीयता अधिकारों को खतरा उत्पन्न होता है।
- डिजिटल व्यक्तिगत डाटा संरक्षण अधिनियम (वर्ष 2023) एक कदम आगे है, लेकिन इसमें सख्त प्रवर्तन तंत्र का अभाव है, विशेष रूप से AI-संचालित निगरानी के संबंध में।
- सार्वजनिक स्थानों पर फेशियल रिकॉग्निशन टेक्नॉलजी (FRT) का बड़े पैमाने पर उपयोग किया जाता है, जैसे कि स्मार्ट शासन मिशन के तहत हैदराबाद पुलिस द्वारा इसका उपयोग, जिससे बड़े पैमाने पर निगरानी की चिंता बढ़ गई है।
- साइबर हमलों में भारत विश्व स्तर पर दूसरे स्थान पर है (PwC 2022), AI का उपयोग करने वाली 40% भारतीय फर्मों में उचित डाटा सुरक्षा प्रोटोकॉल का अभाव (NASSCOM, 2023) है।
- एल्गोरिदम संबंधी निर्णय लेने में पूर्वाग्रह और भेदभाव: AI प्रणालियाँ प्रायः त्रुटिपूर्ण डाटासेट के कारण सामाजिक पूर्वाग्रहों को मज़बूत करती हैं, जिसके परिणामस्वरूप नियुक्ति, उधार और शासन में भेदभावपूर्ण परिणाम सामने आते हैं।
- एल्गोरिदम संबंधी निष्पक्षता के लिये व्यापक दिशा-निर्देशों के बिना, AI प्रणालीगत असमानताओं को कायम रखता है तथा समानता के संवैधानिक सिद्धांतों को कमज़ोर करता है।
- भारत में AI-संचालित भर्ती उपकरणों के कारण तकनीकी भूमिकाओं में महिला अभ्यर्थियों को असमान रूप से बाहर रखा गया है।
- वर्ष 2018 में, अमेज़न ने महिलाओं के खिलाफ पूर्वाग्रहों के कारण अपने गुप्त AI भर्ती इंजन को बंद कर दिया, फिर भी भारत भर में इसी तरह की प्रणालियाँ अभी भी चल रही हैं।
- बौद्धिक संपदा संघर्ष: AI-जनित कार्यों में स्वामित्व की रेखाओं को धुँधला करके AI आईपी कानून के मूलभूत सिद्धांतों को चुनौती देता है।
- भारत के कॉपीराइट फ्रेमवर्क में AI-जनरेटेड कंटेंट पर स्पष्टता का अभाव है, जिससे रचनाकारों को शोषण का खतरा बना रहता है।
- कॉपीराइट अधिनियम, 1957 के अनुसार, कोई भी रचना तभी कॉपीराइट के लिये योग्य है जब वह मौलिक हो और मानव द्वारा लिखी गई हो। इसलिये, AI बनाए जनरेटेड कंटेंट को कॉपीराइट योग्य नहीं माना जाता है।
- एंडरसन बनाम स्टेबिलिटी AI लिमिटेड मामला अस्पष्ट कॉपीराइट सुरक्षा के बीच कलाकारों की कमज़ोरियों को उजागर करता है।
- भारत के कॉपीराइट फ्रेमवर्क में AI-जनरेटेड कंटेंट पर स्पष्टता का अभाव है, जिससे रचनाकारों को शोषण का खतरा बना रहता है।
- आर्थिक असमानता और श्रम कानून चुनौतियाँ: AI-संचालित स्वचालन से बेरोज़गारी और आर्थिक असमानता बढ़ने का खतरा है, जिससे भारत की श्रम सुरक्षा को चुनौती मिल रही है।
- भारत के श्रम कानून, जिनमें चार श्रम संहिताएँ भी शामिल हैं, कृत्रिम बुद्धिमत्ता के कारण होने वाले रोज़गार विस्थापन पर ध्यान नहीं देते हैं।
- मैकिन्से ग्लोबल इंस्टीट्यूट की रिपोर्ट के अनुसार, स्वचालन के कारण वर्ष 2030 तक भारत के विनिर्माण क्षेत्र में 60 मिलियन तक श्रमिकों को बेरोज़गार होना पड़ सकता है, जिसमें वस्त्र और इलेक्ट्रॉनिक्स जैसे उद्योग विशेष रूप से प्रभावित होंगे।
- राष्ट्रीय सुरक्षा खतरे: साइबर हमलों, डीप फेक और गलत सूचना अभियानों में AI का दुरुपयोग भारत की आंतरिक सुरक्षा के लिये खतरा है।
- लोकसभा चुनाव- 2024 के दौरान, चुनावी अखंडता को कमज़ोर करते हुए गलत सूचना फैलाने के लिये डीप-फेक वीडियो का इस्तेमाल किया गया।
- वर्ष 2023 में, भारत को साइबर हमले की घटनाओं में वृद्धि का सामना करना पड़ेगा, वर्ष 2022 की तुलना में प्रति संगठन साप्ताहिक हमलों में 1.5% की वृद्धि होगी।
- भारत में AI-विशिष्ट साइबर सुरक्षा विनियमों का अभाव है, जिससे बैंकिंग और रक्षा जैसे महत्त्वपूर्ण क्षेत्र असुरक्षित हैं।
- नैतिक और जवाबदेही संबंधी चिंताएँ: स्वास्थ्य सेवा, कानून प्रवर्तन और सार्वजनिक सेवाओं में AI अनुप्रयोग नैतिक मानकों एवं उत्तरदायित्व को लेकर प्रश्न उठाते हैं।
- AI प्रणालियों की त्रुटियों के कारण स्पष्ट जवाबदेही तंत्र का अभाव होता है, जिसके कारण विवादों में कानूनी शून्यता उत्पन्न होती है।
- JAMA में प्रकाशित एक हालिया अध्ययन में चिकित्सकों की निदान सटीकता पर व्यवस्थित रूप से पक्षपाती कृत्रिम बुद्धिमत्ता (AI) के प्रभाव की जाँच की गई है।
- निष्कर्षों से पता चलता है कि पक्षपाती AI मॉडल से किये गे पूर्वानुमानों ने आधारभूत स्तर की तुलना में चिकित्सकों की सटीकता को 11.3% तक कम कर दिया।
- AI परिनियोजन के पर्यावरणीय प्रभाव: AI प्रशिक्षण मॉडल की ऊर्जा-गहन प्रकृति भारत की पर्यावरणीय चुनौतियों को बढ़ाती है, जिसमें बढ़ती कार्बन उत्सर्जन भी शामिल है।
- ChatGPT-3 जैसे लार्ज लैंग्वेज मॉडल को प्रशिक्षित करने के लिये पर्याप्त ऊर्जा की आवश्यकता होती है, जिसमें 10 गीगावाट-घंटे (GWh) विद्युत की खपत होती है।
- भारत के कानूनी तंत्र में संवहनीय AI प्रथाओं के लिये अनिवार्यताओं का अभाव है, जो इसकी जलवायु प्रतिबद्धताओं के विपरीत है।
भारत में AI विनियमन को दृढ़ करने और ज़िम्मेदार AI उपयोग सुनिश्चित करने के लिये क्या कदम उठाए जा सकते हैं?
- एक व्यापक AI-विशिष्ट कानून बनाना: भारत को एक समर्पित कानून की आवश्यकता है जो नैतिक दिशा-निर्देशों, जवाबदेही तंत्र और जोखिम वर्गीकरण सहित AI-संबंधित चुनौतियों का समाधान करना चाहिये।
- यूरोपीय संघ का AI अधिनियम (जो वर्ष 2024 में लागू होगा) AI अनुप्रयोगों के लिये एक स्तरीय जोखिम फ्रेमवर्क प्रदान करता है; भारत स्थानीय संदर्भों के अनुरूप ऐसे ही दृष्टिकोण अपना सकता है।
- स्वतंत्र AI विनियामक प्राधिकरण की स्थापना: AI की तैनाती की देखरेख, अनुपालन सुनिश्चित करने और शिकायतों का समाधान करने के लिये भारतीय AI नैतिकता एवं शासन प्राधिकरण जैसे केंद्रीकृत निकाय का निर्माण किया जाना चाहिये।
- एक समर्पित नियामक विभिन्न क्षेत्रों में AI शासन में एकरूपता सुनिश्चित कर सकता है, जिससे विखंडन और दुरुपयोग में कमी आएगी।
- यूके का सेंटर फॉर डाटा एथिक्स एंड इनोवेशन, नैतिक AI उपयोग के लिये एक मॉडल के रूप में कार्य करता है।
- एल्गोरिदम संबंधी जवाबदेही और ऑडिट को अनिवार्य बनाना: AI डेवलपर्स के लिये पूर्वाग्रहों, अकुशलताओं और नैतिक कमियों का पता लगाने के लिये एल्गोरिदम का नियमित ऑडिट को आवश्यक बनाने वाले कानून लागू किये जाने चाहिये।
- यदि नियुक्ति, ऋण देने या निगरानी के लिये उपयोग किये जाने वाले AI उपकरणों में एल्गोरिदम संबंधी पूर्वाग्रहों पर ध्यान नहीं दिया गया, तो वे प्रणालीगत भेदभाव को जन्म दे सकते हैं।
- उदाहरण के लिये, वर्ष 2023 में, भारतीय प्रतिस्पर्द्धा आयोग ने ई-कॉमर्स प्लेटफॉर्मों पर एल्गोरिदम मूल्य निर्धारण के कारण होने वाले मूल्य भेदभाव पर चिंताओं को उजागर किया।
- स्वास्थ्य सेवा और वित्त जैसे महत्त्वपूर्ण क्षेत्रों में AI जीवनचक्र प्रबंधन के भाग के रूप में अधिदेश पूर्वाग्रह प्रभाव आकलन (BIA) और व्याख्यात्मकता मानक लागू किये जाने चाहिये।
- यदि नियुक्ति, ऋण देने या निगरानी के लिये उपयोग किये जाने वाले AI उपकरणों में एल्गोरिदम संबंधी पूर्वाग्रहों पर ध्यान नहीं दिया गया, तो वे प्रणालीगत भेदभाव को जन्म दे सकते हैं।
- AI प्रणालियों के लिये साइबर सुरक्षा विनियमों को मज़बूत करना: संवेदनशील डाटा की सुरक्षा और AI-सक्षम साइबर खतरों से बचाव हेतु AI अनुप्रयोगों के लिये दृढ साइबर सुरक्षा मानकों का विकास किया जाना चाहिये।
- CERT-In को नियमित भेद्यता आकलन को अनिवार्य बनाना चाहिये तथा जोखिमों से निपटने के लिये AI-विशिष्ट खतरा निगरानी प्रणालियों को अपनाना चाहिये।
- विनियामक सैंडबॉक्स के माध्यम से ज़िम्मेदार AI उपयोग को बढ़ावा देना: सुरक्षा और अनुपालन सुनिश्चित करते हुए AI नवाचारों के नियंत्रित परीक्षण की अनुमति देने के लिये विनियामक सैंडबॉक्स के उपयोग का विस्तार किया जाना चाहिये।
- सैंडबॉक्स बड़े पैमाने पर जोखिम उत्पन्न किये बिना AI प्रौद्योगिकियों के पुनरावृत्त परीक्षण और परिशोधन को सक्षम बनाता है।
- NITI आयोग के तहत क्रॉस-सेक्टरल सैंडबॉक्स स्थापित करने से इसकी शुरुआत की जा सकती है, ताकि स्वास्थ्य देखभाल निदान, स्मार्ट शहरों और पर्यावरण निगरानी जैसे क्षेत्रों में AI का परीक्षण किया जा सके।
- शिक्षा और प्रशिक्षण में नैतिक AI सिद्धांतों को एकीकृत करना: उच्च शिक्षा पाठ्यक्रम और कॉर्पोरेट प्रशिक्षण कार्यक्रमों में नैतिक AI विकास एवं ज़िम्मेदार इंस्टॉलेशन को शामिल किया जाना चाहिये।
- डेवलपर्स और निर्णयकर्त्ताओं को AI नैतिकता के बारे में शिक्षित करने से यह सुनिश्चित होता है कि भविष्य की प्रौद्योगिकियाँ समावेशिता एवं निष्पक्षता को प्राथमिकता देंगी।
- सभी सरकारी वित्तपोषित AI परियोजनाओं के लिये AI नैतिकता प्रशिक्षण को अनिवार्य बनाया जाना चाहिये और निजी फर्मों को समान कार्यक्रम अपनाने के लिये प्रोत्साहित किया जाना चाहिये।
- डाटा पारदर्शिता और पहुँच नियंत्रण सुनिश्चित करना: डाटा उपयोग, मॉडल प्रशिक्षण और निर्णय लेने की प्रक्रियाओं पर अनिवार्य प्रकटीकरण को लागू करके AI प्रणालियों में पारदर्शिता बढ़ाया जाना चाहिये।
- पारदर्शिता के बिना, AI प्रणालियाँ ब्लैक-बॉक्स निर्णय लेने को जारी रखने का जोखिम उठाती हैं, जिससे जनता का विश्वास कम होता है।
- स्पष्टीकरण के अधिकार के प्रावधानों को शामिल करने के लिये DPDP अधिनियम, 2023 में संशोधन किया जाना चाहिये, जिससे उपयोगकर्त्ता उन AI-संचालित परिणामों को समझ सकेंगे जो उन्हें प्रभावित करते हैं।
- हरित AI प्रथाओं को प्रोत्साहित करना: पर्यावरणीय प्रभाव को कम करने के लिये ऊर्जा-कुशल AI प्रणालियों के विकास को प्रोत्साहित किया जाना चाहिये।
- बड़े AI मॉडलों को प्रशिक्षित करने में भारी मात्रा में ऊर्जा की खपत होती है, जो पेरिस समझौते के तहत भारत की जलवायु प्रतिबद्धताओं के विपरीत है।
- हरित कंप्यूटिंग प्रथाओं को अपनाने वाली AI फर्मों को कर लाभ प्रदान किया जाना चाहिये और संवहनीय AI विकास के लिये मानक स्थापित किया जाना चाहिये।
निष्कर्ष:
जबकि AI में भारत के विभिन्न क्षेत्रों में क्रांति लाने की क्षमता है, लेकिन तीव्रता से इसके अंगीकरण से गोपनीयता, जवाबदेही और पूर्वाग्रह के संदर्भ में महत्त्वपूर्ण चिंताएँ उत्पन्न होती हैं। भारत को AI को विनियमित करना चाहिये लेकिन नवाचार की कीमत पर नहीं। मौजूदा कानूनी ढाँचे, विशेष रूप से डिजिटल व्यक्तिगत डाटा संरक्षण अधिनियम (वर्ष 2023) को AI प्रौद्योगिकियों द्वारा उत्पन्न अद्वितीय चुनौतियों का समाधान करने के लिये सुदृढ़ किया जाना चाहिये। भारत को नागरिकों के अधिकारों की रक्षा के लिये एक व्यापक AI-विशिष्ट कानून अपनाना चाहिये, नियामक निकायों की स्थापना करनी चाहिये और नैतिक AI प्रथाओं को बढ़ावा देना चाहिये।
दृष्टि मेन्स प्रश्न: प्रश्न. भारत में आर्टिफिशियल इंटेलिजेंस के विकास और तैनाती से जुड़े कानूनी परिदृश्य का परीक्षण किया जाना चाहिये। यह सुनिश्चित करने के लिये क्या उपाय लागू किये जा सकते हैं कि AI प्रौद्योगिकियों का ज़िम्मेदारी से उपयोग किया जाए? |
UPSC सिविल सेवा परीक्षा, विगत वर्ष के प्रश्नप्रश्न. विकास की वर्तमान स्थिति में, कृत्रिम बुद्धिमत्ता (Artificial Intelligence), निम्नलिखित में से किस कार्य को प्रभावी रूप से कर सकती है? (2020)
नीचे दिये गए कूट का प्रयोग कर सही उत्तर चुनिये: (a) केवल 1,2, 3 और 5 उत्तर: (b) |