लखनऊ शाखा पर IAS GS फाउंडेशन का नया बैच 23 दिसंबर से शुरू :   अभी कॉल करें
ध्यान दें:



डेली अपडेट्स

शासन व्यवस्था

सेना में कृत्रिम बुद्धिमत्ता के उपयोग पर वैश्विक सम्मेलन

  • 18 Feb 2023
  • 8 min read

प्रिलिम्स के लिये:

REAIM 2023, कृत्रिम बुद्धिमत्ता, उत्तरदायी AI। 

मेन्स के लिये:

REAIM 2023, सेना में कृत्रिम बुद्धिमत्ता के उपयोग करने के पक्ष और विपक्ष में तर्क, AI के लिये नैतिक सिद्धांत।

चर्चा में क्यों? 

हाल ही में सेना में कृत्रिम बुद्धिमत्ता के उत्तरदायी उपयोग पर विश्व का पहला अंतर्राष्ट्रीय शिखर सम्मेलन (REAIM 2023) हेग, नीदरलैंड में आयोजित किया गया था।  

शिखर सम्मेलन के मुख्य बिंदु:

  • विषय वस्तु: 
    • मिथबस्टिंग AI: ब्रेकिंग डाउन द  एआई की विशेषताओं को तोड़ना
    • उत्तरदायी तैनाती और AI का उपयोग
    • शासन ढाँचा
  • उद्देश्य: 
    • 'सैन्य क्षेत्र में उत्तरदायी AI' के विषय को राजनीतिक एजेंडे में ऊपर रखना;
    • संबंधित अगले कदमों में योगदान करने के लिये हितधारकों के एक विस्तृत समूहों को एकीकृत और सक्रिय करना; 
    • अनुभवों, सर्वोत्तम प्रथाओं और समाधानों को साझा करके ज्ञान को बढ़ावा देना और तीव्र करना। 
  • प्रतिभागी:  
    • दक्षिण कोरिया द्वारा सह-आयोजित सम्मेलन में 80 सरकारी प्रतिनिधिमंडलों (अमेरिका और चीन सहित) और 100 से अधिक शोधकर्त्ताओं और रक्षा व्यवसायियों  मेज़बानी की गई। 
      • भारत शिखर सम्मेलन में भागीदार नहीं था।
    • REAIM 2023 जागरूकता बढ़ाने, मुद्दों पर चर्चा करने और सशस्त्र संघर्षों में कृत्रिम बुद्धिमत्ता (AI) की तैनाती और उपयोग में सामान्य सिद्धांतों पर सहमत होने के लिये सरकारों, निगमों, शिक्षाविदों, स्टार्टअप्स और नागरिक समाजों को एक साथ लाया है। 
  • कॉल ऑन एक्शन:
    • AI के उपयोग से उत्पन्न होने वाले जोखिमों को कम करने के लिये बहु-हितधारक समुदाय से सामान्य मानकों का निर्माण करने की अपील की गई है।
    • अमेरिका ने सैन्य क्षेत्र में कृत्रिम बुद्धिमत्ता (AI) के ज़िम्मेदार उपयोग का आह्वान किया है और एक घोषणा का प्रस्ताव दिया जिसमें 'मानव जवाबदेही' शामिल होगी। 
    • प्रस्ताव में कहा गया है कि AI-हथियार प्रणालियों में "मानव निर्णय के उचित स्तर" शामिल होने चाहिये।
      • अमेरिका और चीन ने 60 से अधिक देशों के साथ घोषणा पर हस्ताक्षर किये है। 
  • अवसर और चिंताएँ: 
    • कृत्रिम बुद्धिमत्ता हमारी दुनिया में मौलिक बदलाव ला रहा है, जिसमें सैन्य डोमेन भी शामिल है।  
    • जबकि AI प्रौद्योगिकियों का एकीकरण मानव क्षमताओं को बढ़ावा देने के लिये अभूतपूर्व अवसर पैदा करता है, विशेष रूप से निर्णय लेने के मामले में, यह पारदर्शिता, विश्वसनीयता, भविष्यवाणी, उत्तरदायित्त्व और पूर्वाग्रह जैसे क्षेत्रों में महत्त्वपूर्ण कानूनी, सुरक्षा संबंधी तथा नैतिक चिंताओं को भी उठाता है।
    • उच्च जोखिम वाले सैन्य संदर्भ में ये आशंकाएँ बढ़ गई हैं।
  • AI की समाधान के रूप में व्याख्या: 
    • कृत्रिम बुद्धिमत्ता प्रणाली से पूर्वाग्रह को दूर करने हेतु शोधकर्त्ताओं ने 'व्याख्यात्मकता (Explainability)' का सहारा लिया है।
    • व्याख्यात्मक कृत्रिम बुद्धिमत्ता के निर्णय लेने के तरीके के बारे में जानकारी की कमी को दूर कर सकता है।
    • यह बदले में पूर्वाग्रहों को दूर करने और एल्गोरिथम को निष्पक्ष बनाने में मदद करेगा। साथ ही अंतिम निर्णय लेने की ज़िम्मेदारी एक मानव के पास रहेगी।

नैतिक सिद्धांतों के आधार पर AI की ज़िम्मेदारी का निर्धारण:

  • AI विकास और परिनियोजन हेतु नैतिक दिशानिर्देश:  
    • यह सुनिश्चित करने में मदद कर सकता है कि डेवलपर्स तथा संगठन समान नैतिक मानकों पर काम कर रहे हैं और कृत्रिम बुद्धिमत्ता प्रणाली को नैतिकता को ध्यान में रखकर डिज़ाइन किया गया है।
  • जवाबदेही तंत्र:  
    • डेवलपर्स और संगठनों को उनके कृत्रिम बुद्धिमत्ता प्रणाली के प्रभाव हेतु जवाबदेह ठहराया जाना चाहिये।
    • इसमें ज़िम्मेदारी और उत्तरदायित्त्व की स्पष्ट निर्धारण करना, साथ ही उत्पन्न होने वाली किसी भी घटना या समस्या हेतु रिपोर्टिंग तंत्र बनाना शामिल हो सकता है।
  • पारदर्शिता को बढ़ावा दिया जाना:  
    • AI प्रणाली को पारदर्शी होना चाहिये, विशेषकर उनकी निर्णय प्रक्रिया और इस प्रक्रिया के लिये उनके द्वारा उपयोग किये जाने वाले डेटा के सदर्भ में।
    • इससे यह सुनिश्चित करने में मदद मिल सकती है कि AI प्रणाली निष्पक्ष हैं और कुछ विशेष समूहों अथवा व्यक्तियों के प्रति पक्षपाती नहीं हैं।
  • गोपनीयता की रक्षा:  
    • AI सिस्टम द्वारा उपयोग किये जाने व्यक्तियों की गोपनीयता की रक्षा के लिये संगठनों को आवश्यक कदम उठाने चाहिये।
      • इसमें अज्ञात डेटा का उपयोग करना, व्यक्तियों से सहमति प्राप्त करना और स्पष्ट डेटा सुरक्षा नीतियाँ स्थापित करना शामिल किया जा सकता है।
  • विविध हितधारकों को शामिल करना:
    • AI के विकास और परिनियोजन में विविध प्रकार के हितधारकों को शामिल करना महत्त्वपूर्ण है, जिसमें विभिन्न पृष्ठभूमि और दृष्टिकोण वाले व्यक्ति शामिल हों।
    • इससे यह सुनिश्चित करने में मदद मिलेगी कि AI प्रणाली को विभिन्न समूहों की जरूरतों और चिंताओं को ध्यान में रखते हुए डिज़ाइन किया जाए।
  • नियमित नैतिक लेखा-परीक्षण करना:
    • संगठनों को यह सुनिश्चित करने के लिये अपने AI प्रणाली का नियमित लेखा-परीक्षण करना चाहिये कि वे नैतिक सिद्धांतों और मूल्यों के अनुरूप हैं अथवा नहीं। यह अपेक्षित सुधार के लिये किसी भी मुद्दे अथवा क्षेत्रों की पहचान करने में मदद कर सकता है और यह सुनिश्चित कर सकता है कि AI प्रणाली नैतिक और ज़िम्मेदार तरीके से काम करना जारी रखे।

स्रोत: द हिंदू

close
एसएमएस अलर्ट
Share Page
images-2
images-2