लखनऊ शाखा पर IAS GS फाउंडेशन का नया बैच 23 दिसंबर से शुरू :   अभी कॉल करें
ध्यान दें:



डेली अपडेट्स

विज्ञान एवं प्रौद्योगिकी

AI: एक दोधारी तलवार

  • 19 Mar 2024
  • 25 min read

यह एडिटोरियल 18/03/2024 को ‘द हिंदू’ में प्रकाशित “Many elections, AI’s dark dimension” लेख पर आधारित है। इसमें वर्ष 2024 में विभिन्न देशों में आसन्न चुनाव के परिप्रेक्ष्य में लोकतंत्र पर AI के संभावित प्रभाव पर चर्चा की गई है। इसमें AI में लोकतांत्रिक प्रक्रियाओं को बाधित करने की निहित क्षमता और इसके निहितार्थों पर भी विचार किया गया है।

प्रिलिम्स के लिये:

आर्टिफिशियल इंटेलिजेंस (AI), एथिकल AI, मशीन लर्निंग, लार्ज लैंग्वेज मॉडल, कृत्रिम बुद्धिमत्ता पर वैश्विक भागीदारी, जेनरेटिव AI, डीपफेक, ChatGPT, INDIAai

मेन्स के लिये:

जेनरेटिव AI- लाभ, चुनौतियाँ और आगे की राह।

भारत में सात चरणों में प्रस्तावित आम चुनाव की घोषणा (जो 19 अप्रैल से 1 जून 2024 तक संपन्न होंगे) के परिप्रेक्ष्य में देखें तो राजनीतिक दलों और मतदाताओं द्वारा इस चुनाव से जुड़े कृत्रिम बुद्धिमत्ता (Artificial Intelligence- AI) के आयाम की अनदेखी नहीं की जा सकती है। उल्लेखनीय है कि इस वर्ष भारत, मैक्सिको, ब्रिटेन और संयुक्त राज्य अमेरिका के अलावा दुनिया भर के 50 अन्य देशों में भी चुनाव होने हैं।

AI की क्षमता पहले से ही स्पष्ट रही है। अमेरिका में OpenAI के सीईओ सैम ऑल्टमैन (Sam Altman) जैसे कई लोगों का मानना है कि यह इतिहास की सबसे महत्त्वपूर्ण प्रौद्योगिकी है। AI समर्थकों का यह भी मानना है कि AI लाखों मनुष्यों के जीवन स्तर को गति देने और इसमें नाटकीय सुधार लाने के लिये तैयार है। हालाँकि, अभी तक यह स्पष्ट नहीं है, जैसा कि कई लोग आशंका रखते हैं, कि AI मानवीय मूल्यों को कमज़ोर कर देगा और उन्नत AI ‘अस्तित्व संबंधी जोखिम’ उत्पन्न कर सकता है।

विश्व भर में चुनावों के लिये AI के निहितार्थ:

विश्व भर के चुनावों पर बड़े लैंग्वेज मॉडल्स (language models) की छाया मंडरा रही है और हितधारक इस बात से अवगत हैं कि AI-जनित दुष्प्रचार उपकरण की एक अपेक्षाकृत सफल तैनाती भी अभियान आख्यानों और चुनाव परिणामों दोनों को अत्यंत महत्त्वपूर्ण रूप से प्रभावित कर सकती है।

  • AGI का उद्भव:
    • AI में द्रुत तकनीकी प्रगति (विशेष रूप से इसकी नवीनतम अभिव्यक्ति, जैसे कि जेनरेटिव AI) में अपार संभावनाएँ to निहित हैं लेकिन इससे उत्तरदायित्व और जोखिम भी जुड़े हैं। आर्टिफिशियल जनरल इंटेलिजेंस (AGI)—एक AI सिस्टम जो मानवीय क्षमता का अनुकरण करता है, के संभावित प्रभाव पर अभी पूरी तरह से कुछ कहना जल्दबाजी हो सकती है, लेकिन यह सब चुनावी गतिशीलता के एक और आयाम का संकेत है जिसकी अनदेखी नहीं की जा सकती।
      • AI मॉडल के द्रुत विकास से पता चलता है कि विश्व मानव प्रगति के इतिहास में एक महत्त्वपूर्ण मोड़ पर है। जिस गति से नए कौशल का विकास हो रहा है, उससे स्पष्ट है कि वह दिन दूर नहीं जब जेनरेटिव AI AGI में बदल जाएगा, जो मानवीय क्षमताओं का अनुकरण कर सकता है।

AGI बनाम AI:

  • AGI वस्तुतः AI की एक उप-श्रेणी है और AGI को AI के उन्नत संस्करण के रूप में देखा जा सकता है:
    • AI को प्रायः विशिष्ट कार्यों या एक ही संदर्भ तक सीमित कार्यों की शृंखला को पूरा करने के लिये डेटा पर प्रशिक्षित किया जाता है। AI के कई रूप अपने कार्यों को निर्देशित करने और एक निश्चित वातावरण में कार्य करने का तरीका सीखने के लिये एल्गोरिदम या प्री-प्रोग्राम्ड नियमों पर निर्भर होतेहैं।
    • दूसरी ओर, AGI तर्कसंगत सोच, समस्या-समाधान एवं निष्कर्ष देने में और नए वातावरण एवं विभिन्न प्रकार के डेटा के अनुकूल होने में सक्षम है। इसलिये कार्य करने के लिये पूर्व-निर्धारित नियमों पर निर्भर रहने के बजाय यह मानवों के समान समस्या-समाधान एवं अधिगम/लर्निंग के दृष्टिकोण को अपनाता है। अपने लचीलेपन के कारण, AGI विभिन्न उद्योगों और क्षेत्रों में वृहत कार्य संभालने में सक्षम है।
  • AIs : चुनावी व्यवहार में हेरफेर करने वाले ‘गेम-चेंजर्स’ के रूप में:
    • वैश्विक समुदाय विभिन्न उद्योगों में ChatGPT, Gemini और Copilot जैसे AI मॉडल के उपयोग से तेज़ी से परिचित हो रहा है। वर्ष 2024 इस बात का साक्षी बनेगा कि नए AI मॉडल चुनावी व्यवहारों एवं परिणामों को किस प्रकार उल्लेखनीय रूप से प्रभावित कर सकते हैं।
      • चुनावी परिदृश्य पर AI के संभावित प्रभाव को कम आँकना एक गलती होगी। जो बात वर्ष 2024 में घटित नहीं होगी, वह भारत और विश्व भर में अगले दौर के चुनावों में घटित हो सकता है।
  • ‘डीप फेक इलेक्शन’ को बढ़ावा:
    • AI का उपयोग मतदाताओं को और अधिक भ्रमित करने के लिये पर्याप्त प्रभाव उत्पन्न कर सकता है। जो परिदृश्य है, कई लोग पहले से ही दुनिया भर में वर्ष 2024 में होने वाले चुनावों को AI सॉफ्टवेयर द्वारा सृजित ‘डीप फेक इलेक्शन’ (Deep Fake Elections)’ के रूप में संदर्भित कर रहे हैं।
      • यह बात पूरी तरह से सच हो या नहीं, ‘डीप फेक सिंड्रोम’ अपरिहार्य प्रतीत होता है, विशेष रूप से इस वस्तुस्थिति में कि प्रत्येक नया चुनाव प्रोपेगेंडा की नित्य नई तकनीकों का सहारा लेता है, जिसका उद्देश्य लोकतांत्रिक प्रक्रियाओं को भ्रमित करना और उलझाना होता है।

  • दुष्प्रचार करना:
    • विश्व आर्थिक मंच (WEF) का वैश्विक जोखिम धारणा सर्वेक्षण (Global Risks Perception Survey- GRPS) शीर्ष 10 जोखिमों में भ्रामक सूचना (misinformation) और दुष्प्रचार (disinformation) को स्थान देता है, जहाँ बड़े पैमाने के AI मॉडल के उपयोग में आसान इंटरफेस झूठी सूचना और ‘सिंथेटिक’ कंटेंट (परिष्कृत वॉइस क्लोनिंग से लेकर फेक वेबसाइटों तक) की वृद्धि को सक्षम बनाते हैं।
      • AI का उपयोग बड़े पैमाने पर वैयक्तिकृत प्रोपेगेंडा के साथ (जिसके समक्ष कैंब्रिज एनालिटिका स्कैंडल भी मामूली ही दिखेगा) मतदाताओं को लुभाने के लिये किया जा सकता है, क्योंकि AI मॉडल की प्रेरक क्षमता बॉट्स और ऑटोमेटेड सोशल मीडिया एकाउंट्स से बहुत अधिक बेहतर होगी जो आजकल दुष्प्रचार के प्रसार के आधारभूत साधन बन गए हैं। 
      • फेसबुक और ट्विटर जैसी सोशल मीडिया कंपनियों द्वारा अपने फैक्ट-चेकिंग कार्य और इलेक्शन इंटीग्रिटी टीमों में उल्लेखनीय कटौती करने से जोखिम और बढ़ गया है।
  • ऐसे मॉडलों में अंतर्निहित अशुद्धियाँ:
    • Google से जुड़ी हाल की कई अशुद्धियों को मिला व्यापक प्रचार एक सामयिक अनुस्मारक है कि AI और AGI पर हर परिदृश्य में भरोसा नहीं किया जा सकता है। व्यक्तियों और शख्सियतों को गलत तरीके से, भ्रमित रूप से या अन्यथा प्रस्तुत करने के लिये भारत सहित दुनिया भर में Google AI मॉडल पर सार्वजनिक आक्रोश व्यक्त हुआ है। ये ‘रन-अवे’ AI के खतरों को भली-भांति उजागर करते हैं।
      • विसंगतियाँ एवं विश्वसनीयता की कमी कई AI मॉडलों पर हावी रहती हैं और समाज के लिये अंतर्निहित खतरे पैदा करती हैं। जैसे-जैसे इसकी क्षमता और उपयोग ज्यामितीय अनुपात में बढ़ता जाएगा, खतरे का स्तर भी बढ़ जाएगा।
  • AIs पर अति-निर्भरता:
    • चूँकि दुनिया के देश अपनी चुनौतियों के समाधान के लिये AI समाधानों पर अपना भरोसा तेज़ी से बढ़ा रहे हैं, उस स्थिति को चिह्नित करना महत्त्वपूर्ण हो जाता है जिसे कई AI विशेषज्ञ AI के ‘मतिभ्रम’ (hallucinations) के रूप में वर्णित करते हैं।
    • विशेष रूप से AGI के संबंध में विशेषज्ञों का मानना है कि यह कभी-कभी नए मुद्दों को संबोधित करने के लिये सूचना को गढ़ता या ‘फैब्रिकेट’ करता है। ऐसे गढ़ंत या फैब्रिकेशन प्रायः संभाव्यतावादी (probabilistic) होते हैं और इन्हें स्वतः सटीक नहीं माना जा सकता। इन कारकों का निहितार्थ यह है कि विकास के इस चरण में AI सिस्टम पर अत्यधिक निर्भरता चुनौतियाँ पैदा कर सकती है।
  • अंतर्निहित प्रतिकूल क्षमताएँ:
    • AI से संबद्ध विभिन्न अस्तित्वगत खतरों की उपेक्षा नहीं की जा सकती है। इस दृष्टिकोण से संबद्ध खतरा डिजाइन एवं विकास में पूर्वाग्रह से उत्पन्न होने वाले खतरे से कहीं अधिक गंभीर है।
      • ऐसी वास्तविक चिंताएँ मौजूद हैं कि AI सिस्टम कई बार कुछ अंतर्निहित प्रतिकूल क्षमताओं को विकसित कर लेते हैं। इनके शमन के लिये अभी तक उपयुक्त अवधारणाएँ और विचार विकसित नहीं किये जा सके हैं।
    • प्रतिकूल क्षमताओं के प्रमुख प्रकार, जो अन्य अंतर्निहित कमज़ोरियों पर हावी हैं:
      • ‘पॉइज़निंग’ (Poisoning)—जो आम तौर पर प्रासंगिक अनुमान करने की AI मॉडल की क्षमता को कम कर देती है;
      • ‘बैक डोरिंग’ (Back Dooring)—जिसके कारण मॉडल गलत या हानिकारक परिणाम उत्पन्न करता है; और
      • ‘इवेशन’ (Evasion)—जिसमें एक मॉडल दुर्भावनापूर्ण या हानिकारक इनपुट को गलत तरीके से वर्गीकृत करता है, जिससे AI मॉडल की अपनी निर्धारित भूमिका निभाने की क्षमता कम हो जाती है।
  • प्रभावी विनियमन का अभाव:
    • भारत को AI विनियमन में एक दुविधा का सामना करना पड़ रहा है। भारत सरकार स्वयं एक गैर-नियामक दृष्टिकोण और एक अधिक सतर्क दृष्टिकोण के बीच झूलती रही है, जहाँ उपयोगकर्ता हानि के शमन पर बल दिया गया है, जो दुरुपयोग के लिये उपजाऊ ज़मीन प्रदान करता है।
      • AI विनियमन के विरुद्ध तर्क नवाचार समर्थक रुख में निहित है, जहाँ नियामक उपायों के माध्यम से समाज में उनके विकास एवं एकीकरण को अवरुद्ध करने के बजाय AI प्रौद्योगिकियों की तीव्र उन्नति को बढ़ावा देने एवं अनुकूलित करने की आवश्यकता पर बल दिया गया है।
  • दिग्गज AI प्लेटफॉर्मों द्वारा प्रभावी नियंत्रण का अभाव:
    • अत्यंत लोकप्रिय विज़ुअल टूल रखने वाली जेनरेटिव AI कंपनियाँ उपयोगकर्ताओं को ‘भ्रामक’ तस्वीरें (इमेज) सृजित करने से रोकती हैं। हालाँकि, ब्रिटिश गैर-लाभकारी संस्था ‘सेंटर फॉर काउंटरिंग डिजिटल हेट (CCDH) के शोधकर्ताओं ने चार सबसे बड़े AI प्लेटफॉर्म— Midjourney, OpenAI के ChatGPT Plus, Stability.ai के DreamStudio और Microsoft के Image Creator के परीक्षण में पाया कि वे 40% से अधिक बार चुनाव-संबंधी भ्रामक तस्वीरें बनाने में सफल रहे।
      • एक सार्वजनिक डेटाबेस के अनुसार, Midjourney के उपयोगकर्ताओं ने ऐसी ‘फेक’ तस्वीरें बनाईं जहाँ राष्ट्रपति बाइडेन को इज़राइली प्रधान मंत्री बेंजामिन नेतन्याहू को नकदी की गड्डी सौंपते हुए और ट्रम्प को रूसी राष्ट्रपति व्लादिमीर पुतिन के साथ गोल्फ खेलते हुए दिखाया गया।

चुनावों पर AI के प्रभाव से निपटने के लिये आवश्यक कदम:

  • वर्ष 2024 के चुनावों में AI के भ्रामक उपयोग से निपटने के लिये ‘टेक एकॉर्ड’:
    • फ़रवरी 2024 में आयोजित म्यूनिख सुरक्षा सम्मेलन में टेक दिग्गज एमेज़ॅन, गूगल, माइक्रोसॉफ्ट और मेटा जैसी 22 कंपनियों के साथ-साथ AI डेवलपर्स और सोशल प्लेटफॉर्मों ने टेक एकॉर्ड (Tech Accord) 2024 पर हस्ताक्षर किये, जहाँ कई देशों में चुनावों के इस वर्ष के दौरान लोकतंत्र के समक्ष मौजूद जोखिमों को संबोधित करने पर प्रतिबद्धता जताई गई। इसे निम्नलिखित सात प्रमुख लक्ष्यों को आगे बढ़ाने के लिये सिद्धांतों और कार्यों के स्वैच्छिक ढाँचे के रूप में हस्ताक्षरित किया गया:
      • रोकथाम (Prevention): जानबूझकर उत्पन्न की जा रही भ्रामक AI चुनावी सामग्री (Deceptive AI Election Content) के जोखिमों को सीमित करने के लिये शोध करना, निवेश करना और/या उचित सावधानियाँ बरतना।
      • उद्गम (Provenance): जहाँ उचित और तकनीकी रूप से संभव हो, सामग्री/कंटेंट की उत्पत्ति की पहचान करने के लिये उद्गम संकेत (provenance signals) संलग्न करना।
      • पता लगाना (Detection): भ्रामक AI चुनावी सामग्री या प्रमाणित सामग्री का पता लगाने का प्रयास करना, जिसमें विभिन्न प्लेटफॉर्मों पर उद्गम संकेतों को पढ़ने जैसे तरीके शामिल हैं।
      • उत्तरदायी सुरक्षा (Responsive Protection): भ्रामक AI चुनावी सामग्री के सृजन एवं प्रसार से जुड़ी घटनाओं पर त्वरित और आनुपातिक प्रतिक्रिया प्रदान करना।
      • मूल्यांकन (Evaluation): भ्रामक AI चुनावी सामग्री से निपटने के अनुभवों एवं परिणामों का मूल्यांकन करने और उनसे सीखने के लिये सामूहिक प्रयास करना।
      • सार्वजनिक जागरूकता (Public Awareness): जनता को मीडिया साक्षरता के सर्वोत्तम अभ्यासों (विशेष रूप से भ्रामक AI चुनावी सामग्री के संबंध में) और उन तरीकों जिनसे नागरिक स्वयं को इस सामग्री से भ्रम या धोखा खाने से बचा सकते हैं, के बारे में शिक्षित करने के लिये साझा प्रयासों में संलग्न होना।
      • प्रत्यास्थता (Resilience): सार्वजनिक चर्चा की सुरक्षा करने, लोकतांत्रिक प्रक्रिया की अखंडता की रक्षा करने और भ्रामक AI चुनावी सामग्री के उपयोग के विरुद्ध समग्र समाज के स्तर पर प्रत्यास्थता में मदद करने के लिये AI साक्षरता एवं अन्य सार्वजनिक कार्यक्रम, AI-आधारित समाधान (जहाँ उपयुक्त हो वहाँ ओपन-सोर्स टूल सहित) या प्रासंगिक सुविधाओं जैसे रक्षात्मक उपकरण एवं संसाधन विकसित करने तथा इन्हें उपलब्ध कराने के प्रयासों का समर्थन करना। 
  • जोखिमों को कम करने के लिये प्रौद्योगिकी का विकास और कार्यान्वयन:
    • वास्तविक AI-जनित छवियों की पहचान करने और/या सामग्री एवं उसके उद्गम की सत्यता  प्रमाणित करने के रूप में भ्रामक AI चुनावी सामग्री से उत्पन्न होने वाले जोखिमों को कम करने के लिये तकनीकी नवाचारों के विकास का समर्थन करना, जहाँ यह समझ भी मौजूद हो कि ऐसे सभी समाधानों की अपनी सीमाएँ हैं।
    • ऑडियो, वीडियो और इमेज के लिये नई उद्गम प्रौद्योगिकी नवाचारों को आगे बढ़ाने में निवेश जारी रखना।
    • टेक एकॉर्ड के दायरे में आने वाले मॉडल पर उपयोगकर्ताओं द्वारा उत्पन्न वास्तविक AI-जनरेटेड ऑडियो, वीडियो एवं इमेज सामग्री के लिये मशीन-पठनीय जानकारी को उचित रूप से संलग्न करने की दिशा में कार्य करना।
  • भ्रामक AI चुनावी सामग्री को उपयुक्त रूप से संबोधित करना:
    • ऑनलाइन वितरण प्लेटफॉर्मों पर होस्ट की गई और सार्वजनिक वितरण के लिये लक्षित भ्रामक AI चुनावी सामग्री को स्वतंत्र अभिव्यक्ति एवं सुरक्षा के सिद्धांतों के अनुरूप उपयुक्त रूप से संबोधित करने का प्रयास करना।
    • इसमें नीतियों को अपनाना और प्रकाशित करना तथा यथार्थवादी AI-जनरेटेड ऑडियो, वीडियो या इमेज सामग्री पर प्रासंगिक जानकारी प्रदान करने के लिये कार्य करना शामिल हो सकता है।
  • वैश्विक नागरिक समाज के साथ संलग्नता:
    • वैश्विक नागरिक समाज संगठनों, शिक्षाविदों और अन्य प्रासंगिक विषय विशेषज्ञों के विविध समूह के साथ पहले से स्थापित चैनलों या आयोजनों के माध्यम से संलग्नता बनाए रखना, ताकि कंपनियों की वैश्विक जोखिम परिदृश्य के बारे में समझ को उनकी प्रौद्योगिकियों, टूल्स के स्वतंत्र विकास और वर्णित पहलों के एक भाग के रूप में सूचना-संपन्न किया जा सके।
  • जन जागरूकता को बढ़ावा देना:
    • हेरफेर उपकरण, इंटरफ़ेस या प्रक्रियाओं के माध्यम से हो सकता है जो उपयोगकर्ताओं को ऑनलाइन देखी गई सामग्री की तुलना में सामग्री के बारे में अधिक उपयोगी संदर्भ प्रदान कर सकते हैं; इन जोखिमों को कम करने का प्रयास करने वाले अन्य लोगों का समर्थन करने के लिये ओपन सोर्स टूल विकसित एवं जारी किये जा सकते हैं अथवा इन जोखिमों पर प्रतिक्रिया से संलग्न संगठनों एवं समुदायों के कार्य का समर्थन किया जा सकता है।
    • भ्रामक AI चुनावी सामग्री के संबंध में सार्वजनिक जागरूकता और समग्र समाज के स्तर पर प्रत्यास्थता को बढ़ावा देने के प्रयासों का समर्थन करना। उदाहरण के लिये, जोखिमों के संबंधों में आम लोगों को जागरूक करने के लिये शिक्षा अभियानों एवं अन्य प्रयासों से उन्हें ऐसी सामग्री से भ्रम या धोखा खाने से बचने में सक्षम बनाया जा सकता है।

AI से संबंधित भारत की प्रमुख पहलें:

निष्कर्ष:

AI की तीव्र प्रगति मानव प्रगति में एक महत्त्वपूर्ण मील का पत्थर है, जो संभावित रूप से जेनरेटिव AI को उस AGI में रूपांतरित करने की ओर ले जाती है जो मानव क्षमताओं का अनुकरण करने में सक्षम है। जब विश्व, भारत एवं कई अन्य देशों सहित, वर्ष 2024 में विभिन्न चुनावों के आयोजन के लिये तैयारी कर रहा है, चुनावी गतिशीलता पर AI के निहितार्थ की उपेक्षा नहीं की जा सकती है।

AI का उपयोग, विशेष रूप से जेनेरेटिव AI जैसे इसके नवीनतम रूप, चुनावी व्यवहार और परिणामों को आकार देने के लिये अवसर एवं चुनौतियाँ दोनों पैदा करता है। AI के प्रभाव में वृद्धि के साथ, विशेष रूप से लोकतांत्रिक चुनावों के विषय में, लोकतांत्रिक प्रक्रियाओं की सुरक्षा एवं चुनावी प्रणालियों की अखंडता को बनाए रखने के लिये इसकी विघटनकारी क्षमता को संबोधित करना अपरिहार्य हो गया है।

अभ्यास प्रश्न: मतदाता व्यवहार को प्रभावित करने की इसकी क्षमता और लोकतांत्रिक सिद्धांतों के लिये इसके द्वारा उत्पन्न चुनौतियाँ पर विचार करते हुए चुनावी प्रक्रियाओं पर कृत्रिम बुद्धिमत्ता (AI) के निहितार्थों की चर्चा कीजिये।

  UPSC सिविल सेवा परीक्षा पिछले वर्ष प्रश्न   

प्रिलिम्स:

विकास की वर्तमान स्थिति में, कृत्रिम बुद्धिमत्ता (Artificial Intelligence), निम्नलिखित में से किस कार्य को प्रभावी रूप से कर सकती है? (2020)

  1. औद्योगिक इकाइयों में विद्युत् की खपत कम करना
  2.  सार्थक लघु कहानियों और गीतों की रचना 
  3.  रोगों का निदान
  4.  टेक्स्ट से स्पीच (Text-to-Speech) में परिवर्तन
  5.  विद्युत् ऊर्जा का बेतार संचरण

नीचे दिये गए कूट का प्रयोग करके सही उत्तर चुनिये:

(a) केवल 1, 2, 3 और 5
(b) केवल 1, 3 और 4
(c) केवल 2, 4 और 5
(d) 1, 2, 3, 4 और 5

उत्तर: (b)

close
एसएमएस अलर्ट
Share Page
images-2
images-2