विज्ञान एवं प्रौद्योगिकी
AI: एक दोधारी तलवार
- 19 Mar 2024
- 25 min read
यह एडिटोरियल 18/03/2024 को ‘द हिंदू’ में प्रकाशित “Many elections, AI’s dark dimension” लेख पर आधारित है। इसमें वर्ष 2024 में विभिन्न देशों में आसन्न चुनाव के परिप्रेक्ष्य में लोकतंत्र पर AI के संभावित प्रभाव पर चर्चा की गई है। इसमें AI में लोकतांत्रिक प्रक्रियाओं को बाधित करने की निहित क्षमता और इसके निहितार्थों पर भी विचार किया गया है।
प्रिलिम्स के लिये:आर्टिफिशियल इंटेलिजेंस (AI), एथिकल AI, मशीन लर्निंग, लार्ज लैंग्वेज मॉडल, कृत्रिम बुद्धिमत्ता पर वैश्विक भागीदारी, जेनरेटिव AI, डीपफेक, ChatGPT, INDIAai। मेन्स के लिये:जेनरेटिव AI- लाभ, चुनौतियाँ और आगे की राह। |
भारत में सात चरणों में प्रस्तावित आम चुनाव की घोषणा (जो 19 अप्रैल से 1 जून 2024 तक संपन्न होंगे) के परिप्रेक्ष्य में देखें तो राजनीतिक दलों और मतदाताओं द्वारा इस चुनाव से जुड़े कृत्रिम बुद्धिमत्ता (Artificial Intelligence- AI) के आयाम की अनदेखी नहीं की जा सकती है। उल्लेखनीय है कि इस वर्ष भारत, मैक्सिको, ब्रिटेन और संयुक्त राज्य अमेरिका के अलावा दुनिया भर के 50 अन्य देशों में भी चुनाव होने हैं।
AI की क्षमता पहले से ही स्पष्ट रही है। अमेरिका में OpenAI के सीईओ सैम ऑल्टमैन (Sam Altman) जैसे कई लोगों का मानना है कि यह इतिहास की सबसे महत्त्वपूर्ण प्रौद्योगिकी है। AI समर्थकों का यह भी मानना है कि AI लाखों मनुष्यों के जीवन स्तर को गति देने और इसमें नाटकीय सुधार लाने के लिये तैयार है। हालाँकि, अभी तक यह स्पष्ट नहीं है, जैसा कि कई लोग आशंका रखते हैं, कि AI मानवीय मूल्यों को कमज़ोर कर देगा और उन्नत AI ‘अस्तित्व संबंधी जोखिम’ उत्पन्न कर सकता है।
विश्व भर में चुनावों के लिये AI के निहितार्थ:
विश्व भर के चुनावों पर बड़े लैंग्वेज मॉडल्स (language models) की छाया मंडरा रही है और हितधारक इस बात से अवगत हैं कि AI-जनित दुष्प्रचार उपकरण की एक अपेक्षाकृत सफल तैनाती भी अभियान आख्यानों और चुनाव परिणामों दोनों को अत्यंत महत्त्वपूर्ण रूप से प्रभावित कर सकती है।
- AGI का उद्भव:
- AI में द्रुत तकनीकी प्रगति (विशेष रूप से इसकी नवीनतम अभिव्यक्ति, जैसे कि जेनरेटिव AI) में अपार संभावनाएँ to निहित हैं लेकिन इससे उत्तरदायित्व और जोखिम भी जुड़े हैं। आर्टिफिशियल जनरल इंटेलिजेंस (AGI)—एक AI सिस्टम जो मानवीय क्षमता का अनुकरण करता है, के संभावित प्रभाव पर अभी पूरी तरह से कुछ कहना जल्दबाजी हो सकती है, लेकिन यह सब चुनावी गतिशीलता के एक और आयाम का संकेत है जिसकी अनदेखी नहीं की जा सकती।
- AI मॉडल के द्रुत विकास से पता चलता है कि विश्व मानव प्रगति के इतिहास में एक महत्त्वपूर्ण मोड़ पर है। जिस गति से नए कौशल का विकास हो रहा है, उससे स्पष्ट है कि वह दिन दूर नहीं जब जेनरेटिव AI AGI में बदल जाएगा, जो मानवीय क्षमताओं का अनुकरण कर सकता है।
- AI में द्रुत तकनीकी प्रगति (विशेष रूप से इसकी नवीनतम अभिव्यक्ति, जैसे कि जेनरेटिव AI) में अपार संभावनाएँ to निहित हैं लेकिन इससे उत्तरदायित्व और जोखिम भी जुड़े हैं। आर्टिफिशियल जनरल इंटेलिजेंस (AGI)—एक AI सिस्टम जो मानवीय क्षमता का अनुकरण करता है, के संभावित प्रभाव पर अभी पूरी तरह से कुछ कहना जल्दबाजी हो सकती है, लेकिन यह सब चुनावी गतिशीलता के एक और आयाम का संकेत है जिसकी अनदेखी नहीं की जा सकती।
AGI बनाम AI:
- AGI वस्तुतः AI की एक उप-श्रेणी है और AGI को AI के उन्नत संस्करण के रूप में देखा जा सकता है:
- AI को प्रायः विशिष्ट कार्यों या एक ही संदर्भ तक सीमित कार्यों की शृंखला को पूरा करने के लिये डेटा पर प्रशिक्षित किया जाता है। AI के कई रूप अपने कार्यों को निर्देशित करने और एक निश्चित वातावरण में कार्य करने का तरीका सीखने के लिये एल्गोरिदम या प्री-प्रोग्राम्ड नियमों पर निर्भर होतेहैं।
- दूसरी ओर, AGI तर्कसंगत सोच, समस्या-समाधान एवं निष्कर्ष देने में और नए वातावरण एवं विभिन्न प्रकार के डेटा के अनुकूल होने में सक्षम है। इसलिये कार्य करने के लिये पूर्व-निर्धारित नियमों पर निर्भर रहने के बजाय यह मानवों के समान समस्या-समाधान एवं अधिगम/लर्निंग के दृष्टिकोण को अपनाता है। अपने लचीलेपन के कारण, AGI विभिन्न उद्योगों और क्षेत्रों में वृहत कार्य संभालने में सक्षम है।
- AIs : चुनावी व्यवहार में हेरफेर करने वाले ‘गेम-चेंजर्स’ के रूप में:
- वैश्विक समुदाय विभिन्न उद्योगों में ChatGPT, Gemini और Copilot जैसे AI मॉडल के उपयोग से तेज़ी से परिचित हो रहा है। वर्ष 2024 इस बात का साक्षी बनेगा कि नए AI मॉडल चुनावी व्यवहारों एवं परिणामों को किस प्रकार उल्लेखनीय रूप से प्रभावित कर सकते हैं।
- चुनावी परिदृश्य पर AI के संभावित प्रभाव को कम आँकना एक गलती होगी। जो बात वर्ष 2024 में घटित नहीं होगी, वह भारत और विश्व भर में अगले दौर के चुनावों में घटित हो सकता है।
- वैश्विक समुदाय विभिन्न उद्योगों में ChatGPT, Gemini और Copilot जैसे AI मॉडल के उपयोग से तेज़ी से परिचित हो रहा है। वर्ष 2024 इस बात का साक्षी बनेगा कि नए AI मॉडल चुनावी व्यवहारों एवं परिणामों को किस प्रकार उल्लेखनीय रूप से प्रभावित कर सकते हैं।
- ‘डीप फेक इलेक्शन’ को बढ़ावा:
- AI का उपयोग मतदाताओं को और अधिक भ्रमित करने के लिये पर्याप्त प्रभाव उत्पन्न कर सकता है। जो परिदृश्य है, कई लोग पहले से ही दुनिया भर में वर्ष 2024 में होने वाले चुनावों को AI सॉफ्टवेयर द्वारा सृजित ‘डीप फेक इलेक्शन’ (Deep Fake Elections)’ के रूप में संदर्भित कर रहे हैं।
- यह बात पूरी तरह से सच हो या नहीं, ‘डीप फेक सिंड्रोम’ अपरिहार्य प्रतीत होता है, विशेष रूप से इस वस्तुस्थिति में कि प्रत्येक नया चुनाव प्रोपेगेंडा की नित्य नई तकनीकों का सहारा लेता है, जिसका उद्देश्य लोकतांत्रिक प्रक्रियाओं को भ्रमित करना और उलझाना होता है।
- AI का उपयोग मतदाताओं को और अधिक भ्रमित करने के लिये पर्याप्त प्रभाव उत्पन्न कर सकता है। जो परिदृश्य है, कई लोग पहले से ही दुनिया भर में वर्ष 2024 में होने वाले चुनावों को AI सॉफ्टवेयर द्वारा सृजित ‘डीप फेक इलेक्शन’ (Deep Fake Elections)’ के रूप में संदर्भित कर रहे हैं।
- दुष्प्रचार करना:
- विश्व आर्थिक मंच (WEF) का वैश्विक जोखिम धारणा सर्वेक्षण (Global Risks Perception Survey- GRPS) शीर्ष 10 जोखिमों में भ्रामक सूचना (misinformation) और दुष्प्रचार (disinformation) को स्थान देता है, जहाँ बड़े पैमाने के AI मॉडल के उपयोग में आसान इंटरफेस झूठी सूचना और ‘सिंथेटिक’ कंटेंट (परिष्कृत वॉइस क्लोनिंग से लेकर फेक वेबसाइटों तक) की वृद्धि को सक्षम बनाते हैं।
- AI का उपयोग बड़े पैमाने पर वैयक्तिकृत प्रोपेगेंडा के साथ (जिसके समक्ष कैंब्रिज एनालिटिका स्कैंडल भी मामूली ही दिखेगा) मतदाताओं को लुभाने के लिये किया जा सकता है, क्योंकि AI मॉडल की प्रेरक क्षमता बॉट्स और ऑटोमेटेड सोशल मीडिया एकाउंट्स से बहुत अधिक बेहतर होगी जो आजकल दुष्प्रचार के प्रसार के आधारभूत साधन बन गए हैं।
- फेसबुक और ट्विटर जैसी सोशल मीडिया कंपनियों द्वारा अपने फैक्ट-चेकिंग कार्य और इलेक्शन इंटीग्रिटी टीमों में उल्लेखनीय कटौती करने से जोखिम और बढ़ गया है।
- विश्व आर्थिक मंच (WEF) का वैश्विक जोखिम धारणा सर्वेक्षण (Global Risks Perception Survey- GRPS) शीर्ष 10 जोखिमों में भ्रामक सूचना (misinformation) और दुष्प्रचार (disinformation) को स्थान देता है, जहाँ बड़े पैमाने के AI मॉडल के उपयोग में आसान इंटरफेस झूठी सूचना और ‘सिंथेटिक’ कंटेंट (परिष्कृत वॉइस क्लोनिंग से लेकर फेक वेबसाइटों तक) की वृद्धि को सक्षम बनाते हैं।
- ऐसे मॉडलों में अंतर्निहित अशुद्धियाँ:
- Google से जुड़ी हाल की कई अशुद्धियों को मिला व्यापक प्रचार एक सामयिक अनुस्मारक है कि AI और AGI पर हर परिदृश्य में भरोसा नहीं किया जा सकता है। व्यक्तियों और शख्सियतों को गलत तरीके से, भ्रमित रूप से या अन्यथा प्रस्तुत करने के लिये भारत सहित दुनिया भर में Google AI मॉडल पर सार्वजनिक आक्रोश व्यक्त हुआ है। ये ‘रन-अवे’ AI के खतरों को भली-भांति उजागर करते हैं।
- विसंगतियाँ एवं विश्वसनीयता की कमी कई AI मॉडलों पर हावी रहती हैं और समाज के लिये अंतर्निहित खतरे पैदा करती हैं। जैसे-जैसे इसकी क्षमता और उपयोग ज्यामितीय अनुपात में बढ़ता जाएगा, खतरे का स्तर भी बढ़ जाएगा।
- Google से जुड़ी हाल की कई अशुद्धियों को मिला व्यापक प्रचार एक सामयिक अनुस्मारक है कि AI और AGI पर हर परिदृश्य में भरोसा नहीं किया जा सकता है। व्यक्तियों और शख्सियतों को गलत तरीके से, भ्रमित रूप से या अन्यथा प्रस्तुत करने के लिये भारत सहित दुनिया भर में Google AI मॉडल पर सार्वजनिक आक्रोश व्यक्त हुआ है। ये ‘रन-अवे’ AI के खतरों को भली-भांति उजागर करते हैं।
- AIs पर अति-निर्भरता:
- चूँकि दुनिया के देश अपनी चुनौतियों के समाधान के लिये AI समाधानों पर अपना भरोसा तेज़ी से बढ़ा रहे हैं, उस स्थिति को चिह्नित करना महत्त्वपूर्ण हो जाता है जिसे कई AI विशेषज्ञ AI के ‘मतिभ्रम’ (hallucinations) के रूप में वर्णित करते हैं।
- विशेष रूप से AGI के संबंध में विशेषज्ञों का मानना है कि यह कभी-कभी नए मुद्दों को संबोधित करने के लिये सूचना को गढ़ता या ‘फैब्रिकेट’ करता है। ऐसे गढ़ंत या फैब्रिकेशन प्रायः संभाव्यतावादी (probabilistic) होते हैं और इन्हें स्वतः सटीक नहीं माना जा सकता। इन कारकों का निहितार्थ यह है कि विकास के इस चरण में AI सिस्टम पर अत्यधिक निर्भरता चुनौतियाँ पैदा कर सकती है।
- अंतर्निहित प्रतिकूल क्षमताएँ:
- AI से संबद्ध विभिन्न अस्तित्वगत खतरों की उपेक्षा नहीं की जा सकती है। इस दृष्टिकोण से संबद्ध खतरा डिजाइन एवं विकास में पूर्वाग्रह से उत्पन्न होने वाले खतरे से कहीं अधिक गंभीर है।
- ऐसी वास्तविक चिंताएँ मौजूद हैं कि AI सिस्टम कई बार कुछ अंतर्निहित प्रतिकूल क्षमताओं को विकसित कर लेते हैं। इनके शमन के लिये अभी तक उपयुक्त अवधारणाएँ और विचार विकसित नहीं किये जा सके हैं।
- प्रतिकूल क्षमताओं के प्रमुख प्रकार, जो अन्य अंतर्निहित कमज़ोरियों पर हावी हैं:
- ‘पॉइज़निंग’ (Poisoning)—जो आम तौर पर प्रासंगिक अनुमान करने की AI मॉडल की क्षमता को कम कर देती है;
- ‘बैक डोरिंग’ (Back Dooring)—जिसके कारण मॉडल गलत या हानिकारक परिणाम उत्पन्न करता है; और
- ‘इवेशन’ (Evasion)—जिसमें एक मॉडल दुर्भावनापूर्ण या हानिकारक इनपुट को गलत तरीके से वर्गीकृत करता है, जिससे AI मॉडल की अपनी निर्धारित भूमिका निभाने की क्षमता कम हो जाती है।
- AI से संबद्ध विभिन्न अस्तित्वगत खतरों की उपेक्षा नहीं की जा सकती है। इस दृष्टिकोण से संबद्ध खतरा डिजाइन एवं विकास में पूर्वाग्रह से उत्पन्न होने वाले खतरे से कहीं अधिक गंभीर है।
- प्रभावी विनियमन का अभाव:
- भारत को AI विनियमन में एक दुविधा का सामना करना पड़ रहा है। भारत सरकार स्वयं एक गैर-नियामक दृष्टिकोण और एक अधिक सतर्क दृष्टिकोण के बीच झूलती रही है, जहाँ उपयोगकर्ता हानि के शमन पर बल दिया गया है, जो दुरुपयोग के लिये उपजाऊ ज़मीन प्रदान करता है।
- AI विनियमन के विरुद्ध तर्क नवाचार समर्थक रुख में निहित है, जहाँ नियामक उपायों के माध्यम से समाज में उनके विकास एवं एकीकरण को अवरुद्ध करने के बजाय AI प्रौद्योगिकियों की तीव्र उन्नति को बढ़ावा देने एवं अनुकूलित करने की आवश्यकता पर बल दिया गया है।
- भारत को AI विनियमन में एक दुविधा का सामना करना पड़ रहा है। भारत सरकार स्वयं एक गैर-नियामक दृष्टिकोण और एक अधिक सतर्क दृष्टिकोण के बीच झूलती रही है, जहाँ उपयोगकर्ता हानि के शमन पर बल दिया गया है, जो दुरुपयोग के लिये उपजाऊ ज़मीन प्रदान करता है।
- दिग्गज AI प्लेटफॉर्मों द्वारा प्रभावी नियंत्रण का अभाव:
- अत्यंत लोकप्रिय विज़ुअल टूल रखने वाली जेनरेटिव AI कंपनियाँ उपयोगकर्ताओं को ‘भ्रामक’ तस्वीरें (इमेज) सृजित करने से रोकती हैं। हालाँकि, ब्रिटिश गैर-लाभकारी संस्था ‘सेंटर फॉर काउंटरिंग डिजिटल हेट (CCDH) के शोधकर्ताओं ने चार सबसे बड़े AI प्लेटफॉर्म— Midjourney, OpenAI के ChatGPT Plus, Stability.ai के DreamStudio और Microsoft के Image Creator के परीक्षण में पाया कि वे 40% से अधिक बार चुनाव-संबंधी भ्रामक तस्वीरें बनाने में सफल रहे।
- एक सार्वजनिक डेटाबेस के अनुसार, Midjourney के उपयोगकर्ताओं ने ऐसी ‘फेक’ तस्वीरें बनाईं जहाँ राष्ट्रपति बाइडेन को इज़राइली प्रधान मंत्री बेंजामिन नेतन्याहू को नकदी की गड्डी सौंपते हुए और ट्रम्प को रूसी राष्ट्रपति व्लादिमीर पुतिन के साथ गोल्फ खेलते हुए दिखाया गया।
- अत्यंत लोकप्रिय विज़ुअल टूल रखने वाली जेनरेटिव AI कंपनियाँ उपयोगकर्ताओं को ‘भ्रामक’ तस्वीरें (इमेज) सृजित करने से रोकती हैं। हालाँकि, ब्रिटिश गैर-लाभकारी संस्था ‘सेंटर फॉर काउंटरिंग डिजिटल हेट (CCDH) के शोधकर्ताओं ने चार सबसे बड़े AI प्लेटफॉर्म— Midjourney, OpenAI के ChatGPT Plus, Stability.ai के DreamStudio और Microsoft के Image Creator के परीक्षण में पाया कि वे 40% से अधिक बार चुनाव-संबंधी भ्रामक तस्वीरें बनाने में सफल रहे।
चुनावों पर AI के प्रभाव से निपटने के लिये आवश्यक कदम:
- वर्ष 2024 के चुनावों में AI के भ्रामक उपयोग से निपटने के लिये ‘टेक एकॉर्ड’:
- फ़रवरी 2024 में आयोजित म्यूनिख सुरक्षा सम्मेलन में टेक दिग्गज एमेज़ॅन, गूगल, माइक्रोसॉफ्ट और मेटा जैसी 22 कंपनियों के साथ-साथ AI डेवलपर्स और सोशल प्लेटफॉर्मों ने टेक एकॉर्ड (Tech Accord) 2024 पर हस्ताक्षर किये, जहाँ कई देशों में चुनावों के इस वर्ष के दौरान लोकतंत्र के समक्ष मौजूद जोखिमों को संबोधित करने पर प्रतिबद्धता जताई गई। इसे निम्नलिखित सात प्रमुख लक्ष्यों को आगे बढ़ाने के लिये सिद्धांतों और कार्यों के स्वैच्छिक ढाँचे के रूप में हस्ताक्षरित किया गया:
- रोकथाम (Prevention): जानबूझकर उत्पन्न की जा रही भ्रामक AI चुनावी सामग्री (Deceptive AI Election Content) के जोखिमों को सीमित करने के लिये शोध करना, निवेश करना और/या उचित सावधानियाँ बरतना।
- उद्गम (Provenance): जहाँ उचित और तकनीकी रूप से संभव हो, सामग्री/कंटेंट की उत्पत्ति की पहचान करने के लिये उद्गम संकेत (provenance signals) संलग्न करना।
- पता लगाना (Detection): भ्रामक AI चुनावी सामग्री या प्रमाणित सामग्री का पता लगाने का प्रयास करना, जिसमें विभिन्न प्लेटफॉर्मों पर उद्गम संकेतों को पढ़ने जैसे तरीके शामिल हैं।
- उत्तरदायी सुरक्षा (Responsive Protection): भ्रामक AI चुनावी सामग्री के सृजन एवं प्रसार से जुड़ी घटनाओं पर त्वरित और आनुपातिक प्रतिक्रिया प्रदान करना।
- मूल्यांकन (Evaluation): भ्रामक AI चुनावी सामग्री से निपटने के अनुभवों एवं परिणामों का मूल्यांकन करने और उनसे सीखने के लिये सामूहिक प्रयास करना।
- सार्वजनिक जागरूकता (Public Awareness): जनता को मीडिया साक्षरता के सर्वोत्तम अभ्यासों (विशेष रूप से भ्रामक AI चुनावी सामग्री के संबंध में) और उन तरीकों जिनसे नागरिक स्वयं को इस सामग्री से भ्रम या धोखा खाने से बचा सकते हैं, के बारे में शिक्षित करने के लिये साझा प्रयासों में संलग्न होना।
- प्रत्यास्थता (Resilience): सार्वजनिक चर्चा की सुरक्षा करने, लोकतांत्रिक प्रक्रिया की अखंडता की रक्षा करने और भ्रामक AI चुनावी सामग्री के उपयोग के विरुद्ध समग्र समाज के स्तर पर प्रत्यास्थता में मदद करने के लिये AI साक्षरता एवं अन्य सार्वजनिक कार्यक्रम, AI-आधारित समाधान (जहाँ उपयुक्त हो वहाँ ओपन-सोर्स टूल सहित) या प्रासंगिक सुविधाओं जैसे रक्षात्मक उपकरण एवं संसाधन विकसित करने तथा इन्हें उपलब्ध कराने के प्रयासों का समर्थन करना।
- फ़रवरी 2024 में आयोजित म्यूनिख सुरक्षा सम्मेलन में टेक दिग्गज एमेज़ॅन, गूगल, माइक्रोसॉफ्ट और मेटा जैसी 22 कंपनियों के साथ-साथ AI डेवलपर्स और सोशल प्लेटफॉर्मों ने टेक एकॉर्ड (Tech Accord) 2024 पर हस्ताक्षर किये, जहाँ कई देशों में चुनावों के इस वर्ष के दौरान लोकतंत्र के समक्ष मौजूद जोखिमों को संबोधित करने पर प्रतिबद्धता जताई गई। इसे निम्नलिखित सात प्रमुख लक्ष्यों को आगे बढ़ाने के लिये सिद्धांतों और कार्यों के स्वैच्छिक ढाँचे के रूप में हस्ताक्षरित किया गया:
- जोखिमों को कम करने के लिये प्रौद्योगिकी का विकास और कार्यान्वयन:
- वास्तविक AI-जनित छवियों की पहचान करने और/या सामग्री एवं उसके उद्गम की सत्यता प्रमाणित करने के रूप में भ्रामक AI चुनावी सामग्री से उत्पन्न होने वाले जोखिमों को कम करने के लिये तकनीकी नवाचारों के विकास का समर्थन करना, जहाँ यह समझ भी मौजूद हो कि ऐसे सभी समाधानों की अपनी सीमाएँ हैं।
- ऑडियो, वीडियो और इमेज के लिये नई उद्गम प्रौद्योगिकी नवाचारों को आगे बढ़ाने में निवेश जारी रखना।
- टेक एकॉर्ड के दायरे में आने वाले मॉडल पर उपयोगकर्ताओं द्वारा उत्पन्न वास्तविक AI-जनरेटेड ऑडियो, वीडियो एवं इमेज सामग्री के लिये मशीन-पठनीय जानकारी को उचित रूप से संलग्न करने की दिशा में कार्य करना।
- भ्रामक AI चुनावी सामग्री को उपयुक्त रूप से संबोधित करना:
- ऑनलाइन वितरण प्लेटफॉर्मों पर होस्ट की गई और सार्वजनिक वितरण के लिये लक्षित भ्रामक AI चुनावी सामग्री को स्वतंत्र अभिव्यक्ति एवं सुरक्षा के सिद्धांतों के अनुरूप उपयुक्त रूप से संबोधित करने का प्रयास करना।
- इसमें नीतियों को अपनाना और प्रकाशित करना तथा यथार्थवादी AI-जनरेटेड ऑडियो, वीडियो या इमेज सामग्री पर प्रासंगिक जानकारी प्रदान करने के लिये कार्य करना शामिल हो सकता है।
- वैश्विक नागरिक समाज के साथ संलग्नता:
- वैश्विक नागरिक समाज संगठनों, शिक्षाविदों और अन्य प्रासंगिक विषय विशेषज्ञों के विविध समूह के साथ पहले से स्थापित चैनलों या आयोजनों के माध्यम से संलग्नता बनाए रखना, ताकि कंपनियों की वैश्विक जोखिम परिदृश्य के बारे में समझ को उनकी प्रौद्योगिकियों, टूल्स के स्वतंत्र विकास और वर्णित पहलों के एक भाग के रूप में सूचना-संपन्न किया जा सके।
- जन जागरूकता को बढ़ावा देना:
- हेरफेर उपकरण, इंटरफ़ेस या प्रक्रियाओं के माध्यम से हो सकता है जो उपयोगकर्ताओं को ऑनलाइन देखी गई सामग्री की तुलना में सामग्री के बारे में अधिक उपयोगी संदर्भ प्रदान कर सकते हैं; इन जोखिमों को कम करने का प्रयास करने वाले अन्य लोगों का समर्थन करने के लिये ओपन सोर्स टूल विकसित एवं जारी किये जा सकते हैं अथवा इन जोखिमों पर प्रतिक्रिया से संलग्न संगठनों एवं समुदायों के कार्य का समर्थन किया जा सकता है।
- भ्रामक AI चुनावी सामग्री के संबंध में सार्वजनिक जागरूकता और समग्र समाज के स्तर पर प्रत्यास्थता को बढ़ावा देने के प्रयासों का समर्थन करना। उदाहरण के लिये, जोखिमों के संबंधों में आम लोगों को जागरूक करने के लिये शिक्षा अभियानों एवं अन्य प्रयासों से उन्हें ऐसी सामग्री से भ्रम या धोखा खाने से बचने में सक्षम बनाया जा सकता है।
AI से संबंधित भारत की प्रमुख पहलें:
- INDIAai
- कृत्रिम बुद्धिमत्ता पर वैश्विक भागीदारी (Global Partnership on Artificial Intelligence- GPAI)
- यूएस-भारत कृत्रिम बुद्धिमत्ता पहल (US India Artificial Intelligence Initiative)
- युवाओं के लिये उत्तरदायी कृत्रिम बुद्धिमत्ता (Responsible Artificial Intelligence for Youth)
- आर्टिफिशियल इंटेलिजेंस रिसर्च, एनालिटिक्स एंड नॉलेज एसिमिलेशन प्लेटफॉर्म (Artificial Intelligence Research, Analytics and Knowledge Assimilation Platform)
- कृत्रिम बुद्धिमत्ता मिशन (Artificial Intelligence Mission)
निष्कर्ष:
AI की तीव्र प्रगति मानव प्रगति में एक महत्त्वपूर्ण मील का पत्थर है, जो संभावित रूप से जेनरेटिव AI को उस AGI में रूपांतरित करने की ओर ले जाती है जो मानव क्षमताओं का अनुकरण करने में सक्षम है। जब विश्व, भारत एवं कई अन्य देशों सहित, वर्ष 2024 में विभिन्न चुनावों के आयोजन के लिये तैयारी कर रहा है, चुनावी गतिशीलता पर AI के निहितार्थ की उपेक्षा नहीं की जा सकती है।
AI का उपयोग, विशेष रूप से जेनेरेटिव AI जैसे इसके नवीनतम रूप, चुनावी व्यवहार और परिणामों को आकार देने के लिये अवसर एवं चुनौतियाँ दोनों पैदा करता है। AI के प्रभाव में वृद्धि के साथ, विशेष रूप से लोकतांत्रिक चुनावों के विषय में, लोकतांत्रिक प्रक्रियाओं की सुरक्षा एवं चुनावी प्रणालियों की अखंडता को बनाए रखने के लिये इसकी विघटनकारी क्षमता को संबोधित करना अपरिहार्य हो गया है।
अभ्यास प्रश्न: मतदाता व्यवहार को प्रभावित करने की इसकी क्षमता और लोकतांत्रिक सिद्धांतों के लिये इसके द्वारा उत्पन्न चुनौतियाँ पर विचार करते हुए चुनावी प्रक्रियाओं पर कृत्रिम बुद्धिमत्ता (AI) के निहितार्थों की चर्चा कीजिये।
UPSC सिविल सेवा परीक्षा पिछले वर्ष प्रश्नप्रिलिम्स:विकास की वर्तमान स्थिति में, कृत्रिम बुद्धिमत्ता (Artificial Intelligence), निम्नलिखित में से किस कार्य को प्रभावी रूप से कर सकती है? (2020)
नीचे दिये गए कूट का प्रयोग करके सही उत्तर चुनिये: (a) केवल 1, 2, 3 और 5 उत्तर: (b) |