शासन व्यवस्था
ICMR ने स्वास्थ्य क्षेत्र में AI के उपयोग के लिये दिशा-निर्देश जारी किये
- 23 Mar 2023
- 6 min read
प्रिलिम्स के लिये:ICMR, कृत्रिम बुद्धिमता (AI) मेन्स के लिये:स्वास्थ्य देखभाल क्षेत्र में AI के उपयोग के लिये नैतिक दिशा-निर्देश, स्वास्थ्य देखभाल क्षेत्र में AI के उपयोग से संबंधित चुनौतियाँ |
चर्चा में क्यों?
हाल ही में भारतीय आयुर्विज्ञान अनुसंधान परिषद (Indian Council of Medical Research- ICMR) ने "जैव चिकित्सा अनुसंधान और स्वास्थ्य देखभाल में AI के क्रियान्वयन के लिये नैतिक दिशा-निर्देश" शीर्षक से एक मार्गदर्शक दस्तावेज़ जारी किया है जो स्वास्थ्य क्षेत्र में कृत्रिम बुद्धिमता के क्रियान्वयन के लिये 10 प्रमुख रोगी-केंद्रित नैतिक सिद्धांतों की रूपरेखा निर्दिष्ट करता है।
- निदान और स्क्रीनिंग, चिकित्सीय, निवारक उपचार, नैदानिक निर्णय लेने, सार्वजनिक स्वास्थ्य निगरानी, जटिल डेटा विश्लेषण, बीमारी के परिणामों की संभावनाओं का विश्लेषण, व्यावहारिक और मानसिक स्वास्थ्य देखभाल तथा स्वास्थ्य प्रबंधन प्रणाली स्वास्थ्य देखभाल के AI के मान्यता प्राप्त अनुप्रयोगों के अंतर्गत आते हैं।
10 मार्गदर्शक सिद्धांत:
- जवाबदेही और दायित्त्व सिद्धांत: यह AI प्रणाली के इष्टतम कामकाज़ को सुनिश्चित करने के लिये नियमित आंतरिक और बाह्य ऑडिट के महत्त्व को रेखांकित करता है जिसे जनता के लिये उपलब्ध कराया जाना चाहिये।
- स्वायत्तता सिद्धांत: यह कृत्रिम बुद्धिमत्ता (AI) प्रणाली के कामकाज़ और प्रदर्शन की मानवीय निगरानी सुनिश्चित करता है। किसी भी प्रक्रिया को शुरू करने से पहले रोगी की सहमति प्राप्त करना भी महत्त्वपूर्ण है, जिसमें रोगी को शारीरिक, मनोवैज्ञानिक एवं सामाजिक जोखिमों के बारे में भी सूचित किया जाना चाहिये।
- डेटा गोपनीयता सिद्धांत: यह कृत्रिम बुद्धिमत्ता-आधारित प्रौद्योगिकी के विकास और परिनियोजन के सभी चरणों में गोपनीयता तथा व्यक्तिगत डेटा की सुरक्षा सुनिश्चित करता है।
- सहयोग सिद्धांत: यह सिद्धांत अंतःविषयक, अंतर्राष्ट्रीय सहयोग और विभिन्न हितधारकों को शामिल करने वाली सहायता को प्रोत्साहित करता है।
- सुरक्षा और जोखिम न्यूनीकरण सिद्धांत: यह सिद्धांत "अनपेक्षित या जान-बूझकर दुरुपयोग" को रोकने के उद्देश्य से वैश्विक प्रौद्योगिकी से गुमनाम डेटा को साइबर हमले से बचाने और अन्य क्षेत्रों के किसी मेज़बान के बीच एक नैतिक समिति द्वारा अनुकूल लाभ-जोखिम मूल्यांकन को रोकने के लिये है।
- अभिगम्यता, समानता और समावेशिता सिद्धांत: यह सिद्धांत स्वीकार करता है कि कृत्रिम बुद्धिमत्ता प्रौद्योगिकी का परिनियोजन उपयुक्त अवसंरचनात्मक ढाँचे की व्यापक उपलब्धता को मानती है। इस प्रकार इसका लक्ष्य डिजिटल विभेद को पाटना है।
- डेटा ऑप्टिमाइज़ेशन: खराब डेटा गुणवत्ता, अनुचित और अपर्याप्त डेटा प्रस्तुतियों से AI तकनीक की कार्यप्रणाली पूर्वाग्रह, भेदभाव, त्रुटियों और उप-इष्टतम परिणामों से युक्त हो सकती है।
- गैर-भेदभाव और निष्पक्षता सिद्धांत: एल्गोरिदम में पूर्वाग्रहों और अशुद्धियों से बचने तथा गुणवत्तापूर्ण AI प्रौद्योगिकियों को सार्वभौमिक उपयोग के लिये डिज़ाइन किया जाना चाहिये।
- विश्वसनीयता: AI का प्रभावी ढंग से उपयोग करने के लिये चिकित्सकों और स्वास्थ्य सेवा प्रदाताओं को AI प्रौद्योगिकियों की वैधता तथा विश्वसनीयता का परीक्षण करने के लिये एक सरल, व्यवस्थित तथा भरोसेमंद तरीका होना चाहिये। स्वास्थ्य डेटा का सटीक विश्लेषण प्रदान करने के अलावा एक भरोसेमंद AI-आधारित समाधान भी वैध, नैतिक, विश्वसनीय और मान्य होना चाहिये।
नोट: भारत में कई ढाँचे हैं जो स्वास्थ्य सेवा के साथ तकनीकी प्रगति से मेल खाते हैं। इनमें राष्ट्रीय स्वास्थ्य नीति (2017), स्वास्थ्य देखभाल अधिनियम (दिशा), 2018 में डिज़िटल सूचना सुरक्षा और चिकित्सा उपकरण नियम, 2017 के तहत डिजिटल स्वास्थ्य प्रौद्योगिकियों का लाभ उठाने के लिये डिजिटल स्वास्थ्य प्राधिकरण शामिल हैं।
निष्कर्ष:
कृत्रिम बुद्धिमत्ता द्वारा लिये गए निर्णयों हेतु जवाबदेह नहीं ठहराया जा सकता है, इसलिये कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों के विकास और स्वास्थ्य सेवा में इसके अनुप्रयोग को निर्देशित करने के लिये नैतिक प्रभावी नीति ढाँचा आवश्यक है। इसके अलावा जैसा कि कृत्रिम बुद्धिमत्ता प्रौद्योगिकियाँ आगे विकसित होती हैं, साथ ही नैदानिक निर्णय लेने में उपयोग की जाती हैं, तो रक्षा एवं सुरक्षा हेतु त्रुटियों की स्थिति में जवाबदेही पर विचार करने वाले प्रोटोकॉल का होना महत्त्वपूर्ण है।