आर्टिफीसियल इंटेलिजेंस के संभावित खतरों से निपटने की तैयारी-Global AI Summit- London 2023 ( Big Prepartion for Tackling Risks of AI)

आर्टिफीसियल इंटेलिजेंस के खतरों को विश्व के सभी देश और लीडर महसूस करने लगे हैं। अंतराष्ट्रीय समुदाय ए आई के संभावित खतरों से निपटने के लिए एक सर्वमान्य और व्यापक प्रणाली और सुरक्षात्मक उपाय अपनाने पर जोर देने लगा है। इन्हीं विषयों पर विचार विमर्श करने और आगे की नीतियों का निर्धारण करने के लिए लन्दन में वैश्विक AI शिखर सम्मलेन का आयोजन किया गया। इस सम्मलेन में बहुत सारे देशों के प्रतिनिधि शामिल हुए। सभी ने एक स्वर में इस बात पर जोर दिया कि आर्टिफीसियल इंटेलिजेंस को नियंत्रित करने के लिए एक सर्वव्यापी और सर्वमान्य नीति निर्धारित करने की आवश्यकता है। वर्ना वो दिन दूर नहीं है जब मशीनें इंसानों पर कब्ज़ा कर लेंगीं।

Table of Contents

ग्लोबल एआई समिट में चर्चा के विषय

विश्व शिखर सम्मलेन में जिन बातों पर चर्चा हुई उनमे से प्रमुख है फ्रंटियर एआई मॉडल का अंतर्राष्ट्रीय रजिस्टर जो सरकारों को एआई से जुड़े जोखिमों का आकलन करने की अनुमति देगा।एआई सुरक्षा अनुसंधान संस्थान यह समझने के लिए नए प्रकारों की जांच, मूल्यांकन और परीक्षण करेगा कि प्रत्येक नया मॉडल क्या करने में सक्षम है और इसके जोखिम क्या हैं। यह एआई के वैश्विक शासन की दिशा में एक महत्वपूर्ण पहला कदम है जो मानवाधिकारों के लिए अभूतपूर्व खतरा पैदा करता है।

आर्टिफिशियल इंटेलिजेंस क्या है?

यह एक मशीन-आधारित प्रणाली है जो मानव-परिभाषित उद्देश्यों के दिए गए सेट के लिए, वास्तविक या आभासी वातावरण को प्रभावित करने वाली भविष्यवाणियां, सिफारिशें या निर्णय ले सकती है।

वैश्विक एआई नीति की आवश्यकता क्यों है ?

डेटा स्क्रैपिंग को विनियमित करने के लिए कानूनों का अभाव:

जेनेरेटिव एआई के लिए वेब स्क्रेपर्स मॉडलों को ठीक से प्रशिक्षित करने के लिए डेटा इकट्ठा करते हैं और इस डेटा को विनियमित करने की आवश्यकता है। वर्तमान में, इस डेटा को विनियमित करने के लिए कोई समान वैश्विक कानून नहीं है।

डेटा स्क्रैपिंग एक ऐसी तकनीक है जिसमें एक कंप्यूटर प्रोग्राम दूसरे प्रोग्राम से उत्पन्न आउटपुट से डेटा निकालता है।डेटा स्क्रैपिंग आमतौर पर वेब स्क्रैपिंग में होती है, किसी वेबसाइट से मूल्यवान जानकारी निकालने के लिए एप्लिकेशन का उपयोग करने की प्रक्रिया।
डेटा स्क्रैपिंग

एआई बिग थ्री का प्रभुत्व:

चीन, यूरोपीय संघ (ईयू) और अमेरिका अपने हितों के समर्थन में शासन की नई वैश्विक व्यवस्था, एआई के विकास और डेटा-संचालित डिजिटल अर्थव्यवस्था को आकार दे रहे हैं।एआई बिग थ्री का उद्देश्य वैश्विक महत्वपूर्ण बुनियादी ढांचे और सॉफ्टवेयर, और हार्डवेयर मूल्य श्रृंखलाओं को नियंत्रित करना और स्वामित्व करना है जो राष्ट्रीय एआई तैनाती के लिए आवश्यक शर्तें हैं।उद्योग स्तर पर, एआई बिग थ्री दुनिया भर में शीर्ष 200 सबसे प्रभावशाली डिजिटल प्रौद्योगिकी कंपनियों का मुख्यालय है, और वे वर्तमान उद्योग के नेतृत्व वाले वैश्विक एआई प्रशासन को आकार देते हैं।

बढ़ती सामाजिक विषमताएँ:

आज, AI विकास बड़े डिजिटल निगमों के पास है। कुछ कंपनियों और देशों में एआई विशेषज्ञता का संकेंद्रण वैश्विक असमानताओं को बढ़ा सकता है और डिजिटल विभाजन को बढ़ा सकता है।

साइबर अपराध:

एआई के साथ संभावित जोखिमों में ऑनलाइन उत्पीड़न, नफरत और दुर्व्यवहार और बच्चों की सुरक्षा और गोपनीयता के लिए खतरे शामिल हैं।जेनरेटिव एआई के दायरे में, यह विदेशी सूचना हेरफेर के खतरे की ओर इशारा करता है, जिसमें गलत सूचना फैलाना, लोकतांत्रिक मूल्यों को कमजोर करना, अभिव्यक्ति की स्वतंत्रता को दबाना और मानवाधिकारों के आनंद को खतरे में डालना शामिल है।

HYAS लैब्स ने अवधारणा के प्रमाण के रूप में बड़े भाषा मॉडल का उपयोग करके ब्लैकमाम्बा नामक एक बहुरूपी मैलवेयर बनाया, जो उपयोगकर्ता नाम, पासवर्ड और क्रेडिट कार्ड नंबर जैसी संवेदनशील जानकारी एकत्र कर सकता है।

मूलभूत मॉडल किसी भी जेनरेटिव एआई प्रोग्राम का मूल है जो एक गहन शिक्षण एल्गोरिदम है जिसे इंटरनेट से स्क्रैप किए गए डेटा पर पूर्व-प्रशिक्षित किया गया है। इन मूलभूत मॉडलों को लगातार ताज़ा डेटा इनपुट की आवश्यकता होती है।यह सुनिश्चित करने के लिए कि उनके मॉडल ठीक से काम कर रहे हैं, जेनेरेटिव एआई कंपनियां वेब क्रॉलर या डेटा स्क्रेपर्स का निर्माण करती हैं, जो कंप्यूटर प्रोग्राम हैं जो वेबसाइटों के माध्यम से क्रॉल करते हैं और उनका डेटा निकालते हैं।
वेब क्रॉलर या डेटा स्क्रेपर्स क्या हैं?

व्यक्तिगत अधिकारों पर अंकुश:

अभिव्यक्ति की स्वतंत्रता के लिए एआई द्वारा उत्पन्न जोखिम, अन्य बातों के अलावा, अत्यधिक सामग्री अवरोधन और प्रतिबंध और सूचना का अपारदर्शी प्रसार शामिल है।
उदाहरण के लिए, Google की AI इकाई DeepMind पर NHS (राष्ट्रीय स्वास्थ्य सेवाओं) के लिए एक ऐप के विकास और परीक्षण के दौरान यूके डेटा सुरक्षा कानूनों और रोगी गोपनीयता नियमों का उल्लंघन करने का आरोप है।

बहिष्करणीय एआई शासन ढाँचे:

वर्तमान अंतरराष्ट्रीय एआई शासन ढाँचे ग्लोबल साउथ के दृष्टिकोण पर पर्याप्त रूप से विचार नहीं करते हैं।बहुआयामी वैश्विक एआई शासन चर्चा में सक्रिय भागीदारी के बिना, ग्लोबल साउथ के देशों को एआई-आधारित व्यवधान से होने वाले नुकसान को सीमित करना चुनौतीपूर्ण लगेगा।इस तथ्य पर भी विचार करने की कमी है कि पश्चिमी ज्ञान, मूल्य और विचार अन्य क्षेत्रों में उतने प्रभावी ढंग से काम नहीं कर सकते हैं।

भारत की तैयारी (What is India Doing for tackling risks of AI)

नीति आयोग: इसने 2018 में आर्टिफिशियल इंटेलिजेंस के लिए राष्ट्रीय रणनीति जारी की जिसमें जिम्मेदार एआई को समर्पित एक अध्याय था।
2021 में, इसने एक पेपर जारी किया, ‘जिम्मेदार एआई का सिद्धांत’।

G20 बैठक के दौरान, भारत ने “नैतिक” AI के विस्तार पर एक वैश्विक ढांचे पर जोर दिया।इसका तात्पर्य परमाणु अप्रसार के लिए अंतर्राष्ट्रीय निकायों के समान एआई के जिम्मेदार उपयोग की निगरानी के लिए एक नियामक निकाय की स्थापना से है।
हाल ही में संपन्न जी20 बैठक में, इसने जिम्मेदार मानव-केंद्र के लिए एक रूपरेखा तैयार करने के लिए अंतर्राष्ट्रीय सहयोग का सुझाव दिया
सेक्टर-विशिष्ट ढाँचे: ये भारत में AI प्रणाली के उपयोग के लिए एक व्यापक नियामक ढाँचे की अनुपस्थिति के कारण जारी किए गए थे।

जून 2023 में, भारतीय चिकित्सा अनुसंधान परिषद ने बायोमेडिकल अनुसंधान और स्वास्थ्य देखभाल में एआई के लिए नैतिक दिशानिर्देश जारी किए थे;
जनवरी 2019 में, सेबी ने पूंजी बाजार में एआई सिस्टम में एक इन्वेंट्री बनाने और भविष्य की नीतियों का मार्गदर्शन करने के लिए एक परिपत्र जारी किया।
राष्ट्रीय शिक्षा नीति 2020 के तहत स्कूली पाठ्यक्रमों में एआई जागरूकता को शामिल करने की सिफारिश की गई है।
भारतीय दूरसंचार नियामक प्राधिकरण (ट्राई) ने जोखिम-आधारित ढांचे के माध्यम से भारत में एआई को विनियमित करने के लिए एक घरेलू वैधानिक प्राधिकरण स्थापित करने की सिफारिश की है।

एआई को विनियमित करने के लिए अन्य वैश्विक शासन पहल

यूएस: यूएस द्वारा एआई बिल ऑफ राइट्स का ब्लूप्रिंट जारी किया गया
ईयू: आर्टिफिशियल इंटेलिजेंस के लिए यूरोपीय बोर्ड
ओईसीडी: आर्टिफिशियल इंटेलिजेंस पर सिद्धांत
यूरोपीय संघ (ईयू): व्यापक एआई कानून पर बातचीत
इसने आर्टिफिशियल इंटेलिजेंस की नैतिकता और एआई पर यूरोपीय संघ के उच्च-स्तरीय विशेषज्ञ समूह द्वारा प्रस्तुत भरोसेमंद एआई के लिए नैतिक दिशानिर्देशों पर सिफारिश दी।

G7 हिरोशिमा अल प्रक्रिया: यह कृत्रिम बुद्धिमत्ता (AI) को विनियमित करने के लिए आगे का रास्ता निर्धारित करने का एक प्रयास है।
स्वैच्छिक AI आचार संहिता: G7 ने “दुनिया भर में सुरक्षित, सुरक्षित और भरोसेमंद AI को बढ़ावा देने” के लिए मार्गदर्शक सिद्धांत और 11-सूत्रीय आचार संहिता प्रकाशित की।
चीन: हाल ही में ग्लोबल एआई गवर्नेंस पहल शुरू की।
एआई गवर्नेंस में जी 20 की भूमिका

कई पहलें और कार्य समूह स्थापित किए गए हैं जहां चर्चा आम तौर पर तीन मुख्य क्षेत्रों पर केंद्रित होती है:
नैतिक प्रतिपूर्ति
आर्थिक निहितार्थ
विनियामक ढांचे
G20 AI सिद्धांत: वे देशों और संगठनों को AI को इस तरह से विकसित और तैनात करने के लिए एक रूपरेखा प्रदान करते हैं जो फायदेमंद हो और नैतिकता, गोपनीयता और सुरक्षा से संबंधित चिंताओं का समाधान करता हो।
हालाँकि, वैश्विक एआई शासन को आकार देने वाले वितरण संबंधी पहलुओं और मौजूदा बहुआयामी शक्ति गतिशीलता पर सीमित विचार किया गया है।

आगे बढ़ने का रास्ता

समान वैश्विक विनियमन:

सभी देशों को सामंजस्यपूर्ण नियमों का एक सेट बनाने की आवश्यकता है जो सभी जेनरेटिव एआई मॉडल और उनके डेटा क्रॉलर/स्क्रेपर्स को नियंत्रित करते हैं। एक खंडित दृष्टिकोण के माध्यम से वैश्विक शासन को लागू करना, और कुछ देशों में एआई को विनियमित करना जबकि अन्य जगहों पर इसे अनियमित छोड़ना सीमित प्रभावशीलता रखता है।

ग्लोबल एआई नॉलेज हब की स्थापना:

एआई गवर्नेंस पर सर्वोत्तम प्रथाओं, शोध निष्कर्षों और नीति सिफारिशों को साझा करने के लिए एक केंद्रीकृत मंच होना चाहिए। यह नैतिक मुद्दों को संबोधित करेगा और विशेषज्ञों और नागरिकों को शासन तंत्र में शामिल करेगा, जिससे ग्लोबल नॉर्थ और ग्लोबल साउथ दोनों देशों को लाभ होगा।

अंतर्राष्ट्रीय तकनीकी मानकों के लिए समर्थन:

तकनीकी मानक किसी उत्पाद की विशेषताओं और प्रदर्शन को मापने के लिए आधार रेखा के रूप में कार्य करते हैं। ये तकनीकी मानक जोखिम मूल्यांकन और ऑडिट के लिए एक साझा मंच सक्षम करते हैं, जिससे अलग-अलग नियमों वाले देशों को एआई सिस्टम या सेवाओं का पारस्परिक मूल्यांकन और मूल्यांकन करने की अनुमति मिलती है।

कृत्रिम बुद्धिमत्ता और डेटा (CCGAID) के प्रशासन के लिए एक समन्वय समिति का निर्माण:

यह G20 के भीतर प्रासंगिक अभिनेताओं के बीच संबंधों को संस्थागत बनाएगा।जिम्मेदार एआई शासन के लिए औपनिवेशिक-सूचित दृष्टिकोण (डीआईए) शक्ति असंतुलन को दूर करने में मदद कर सकता है।डीआईए का समर्थन करने के लिए, सीसीजीएआईडी को एक समर्पित ग्लोबल साउथ वर्किंग ग्रुप (जीएसडब्ल्यूजी) स्थापित करना होगा जिसमें ग्लोबल साउथ के बहुहितधारक प्रतिनिधि शामिल हों। यह कार्य समूह जिम्मेदार एआई शासन ढांचे को आकार देने में विविध दृष्टिकोणों का समावेश सुनिश्चित करेगा।

प्रभावी एआई प्रशासन के लिए खाका:

मानव-केंद्रित:

मानव अधिकारों, नैतिक मूल्यों और कानून के शासन के सिद्धांतों में दृढ़ता से निहित

व्यापक:

अंतराल या अस्पष्ट व्याख्याओं के लिए कोई जगह नहीं छोड़ता

एजाइल:

जैसे-जैसे एआई का विकास जारी है, नीति निर्माताओं को समायोजन और आवश्यक सुधार करने के लिए आवश्यक लचीलापन प्रदान करता है

प्रत्याशित:

संभावित जोखिमों के साकार होने से पहले उन पर ध्यान केंद्रित करता है

समावेशी:

सभी हितधारकों की भागीदारी का स्वागत करता है।

निष्कर्ष (Conclusion)

ग्लोबल एआई समिट लंदन 2023 एआई को विनियमित करने, नैतिक चिंताओं को दूर करने और संभावित जोखिमों को कम करने में एकीकृत वैश्विक शासन की अनिवार्यता पर प्रकाश डालता है, जिसमें जिम्मेदार और न्यायसंगत एआई शासन सुनिश्चित करने के लिए समावेशी सहयोग और एक औपनिवेशिक-सूचित दृष्टिकोण की आवश्यकता पर जोर दिया गया है।

“एआई का जनक” कौन है ? (Who is Father of AI)

एलन ट्यूरिंग को व्यापक रूप से “एआई का जनक” माना जाता है।

You May Also Like

About the Author: The Indian Life

1 Comment

Leave a Reply

Your email address will not be published. Required fields are marked *

कॉपीराइट कंटेंट :अगर आपको ये कॉन्टेंट पसंद है और आप इसको कॉपी करके सेव करना चाहते हैं तो नीचे कमेंट बॉक्स में अपना मेल आई डी लिखकर दें.आपको कंटेंट मेल कर दिया जायेगा।