पहली कानूनी रूप से बाध्यकारी अंतर्राष्ट्रीय AI संधि
यूरोप की परिषद के अनुसार, संयुक्त राज्य अमेरिका, यूनाइटेड किंगडम और यूरोपीय संघ के सदस्य आर्टिफिशियल इंटेलिजेंस(AI) पर पहली कानूनी रूप से बाध्यकारी अंतर्राष्ट्रीय AI पर हस्ताक्षर करने में सक्षम होंगे।
यूरोप की परिषद (COE):
यूरोप की परिषद (COE) 1949 में स्थापित एक अंतरराष्ट्रीय संगठन है और इसका मुख्यालय स्ट्रासबर्ग, फ्रांस में है।
यह यूरोपीय संघ (EU) से अलग है और इसमें अधिकांश यूरोपीय देशों सहित 46 सदस्य देश शामिल हैं।
COE का प्राथमिक मिशन अपने सदस्य देशों में लोकतंत्र, मानवाधिकारों और कानून के शासन को बनाए रखना और बढ़ावा देना है।
आर्टिफिशियल इंटेलिजेंस कन्वेंशन के बारे में प्रमुख तथ्य:
आर्टिफिशियल इंटेलिजेंस और मानवाधिकार, लोकतंत्र और कानून के शासन पर फ्रेमवर्क कन्वेंशन, मुख्य रूप से AI सिस्टम से प्रभावित व्यक्तियों के मानवाधिकारों की सुरक्षा पर जोर देता है और यूरोपीय संघ के एआई अधिनियम से स्वतंत्र रूप से संचालित होता है।
EU, AI अधिनियम यूरोपीय संघ के आंतरिक बाजार में AI सिस्टम के विकास, परिनियोजन और उपयोग को नियंत्रित करने वाले व्यापक नियमों को स्थापित करता है।
AI सम्मेलन पर कई वर्षों से काम चल रहा था और इसे 57 देशों के बीच परामर्श के बाद मई 2024 में अपनाया गया था।
इसका उद्देश्य नवाचार को बढ़ावा देते हुए कृत्रिम बुद्धिमत्ता से जुड़े जोखिमों को कम करना है।
समझौते की शर्तें:
मानव-केंद्रित AI
संधि यह अनिवार्य करती है कि AI प्रणालियों को मानवाधिकार सिद्धांतों के अनुरूप विकसित और संचालित किया जाना चाहिए ताकि यह सुनिश्चित किया जा सके कि वे लोकतांत्रिक मूल्यों का समर्थन और रक्षा करते हैं।
पारदर्शिता और जवाबदेही:
संधि में कहा गया है कि AI सिस्टम, विशेष रूप से जो मनुष्यों के साथ बातचीत करते हैं, उन्हें पारदर्शी रूप से काम करना चाहिए।
AI प्रणालियों द्वारा मानवाधिकारों का उल्लंघन होने पर सरकारों को कानूनी उपचार प्रदान करने की भी आवश्यकता होती है।
जोखिम प्रबंधन और निगरानी:
यह संधि AI से जुड़े जोखिमों के आकलन और प्रबंधन के साथ-साथ सुरक्षा और नैतिक मानकों का अनुपालन सुनिश्चित करने के लिए निरीक्षण तंत्र के लिए एक रूपरेखा स्थापित करती है।
दुरुपयोग के खिलाफ संरक्षण:
संधि में न्यायिक स्वतंत्रता और न्याय तक सार्वजनिक पहुंच के संरक्षण सहित लोकतांत्रिक प्रक्रियाओं को कमजोर करने के लिए AI के उपयोग को रोकने के लिए सुरक्षा उपाय शामिल हैं।
मुख्य प्रवर्तन तंत्रः
कानूनी जिम्मेदारियांः
हस्ताक्षरकर्ता देशों को यह सुनिश्चित करने के लिए विधायी और प्रशासनिक उपाय करने की आवश्यकता है कि AI सिस्टम संधि सिद्धांतों जैसे मानवाधिकारों और AI परिनियोजन में जवाबदेही का पालन करें।
निगरानी और निरीक्षणः
संधि AI मानकों के अनुपालन की निगरानी के लिए निरीक्षण तंत्र स्थापित करती है।
अंतर्राष्ट्रीय सहयोगः
यह संधि AI प्रौद्योगिकियों की वैश्विक प्रकृति को पहचानते हुए AI मानकों को सुसंगत बनाने, सर्वोत्तम प्रथाओं को साझा करने और अंतर्राष्ट्रीय AI मुद्दों को हल करने के लिए हस्ताक्षरकर्ताओं के बीच सहयोग को बढ़ावा देती है।
अनुकूलनीयताः
फ्रेमवर्क को प्रौद्योगिकी-तटस्थ होने के लिए विकसित किया गया है, जो इसे AI में प्रगति के साथ विकसित करने की अनुमति देता है और यह सुनिश्चित करता है कि AI प्रौद्योगिकियों की तेजी से प्रगति के बावजूद मानक प्रासंगिक और लागू करने योग्य रहें।
संधि के अपवादः
संधि राष्ट्रीय सुरक्षा या रक्षा में उपयोग की जाने वाली प्रणालियों को छोड़कर सभी AI प्रणालियों पर लागू होती है, हालांकि यह अभी भी आवश्यक है कि ये गतिविधियाँ अंतर्राष्ट्रीय कानून और लोकतांत्रिक सिद्धांतों का सम्मान करें।
AI का महत्वः
व्यापक प्रारूपः
संधि का सावधानीपूर्वक मसौदा तैयार किया गया था, जिसमें AI प्रणालियों के डिजाइन, विकास, उपयोग और विघटन के लिए जोखिम-आधारित दृष्टिकोण अपनाया गया था।
व्यापक प्रयोज्यताः
यह विभिन्न भौगोलिक क्षेत्रों में प्रवर्तन के साथ सार्वजनिक क्षेत्र और निजी क्षेत्र दोनों में AI प्रणालियों पर लागू होता है।
वैश्विक कानूनी मानकः
आर्टिफिशियल इंटेलिजेंस पर फ्रेमवर्क कन्वेंशन अपनी तरह की पहली वैश्विक रूप से बाध्यकारी संधि है, जिसे साझा मूल्यों वाले विभिन्न महाद्वीपों के देशों द्वारा समर्थित अंतर्राष्ट्रीय कानूनी मानक की आवश्यकता को पूरा करने के लिए डिज़ाइन किया गया है।
नवाचार और जोखिम के बीच संतुलनः
संधि का उद्देश्य AI के लाभों का दोहन करते हुए इसके इष्टतम उपयोग को बढ़ावा देना, इससे जुड़े जोखिमों को प्रभावी ढंग से कम करना और यह सुनिश्चित करना है कि AI का विकास मानवाधिकारों, कानून के शासन और लोकतांत्रिक सिद्धांतों के अनुरूप हो।
AI कन्वेंशन के मुद्दे और चिंताएं:
कार्यान्वयन के बारे में चिंताएंः
“कानूनी रूप से बाध्यकारी” घोषित किए जाने के बावजूद, संधि ने दंडात्मक प्रतिबंधों की कमी के कारण चिंता जताई है, जैसे कि जुर्माना या दंड, जो प्रवर्तन के दृष्टिकोण से इसके निवारक प्रभाव को कमजोर करता है।
निगरानी के आधार परः
संधि का अनुपालन मुख्य रूप से “निगरानी” तंत्र के माध्यम से सुनिश्चित किया जाता है, जो संधि के प्रावधानों को प्रभावी ढंग से लागू करने के लिए पर्याप्त नहीं हो सकता है।
विनियमन और नवाचार को संतुलित करनाः
सख्त विनियमन और नवाचार को बढ़ावा देने के बीच सही संतुलन बनाना एक महत्वपूर्ण चिंता का विषय है। अत्यधिक नियामक बोझ AI प्रौद्योगिकियों के विकास में बाधा डाल सकता है, विशेष रूप से छोटे और मध्यम उद्यमों (SME) और स्टार्ट-अप के लिए, जिससे वैश्विक AI बाजार में प्रतिस्पर्धा प्रभावित हो सकती है।
राष्ट्रीय संप्रभुता बनाम अंतर्राष्ट्रीय मानकः
संधि के प्रावधान राष्ट्रीय कानूनों के साथ संघर्ष कर सकते हैं, जिससे राज्य संप्रभुताओं के बीच तनाव पैदा हो सकता है।
राष्ट्रीय सुरक्षा चिंताओं को संबोधित करनाः
सम्मेलन राष्ट्रीय सुरक्षा हितों के साथ AI शासन को संतुलित करने का प्रयास करता है, जबकि रक्षा और खुफिया गतिविधियों के साथ AI का प्रतिच्छेदन चुनौतियों को प्रस्तुत करता है। यह सुनिश्चित करता है कि राष्ट्रीय सुरक्षा से समझौता नहीं किया जा रहा है, जबकि नैतिक AI प्रथाओं को बनाए रखने के लिए एक संतुलन अधिनियम की आवश्यकता होती है, जिसे प्राप्त करने के लिए इस संधि को समस्याओं का सामना करना पड़ सकता है।
निष्कर्ष:
“आर्टिफिशियल इंटेलिजेंस और मानवाधिकार, लोकतंत्र और कानून के शासन पर फ्रेमवर्क कन्वेंशन” आर्टिफिशियल इंटेलिजेंस के वैश्विक शासन में एक महत्वपूर्ण प्रगति का प्रतीक है। AI, मानवाधिकार, लोकतंत्र और कानून के शासन के बीच महत्वपूर्ण अंतर्संबंधों को शामिल करके, यह वर्तमान नियामक संरचनाओं में एक महत्वपूर्ण कमी को दूर करता है।
इसका व्यापक दायरा, जिसमें राष्ट्रीय सुरक्षा संबंधी प्रावधान शामिल हैं, जिम्मेदार AI शासन के लिए एक बेंचमार्क निर्धारित करता है, अंतर्राष्ट्रीय सहयोग को बढ़ावा देता है, और ऐसे मानक निर्धारित करता है जो क्षेत्रीय और वैश्विक दोनों स्तरों पर प्रतिध्वनित हो सकते हैं।