New AI Regulations in Europe: Ensuring Fundamental Rights of EU Citizens; यूरोप में AI विनियमन के नए नियम लागू: नागरिकों के मौलिक अधिकारों की सुरक्षा:

आर्टिफिशियल इंटेलिजेंस (AI) पर नियमों को लेकर यूरोपीय परिषद ने महत्वपूर्ण कदम उठाते हुए इन्हें अंतिम मंजूरी दी है। ये नियम विश्व में अपनी तरह के पहले नियम हैं, जिनका उद्देश्य पूरे यूरोपीय संघ (EU) में सुरक्षित और विश्वसनीय AI सिस्टम विकसित करना और EU के नागरिकों के मौलिक अधिकारों का सम्मान सुनिश्चित करना है।

नियमों के मुख्य बिंदु:

जोखिम-आधारित एप्रोच:
नियमों के तहत ‘जोखिम-आधारित’ एप्रोच के अनुपालन की बात कही गई है। इसका मतलब है कि समाज को नुकसान पहुंचने का जोखिम जितना अधिक होगा, नियम भी उतने ही सख्त होंगे। यह सुनिश्चित करता है कि AI सिस्टम्स से होने वाले संभावित खतरों को नियंत्रित करने के लिए प्रभावी उपाय किए जाएं।

AI सिस्टम्स के लिए जोखिम के चार स्तर:

1. अस्वीकार्य जोखिम (निषेध):
ये ऐसे जोखिम हैं, जो यूरोपीय संघ के मौलिक अधिकारों का उल्लंघन करते हैं। ऐसे AI सिस्टम्स को प्रतिबंधित किया जाएगा ताकि नागरिकों के अधिकारों और सुरक्षा को सुनिश्चित किया जा सके।

2. उच्च जोखिम (नियमों के अनुरूप होने के मूल्यांकन की आवश्यकता और निगरानी):
ये ऐसे जोखिम हैं, जो स्वास्थ्य, सुरक्षा, मौलिक अधिकार आदि पर प्रभाव डाल सकते हैं। ऐसे AI सिस्टम्स को सख्त निगरानी और मूल्यांकन के बाद ही अनुमति दी जाएगी। इन प्रणालियों का विस्तृत मूल्यांकन और निगरानी आवश्यक है ताकि यह सुनिश्चित किया जा सके कि वे उच्च मानकों का पालन करते हैं और किसी भी प्रकार के नकारात्मक प्रभाव को रोका जा सके।

3. विशिष्ट पारदर्शिता जोखिम (सूचना और पारदर्शिता दायित्वों की आवश्यकता):
यूरोपीय परिषद द्वारा अनुमोदित AI नियमों के तहत विशिष्ट पारदर्शिता जोखिम वाले AI सिस्टम्स को सूचना और पारदर्शिता दायित्वों को पूरा करना होगा। इसमें हेरफेर, प्रतिरूपण (Impersonation) आदि का जोखिम शामिल है, और ऐसे सिस्टम्स को स्पष्ट सूचना और पारदर्शिता बनाए रखने की आवश्यकता होगी ताकि उपयोगकर्ताओं को सही और सटीक जानकारी प्राप्त हो सके।

4. कम जोखिम (कोई विशिष्ट नियम नहीं):
इसमें सामान्य AI सिस्टम्स से जुड़े जोखिम शामिल हैं, जैसे-स्पैम फिल्टर। इन पर विशेष नियम लागू नहीं होंगे, लेकिन सामान्य मानकों का पालन करना होगा।

सामान्य प्रयोजन AI (GPAI):

नियमन:

  • कम प्रणालीगत जोखिम वाले GPAI मॉडल: इन मॉडलों पर कम नियम लागू किए जाएंगे, नवाचार और विकास को प्रोत्साहित करने के लिए।
  • उच्च प्रणालीगत जोखिम वाले GPAI मॉडल: इन मॉडलों पर सख्त नियम लागू किए जाएंगे, यह सुनिश्चित करने के लिए कि उनका उपयोग सुरक्षित और जिम्मेदारी से किया जाता है।

उच्च जोखिम वाले मॉडलों के लिए नियमों का उद्देश्य:

  • स्वास्थ्य, सुरक्षा और मौलिक अधिकारों पर प्रभाव को कम करना।
  • पूर्वाग्रह, दुरुपयोग और नियंत्रण के नुकसान जैसे जोखिमों को कम करना।
  • पारदर्शिता और जवाबदेही सुनिश्चित करना।

नस्लीय और लैंगिक पूर्वाग्रह से निपटना:

  • उच्च जोखिम वाले मॉडलों को पर्याप्त प्रतिनिधि डेटासेट से लैस करना: यह पूर्वाग्रहपूर्ण परिणाम देने के जोखिम को कम करता है।
  • अन्य रणनीतियाँ:
    • डेटा पूर्व-प्रसंस्करण तकनीकों का उपयोग करना।
    • मॉडल में निष्पक्षता को बढ़ावा देने वाले एल्गोरिदम शामिल करना।
    • मॉडल के प्रदर्शन का निष्पक्षता के लिए मूल्यांकन करना।

पूर्वाग्रह से निपटना एक निरंतर प्रक्रिया है:

  • समय के साथ डेटा और एल्गोरिदम में सुधार करना आवश्यक है।
  • सामाजिक और नैतिक चिंताओं पर ध्यान देना महत्वपूर्ण है।

AI के प्रतिबंधित उपयोग:

1. संवेदनशील विशेषताओं के आधार पर बायोमेट्रिक वर्गीकरण प्रणाली:
संवेदनशील विशेषताओं के आधार पर वर्गीकरण को रोका जाएगा, जिससे किसी भी प्रकार के भेदभाव को रोका जा सके।

2. फेशियल रिकग्निशन डेटाबेस:
इंटरनेट से चेहरे की छवियों को स्क्रैप करके डेटाबेस बनाने पर प्रतिबंध होगा, जिससे निजता का उल्लंघन न हो।

3. कार्यक्षेत्र और शैक्षणिक संस्थाओं में भावनाओं की पहचान करने वाली प्रणाली:
कार्यस्थल और शैक्षणिक संस्थाओं में भावनाओं की पहचान करने वाले AI सिस्टम पर रोक लगाई जाएगी, जिससे लोगों की मानसिक स्वतंत्रता और निजता बनी रहे।

AI के विनियमन के लिए अन्य उपाय (वैश्विक स्तर पर)

ब्लेचली घोषणा-पत्र, 2023:
इसमें AI में शामिल जोखिमों और जिम्मेदारियों को व्यापक एवं सहयोगात्मक रूप से स्पष्ट किया गया है। यह कार्य वैज्ञानिक सहयोग को बढ़ावा देने पर अधिक ध्यान केंद्रित करके किया जाएगा। भारत इसका हस्ताक्षरकर्ता देश है।

आर्टिफिशियल इंटेलिजेंस पर वैश्विक साझेदारी (GPAI) का नई दिल्ली मंत्रिस्तरीय घोषणा-पत्र 2023:
सुरक्षित, संरक्षित और विश्वसनीय AI को आगे बढ़ाने पर GPAI के सदस्यों के बीच आम सहमति बनी है। इसका उद्देश्य AI के सुरक्षित और जिम्मेदार उपयोग को सुनिश्चित करना है।

हिरोशिमा AI प्रोसेस:
इसे G-7 में शामिल देशों ने लांच किया है। इसका उद्देश्य AI के विनियमन पर आगे की राह तय करना है। यह पहल AI के प्रभावी और सुरक्षित उपयोग को सुनिश्चित करने के लिए आवश्यक दिशा-निर्देश प्रदान करती है।

निष्कर्ष:

यूरोपीय परिषद द्वारा आर्टिफिशियल इंटेलिजेंस (AI) पर नियमों को अंतिम मंजूरी दी गई है, जो विश्व में अपनी तरह के पहले नियम हैं। इन नियमों का उद्देश्य सुरक्षित और विश्वसनीय AI सिस्टम विकसित करना और नागरिकों के मौलिक अधिकारों का सम्मान सुनिश्चित करना है। इसके साथ ही, वैश्विक स्तर पर भी AI के विनियमन के लिए विभिन्न पहलें की जा रही हैं, जो AI के सुरक्षित और जिम्मेदार उपयोग को सुनिश्चित करने में महत्वपूर्ण भूमिका निभाएंगी। यह कदम न केवल यूरोपीय संघ के लिए बल्कि पूरे विश्व के लिए एक महत्वपूर्ण उदाहरण स्थापित करता है।

FAQs:

यूरोपीय परिषद द्वारा AI पर नियम क्यों बनाए गए हैं?

यूरोपीय परिषद द्वारा AI पर नियम इसलिए बनाए गए हैं ताकि पूरे यूरोपीय संघ में सुरक्षित और विश्वसनीय AI सिस्टम विकसित किया जा सके और EU के नागरिकों के मौलिक अधिकारों का सम्मान सुनिश्चित हो सके।

‘जोखिम-आधारित’ एप्रोच का क्या मतलब है?

‘जोखिम-आधारित’ एप्रोच का मतलब है कि समाज को नुकसान पहुंचने का जोखिम जितना अधिक होगा, नियम भी उतने ही सख्त होंगे। इससे AI सिस्टम्स के संभावित खतरों को नियंत्रित करने में मदद मिलती है।

उच्च जोखिम वाले AI सिस्टम्स के लिए क्या नियम हैं?

उच्च जोखिम वाले AI सिस्टम्स को सख्त निगरानी और मूल्यांकन के बाद ही अनुमति दी जाएगी। इन सिस्टम्स को स्वास्थ्य, सुरक्षा और मौलिक अधिकारों पर प्रभाव डालने से बचाने के लिए कठोर नियमों का पालन करना होगा।

AI के विनियमन के लिए वैश्विक स्तर पर क्या उपाय किए जा रहे हैं?

वैश्विक स्तर पर ब्लेचली घोषणा-पत्र, आर्टिफिशियल इंटेलिजेंस पर वैश्विक साझेदारी (GPAI), और हिरोशिमा AI प्रोसेस जैसी पहलें की जा रही हैं, जो AI के सुरक्षित और जिम्मेदार उपयोग को सुनिश्चित करने में मदद करती हैं।

क्या यूरोपीय परिषद के AI नियम केवल यूरोप में लागू होंगे?

हां, ये नियम मुख्य रूप से यूरोपीय संघ के सदस्य देशों में लागू होंगे, लेकिन ये नियम अन्य देशों के लिए भी एक उदाहरण स्थापित कर सकते हैं और वैश्विक स्तर पर AI विनियमन में सहायक हो सकते हैं।

Sharing Is Caring:

Leave a comment