आर्टिफिशियल इंटेलिजेंस (AI) पर नियमों को लेकर यूरोपीय परिषद ने महत्वपूर्ण कदम उठाते हुए इन्हें अंतिम मंजूरी दी है। ये नियम विश्व में अपनी तरह के पहले नियम हैं, जिनका उद्देश्य पूरे यूरोपीय संघ (EU) में सुरक्षित और विश्वसनीय AI सिस्टम विकसित करना और EU के नागरिकों के मौलिक अधिकारों का सम्मान सुनिश्चित करना है।
नियमों के मुख्य बिंदु:
जोखिम-आधारित एप्रोच:
नियमों के तहत ‘जोखिम-आधारित’ एप्रोच के अनुपालन की बात कही गई है। इसका मतलब है कि समाज को नुकसान पहुंचने का जोखिम जितना अधिक होगा, नियम भी उतने ही सख्त होंगे। यह सुनिश्चित करता है कि AI सिस्टम्स से होने वाले संभावित खतरों को नियंत्रित करने के लिए प्रभावी उपाय किए जाएं।
AI सिस्टम्स के लिए जोखिम के चार स्तर:
1. अस्वीकार्य जोखिम (निषेध):
ये ऐसे जोखिम हैं, जो यूरोपीय संघ के मौलिक अधिकारों का उल्लंघन करते हैं। ऐसे AI सिस्टम्स को प्रतिबंधित किया जाएगा ताकि नागरिकों के अधिकारों और सुरक्षा को सुनिश्चित किया जा सके।
2. उच्च जोखिम (नियमों के अनुरूप होने के मूल्यांकन की आवश्यकता और निगरानी):
ये ऐसे जोखिम हैं, जो स्वास्थ्य, सुरक्षा, मौलिक अधिकार आदि पर प्रभाव डाल सकते हैं। ऐसे AI सिस्टम्स को सख्त निगरानी और मूल्यांकन के बाद ही अनुमति दी जाएगी। इन प्रणालियों का विस्तृत मूल्यांकन और निगरानी आवश्यक है ताकि यह सुनिश्चित किया जा सके कि वे उच्च मानकों का पालन करते हैं और किसी भी प्रकार के नकारात्मक प्रभाव को रोका जा सके।
3. विशिष्ट पारदर्शिता जोखिम (सूचना और पारदर्शिता दायित्वों की आवश्यकता):
यूरोपीय परिषद द्वारा अनुमोदित AI नियमों के तहत विशिष्ट पारदर्शिता जोखिम वाले AI सिस्टम्स को सूचना और पारदर्शिता दायित्वों को पूरा करना होगा। इसमें हेरफेर, प्रतिरूपण (Impersonation) आदि का जोखिम शामिल है, और ऐसे सिस्टम्स को स्पष्ट सूचना और पारदर्शिता बनाए रखने की आवश्यकता होगी ताकि उपयोगकर्ताओं को सही और सटीक जानकारी प्राप्त हो सके।
4. कम जोखिम (कोई विशिष्ट नियम नहीं):
इसमें सामान्य AI सिस्टम्स से जुड़े जोखिम शामिल हैं, जैसे-स्पैम फिल्टर। इन पर विशेष नियम लागू नहीं होंगे, लेकिन सामान्य मानकों का पालन करना होगा।
सामान्य प्रयोजन AI (GPAI):
नियमन:
- कम प्रणालीगत जोखिम वाले GPAI मॉडल: इन मॉडलों पर कम नियम लागू किए जाएंगे, नवाचार और विकास को प्रोत्साहित करने के लिए।
- उच्च प्रणालीगत जोखिम वाले GPAI मॉडल: इन मॉडलों पर सख्त नियम लागू किए जाएंगे, यह सुनिश्चित करने के लिए कि उनका उपयोग सुरक्षित और जिम्मेदारी से किया जाता है।
उच्च जोखिम वाले मॉडलों के लिए नियमों का उद्देश्य:
- स्वास्थ्य, सुरक्षा और मौलिक अधिकारों पर प्रभाव को कम करना।
- पूर्वाग्रह, दुरुपयोग और नियंत्रण के नुकसान जैसे जोखिमों को कम करना।
- पारदर्शिता और जवाबदेही सुनिश्चित करना।
नस्लीय और लैंगिक पूर्वाग्रह से निपटना:
- उच्च जोखिम वाले मॉडलों को पर्याप्त प्रतिनिधि डेटासेट से लैस करना: यह पूर्वाग्रहपूर्ण परिणाम देने के जोखिम को कम करता है।
- अन्य रणनीतियाँ:
- डेटा पूर्व-प्रसंस्करण तकनीकों का उपयोग करना।
- मॉडल में निष्पक्षता को बढ़ावा देने वाले एल्गोरिदम शामिल करना।
- मॉडल के प्रदर्शन का निष्पक्षता के लिए मूल्यांकन करना।
पूर्वाग्रह से निपटना एक निरंतर प्रक्रिया है:
- समय के साथ डेटा और एल्गोरिदम में सुधार करना आवश्यक है।
- सामाजिक और नैतिक चिंताओं पर ध्यान देना महत्वपूर्ण है।
AI के प्रतिबंधित उपयोग:
1. संवेदनशील विशेषताओं के आधार पर बायोमेट्रिक वर्गीकरण प्रणाली:
संवेदनशील विशेषताओं के आधार पर वर्गीकरण को रोका जाएगा, जिससे किसी भी प्रकार के भेदभाव को रोका जा सके।
2. फेशियल रिकग्निशन डेटाबेस:
इंटरनेट से चेहरे की छवियों को स्क्रैप करके डेटाबेस बनाने पर प्रतिबंध होगा, जिससे निजता का उल्लंघन न हो।
3. कार्यक्षेत्र और शैक्षणिक संस्थाओं में भावनाओं की पहचान करने वाली प्रणाली:
कार्यस्थल और शैक्षणिक संस्थाओं में भावनाओं की पहचान करने वाले AI सिस्टम पर रोक लगाई जाएगी, जिससे लोगों की मानसिक स्वतंत्रता और निजता बनी रहे।
AI के विनियमन के लिए अन्य उपाय (वैश्विक स्तर पर)
ब्लेचली घोषणा-पत्र, 2023:
इसमें AI में शामिल जोखिमों और जिम्मेदारियों को व्यापक एवं सहयोगात्मक रूप से स्पष्ट किया गया है। यह कार्य वैज्ञानिक सहयोग को बढ़ावा देने पर अधिक ध्यान केंद्रित करके किया जाएगा। भारत इसका हस्ताक्षरकर्ता देश है।
आर्टिफिशियल इंटेलिजेंस पर वैश्विक साझेदारी (GPAI) का नई दिल्ली मंत्रिस्तरीय घोषणा-पत्र 2023:
सुरक्षित, संरक्षित और विश्वसनीय AI को आगे बढ़ाने पर GPAI के सदस्यों के बीच आम सहमति बनी है। इसका उद्देश्य AI के सुरक्षित और जिम्मेदार उपयोग को सुनिश्चित करना है।
हिरोशिमा AI प्रोसेस:
इसे G-7 में शामिल देशों ने लांच किया है। इसका उद्देश्य AI के विनियमन पर आगे की राह तय करना है। यह पहल AI के प्रभावी और सुरक्षित उपयोग को सुनिश्चित करने के लिए आवश्यक दिशा-निर्देश प्रदान करती है।
निष्कर्ष:
यूरोपीय परिषद द्वारा आर्टिफिशियल इंटेलिजेंस (AI) पर नियमों को अंतिम मंजूरी दी गई है, जो विश्व में अपनी तरह के पहले नियम हैं। इन नियमों का उद्देश्य सुरक्षित और विश्वसनीय AI सिस्टम विकसित करना और नागरिकों के मौलिक अधिकारों का सम्मान सुनिश्चित करना है। इसके साथ ही, वैश्विक स्तर पर भी AI के विनियमन के लिए विभिन्न पहलें की जा रही हैं, जो AI के सुरक्षित और जिम्मेदार उपयोग को सुनिश्चित करने में महत्वपूर्ण भूमिका निभाएंगी। यह कदम न केवल यूरोपीय संघ के लिए बल्कि पूरे विश्व के लिए एक महत्वपूर्ण उदाहरण स्थापित करता है।
FAQs:
यूरोपीय परिषद द्वारा AI पर नियम क्यों बनाए गए हैं?
यूरोपीय परिषद द्वारा AI पर नियम इसलिए बनाए गए हैं ताकि पूरे यूरोपीय संघ में सुरक्षित और विश्वसनीय AI सिस्टम विकसित किया जा सके और EU के नागरिकों के मौलिक अधिकारों का सम्मान सुनिश्चित हो सके।
‘जोखिम-आधारित’ एप्रोच का क्या मतलब है?
‘जोखिम-आधारित’ एप्रोच का मतलब है कि समाज को नुकसान पहुंचने का जोखिम जितना अधिक होगा, नियम भी उतने ही सख्त होंगे। इससे AI सिस्टम्स के संभावित खतरों को नियंत्रित करने में मदद मिलती है।
उच्च जोखिम वाले AI सिस्टम्स के लिए क्या नियम हैं?
उच्च जोखिम वाले AI सिस्टम्स को सख्त निगरानी और मूल्यांकन के बाद ही अनुमति दी जाएगी। इन सिस्टम्स को स्वास्थ्य, सुरक्षा और मौलिक अधिकारों पर प्रभाव डालने से बचाने के लिए कठोर नियमों का पालन करना होगा।
AI के विनियमन के लिए वैश्विक स्तर पर क्या उपाय किए जा रहे हैं?
वैश्विक स्तर पर ब्लेचली घोषणा-पत्र, आर्टिफिशियल इंटेलिजेंस पर वैश्विक साझेदारी (GPAI), और हिरोशिमा AI प्रोसेस जैसी पहलें की जा रही हैं, जो AI के सुरक्षित और जिम्मेदार उपयोग को सुनिश्चित करने में मदद करती हैं।
क्या यूरोपीय परिषद के AI नियम केवल यूरोप में लागू होंगे?
हां, ये नियम मुख्य रूप से यूरोपीय संघ के सदस्य देशों में लागू होंगे, लेकिन ये नियम अन्य देशों के लिए भी एक उदाहरण स्थापित कर सकते हैं और वैश्विक स्तर पर AI विनियमन में सहायक हो सकते हैं।