यूरोपीय [AI Act](https://artificialintelligenceact.eu) कृत्रिम बुद्धिमत्ता पर दुनिया का पहला व्यापक नियमन है। अगस्त 2024 से क्रमिक रूप से लागू, यह EU में AI सिस्टम का उपयोग या तैनाती करने वाली कंपनियों पर सख्त दायित्व लागू करता है। अनुपालन के लिए आपको यह जानना आवश्यक है।
यूरोपीय संघ ने AI नियमन में वैश्विक बढ़त ले ली है। AI Act जोखिम-आधारित कानूनी ढांचा स्थापित करता है जो सभी कंपनियों को प्रभावित करता है - केवल तकनीकी दिग्गजों को नहीं। चाहे आप अपने ईमेल के लिए ChatGPT का उपयोग करें या अपने स्वयं के मॉडल विकसित करें, आप इसके दायरे में हैं।
AI Act के 4 जोखिम स्तर
AI Act AI सिस्टम को उनके जोखिम स्तर के अनुसार 4 श्रेणियों में वर्गीकृत करता है। जोखिम जितना अधिक, दायित्व उतने सख्त।
| स्तर | उदाहरण | दायित्व |
|---|---|---|
| अस्वीकार्य जोखिम | सामाजिक स्कोरिंग, अवचेतन हेरफेर | प्रतिबंधित |
| उच्च जोखिम | HR, क्रेडिट स्कोरिंग, स्वास्थ्य, न्याय | सख्त अनुपालन अनिवार्य |
| सीमित जोखिम | चैटबॉट, डीपफेक | पारदर्शिता अनिवार्य |
| न्यूनतम जोखिम | स्पैम फिल्टर, वीडियो गेम | कोई विशिष्ट दायित्व नहीं |
AI Act के अनुसार जोखिम वर्गीकरण
कौन से सिस्टम उच्च जोखिम में हैं?
- भर्ती और HR : CV छानना, उम्मीदवार मूल्यांकन, भर्ती निर्णय
- क्रेडिट और बीमा : क्रेडिट स्कोरिंग, जोखिम मूल्यांकन
- शिक्षा : स्वचालित ग्रेडिंग, छात्र मार्गदर्शन
- स्वास्थ्य : सहायक निदान, देखभाल प्राथमिकता
- न्याय : पुनरावृत्ति जोखिम विश्लेषण, प्रशासनिक निर्णय
- महत्वपूर्ण बुनियादी ढांचा : परिवहन, ऊर्जा, दूरसंचार
लागू होने की समयरेखा
| तिथि | दायित्व |
|---|---|
| फरवरी 2025 | अस्वीकार्य प्रथाओं का निषेध |
| अगस्त 2025 | GPAI मॉडलों के लिए दायित्व (ChatGPT, Claude...) |
| अगस्त 2026 | अन्य सभी दायित्व (उच्च जोखिम...) |
| अगस्त 2027 | एम्बेडेड सिस्टम के लिए दायित्व |
AI Act अनुपालन समयरेखा
उच्च जोखिम सिस्टम के लिए दायित्व
उच्च जोखिम वर्गीकृत सिस्टम को बाज़ार में आने से पहले सख्त दायित्वों का पालन करना होगा:
- जोखिम प्रबंधन : दस्तावेज़ीकृत जोखिम मूल्यांकन और शमन
- डेटा गुणवत्ता : ट्रेस किए गए और गैर-भेदभावपूर्ण प्रशिक्षण डेटा
- तकनीकी दस्तावेज़ीकरण : दस्तावेज़ीकृत विनिर्देश, प्रदर्शन, सीमाएं
- लॉगिंग : ऑडिट के लिए ऑपरेशन लॉग
- पारदर्शिता : उपयोगकर्ताओं को स्पष्ट जानकारी
- मानव पर्यवेक्षण : निर्णयों पर अनिवार्य मानव नियंत्रण
- मज़बूती : सुरक्षा और विश्वसनीयता परीक्षण
अनुपालन कैसे प्राप्त करें?
चरण 1: अपने AI सिस्टम की सूची
अपनी कंपनी में उपयोग किए जाने वाले सभी AI सिस्टम सूचीबद्ध करें - ChatGPT, Claude या विशिष्ट व्यावसायिक उपकरण जैसे ऑनलाइन सॉफ्टवेयर और बाहरी सेवाओं सहित।
चरण 2: जोखिम वर्गीकरण
प्रत्येक सिस्टम के लिए, इसकी जोखिम श्रेणी निर्धारित करें। ध्यान दें: उपयोग जोखिम निर्धारित करता है, उपकरण नहीं। ईमेल लिखने के लिए ChatGPT = न्यूनतम जोखिम। CV छानने के लिए ChatGPT = उच्च जोखिम।
चरण 3: अनुपालन
उच्च जोखिम सिस्टम के लिए, आवश्यक दस्तावेज़ तैयार करें, नियंत्रण लागू करें और अपनी टीमों को प्रशिक्षित करें। eyreACT जैसे समर्पित उपकरण इस प्रक्रिया के हिस्से को स्वचालित कर सकते हैं।
गैर-अनुपालन पर दंड
AI Act द्वारा प्रावधानित जुर्माने महत्वपूर्ण हैं और टर्नओवर के अनुपात में:
- प्रतिबंधित प्रथाएं : 35M EUR या वैश्विक टर्नओवर का 7% तक
- उच्च जोखिम सिस्टम गैर-अनुपालन : 15M EUR या वैश्विक टर्नओवर का 3% तक
- झूठी घोषणाएं : 7.5M EUR या वैश्विक टर्नओवर का 1% तक
AI प्रदाताओं पर प्रभाव ([OpenAI](/en/companies/openai), [Anthropic](/en/companies/anthropic), [Google](/en/companies/google)...)
ChatGPT, Claude और Gemini जैसे फाउंडेशन मॉडल (GPAI) प्रदाताओं पर अगस्त 2025 से विशिष्ट दायित्व हैं:
- मॉडल का पूर्ण तकनीकी दस्तावेज़ीकरण
- प्रशिक्षण डेटा पर कॉपीराइट का सम्मान
- प्रणालीगत जोखिमों का मूल्यांकन और शमन
- सुरक्षा परीक्षण (रेड-टीमिंग)
FAQ: AI Act अक्सर पूछे जाने वाले प्रश्न
संसाधन और उपकरण
AI नियामक निगरानी
AI Act और यूरोपीय AI नियमों के विकास का पालन करें।
कोई स्पैम नहीं। 1 क्लिक में सदस्यता रद्द करें।
AI Act अनुपालन प्लेटफॉर्म
स्रोत और संदर्भ
आधिकारिक वेबसाइटें और संसाधन :
- AI Act — artificialintelligenceact.eu
- ChatGPT — chat.openai.com
- openai — openai.com
- Claude — claude.ai
- eyreACT — eyreact.com
- Gemini — gemini.google.com
- google — google.com
- GDPR — gdpr.eu
- CNIL — cnil.fr
हमारी विस्तृत समीक्षाएं देखें :





