2023年底,欧盟人工智能法规(EUKIVO)谈判几乎与欧洲议会和欧洲理事会经过艰苦谈判达成临时协议同时画上了圆满的句号。关于什么属于人工智能术语,以及系统、技术或用例是否应该划分为风险类别,一直存在长期争论。在做出这些以及其他各种基本决定之后,必须澄清一系列细节。特别是,关于禁止行为(最高风险类别)和高风险人工智能系统存在很多争论。在某些情况下,国家利益在这里处于前台,因为公共场所生物识别实时识别的禁令意味着某些反恐做法不再被允许,但在某种程度上,某些技术的发展也使得分类成为必要:所谓的基础模型或生成式人工智能应该做什么?
新法律现在包括对所谓通用人工智能(GPAI)的安全处理、对生物识别系统的刑事起诉(因此只是限制)、明确禁止所谓的社会评分和操纵性人工智能。此外,公民现在有权起诉人工智能系统或要求向他们解释基于人工智能的决策。合规违规的预期罚款金额也最终确定:从 750 万欧元(占公司全国年营业额的 1.5%)到 3500 万欧元(占公司全球营业额的 7%)。
欧盟人工智能法规的风险类别
除了这些防护措施之外,EUKIVO 的重点还在于风险类别以及 医疗实践电子邮件列表 如何处理它们。下图显示了不同的渐变:
欧盟人工智能法规的风险类别
最低风险的AI系统将AI应用在一个非常狭窄的领域,这是AI系统提供商的首要责任。例如,这可能是视频游戏或管理系统中的人工智能支持。人工智能的这一部分在法律中没有明确规定,因此不受任何特殊规定的约束。
借助下一级别的低风险人工智能系统,人们已经可以直接与人工智能进行交互,例如在使用聊天机器人时。这是法律首次发挥作用,并要求提供者保持透明(参见第 52 条“某些人工智能系统的透明度义务”)。因此,必须告知自然人他们正在与人工智能系统进行交互,特别是在使用深度造假等技术时。
高风险的人工智能系统是 EUKIVO 的真正重点,它对其进行全面监管,并对各个参与者施加了深远的义务。附件三(“第 6(2)条中提到的高风险人工智能系统”)将其分为八个领域:
1、自然人生物特征识别与分类
2. 关键基础设施的管理和运营
3. 教育培训
4. 就业、人力资源管理和自营职业的机会
5. 获得和使用基本私人和公共服务及福利
6. 执法
7. 移民、庇护和边境管理
8. 司法和民主程序
对于至少属于这些领域之一的人工智能系统,必须满足严格的要求,例如风险和质量管理、文档、数据质量管理和数据治理、防止歧视的流程和方法、可追溯性、透明度以及稳健性,安全性和准确性。
在最高层存在被禁止的人工智能系统。这些做法可被归类为危害安全和人权。这包括已经提到的社会评分,还包括所有用于行为操纵的潜意识或剥削技术。
结论
根据 2023 年 12 月 9 日的协议,欧盟制定了一项迄今为止独一无二的立法提案,但与 GDPR 类似,将在世界范围内找到模仿者,即所谓的布鲁塞尔效应(参见 [4])。一方面,该法律将保护公民权利,同时通过各种锚定措施促进创新,另一方面通过透明度和可追溯性实现对人工智能系统的信任。欧盟人工智能法规将从 2026 年起在欧盟适用。
您想了解更多关于 adesso 世界中令人兴奋的话题吗?那么请看一下我们之前发布的博客文章。
您想了解更多关于 adesso 在 AI 环境中提供哪些解决方案和服务吗?然后查看我们的AI 网站或查看我们有关 AI 主题的其他博客文章。