欧盟通过了全球首个针对人工智能(AI)的全面监管框架。 欧盟人工智能法案获得欧洲议会批准, 523 票赞成, 46 反对, 和 49 票弃权。
该立法旨在解决人工智能复杂的伦理、法律和社会影响,同时鼓励欧洲负责任的人工智能开发和创新。
欧盟人工智能法案的关键概念
欧盟人工智能法案将人工智能系统分为四个风险类别:
- 不可接受
- 高风险
- 有限风险
- 最小风险
这种方法允许制定量身定制的法规,确保规则与所涉及的潜在风险相称。
不可接受的风险人工智能系统
人工智能系统被认为构成了 对基本权利和安全造成不可接受的风险 是 彻底禁止 根据立法。
这包括:
- 可能导致歧视行为的社会评分系统
- 人工智能监控侵犯个人隐私
- 以破坏自主性的方式操纵人类行为的系统
高风险人工智能系统
被视为高风险的人工智能系统是 遵守严格的要求和合格评定。
高风险应用程序的示例包括:
- 关键基础设施中的人工智能
- 人工智能在教育和职业培训中的应用
- 用于招聘和员工管理的人工智能系统
- 执法应用
有限风险人工智能
这些人工智能系统构成了 操纵或欺骗的潜在风险,但总体风险被认为是可控的。
以下是有限风险人工智能的一些示例:
- 用于客户服务或信息提供的人工智能聊天机器人
- 用于娱乐的 Deepfakes
- 试图通过面部表情或语气分析某人情绪的人工智能系统(又称情绪识别系统)
最小风险人工智能
风险最小的人工智能系统被认为构成 对个人或社会的风险很小或没有。 这些系统通常不受特定法规的约束,但 仍应考虑到负责任的做法。
以下是最小风险人工智能的一些示例:
- 人工智能驱动的电子邮件垃圾邮件过滤器可对不需要的邮件进行排序
- 人工智能通过减少噪音或调整颜色来提高照片或视频的质量
- 人工智能可以在电子商务平台或流媒体服务上进行个性化推荐,例如苹果最近发布的人工智能广告系统
欧盟人工智能法案是全球人工智能格局的分水岭。 这项具有里程碑意义的立法表明了我们对利用人工智能的力量,同时保护公民、培养信任和推动负责任的发展的承诺。 有了正确的监管框架,欧洲有望成为安全、道德和有益的人工智能开发的领导者。

下一步是什么?
人工智能法案预计将 5月或6月正式成为法律,经过一些最后的手续,包括欧盟成员国的祝福。
规定将分阶段开始生效:
- 规则写入法律六个月后,各国将被要求禁止被禁止的人工智能系统
- 聊天机器人等通用人工智能系统的规则将在法律生效一年后开始适用
- 到 2026 年中期,包括高风险系统要求在内的整套法规将生效
每个欧盟国家都将设立自己的人工智能监管机构,以便公民在认为自己是违反规则行为的受害者时提出投诉。 布鲁塞尔将设立一个人工智能办公室,负责执行和监督通用人工智能系统的法律。
违反《人工智能法》可能会 处以最高 3500 万欧元(3800 万美元)的罚款,或公司全球收入的 7%。
议会法律工作联合负责人、意大利议员布兰多·贝尼菲 (Brando Benifei) 表示,这并不是布鲁塞尔关于人工智能规则的最后决定。 他说,夏季选举后可能会出台更多与人工智能相关的立法,包括新法律部分涵盖的工作场所人工智能等领域。
有一点是肯定的:欧盟人工智能法案是一项 分水岭时刻 在全球人工智能格局中。
特色图片来源:杰西卡45/Pixabay。
Source: 具有里程碑意义的欧盟人工智能法案立法解决风险并促进创新





