欧盟AI法案:对技术传播生态系统的影响
欧盟《人工智能法案》2025年2月2日起执行,将AI系统分高、有限、低风险三类监管,高风险系统被严格监管,有限和低风险系统需满足透明度等要求,确保公平、透明和合规。
欧盟《人工智能法案》是一项由欧盟(EU)引入的基于风险的法规。任何向欧盟市场销售产品和服务的组织都必须遵守这项人工智能法案。欧盟人工智能法案确保在社会中保持和谐、公平和透明,使得构建人工智能系统的公司能够公平竞争。这项法规与GDPR非常相似,后者由欧盟制定,设定了关于如何收集、管理和使用个人数据的全球标准。鉴于人工智能在我们日常生活中的普及,理解人工智能系统的细微差别及其如何影响我们的生活非常重要。
从2025年2月2日开始,欧盟将开始执行该法案的第一章和第二章,届时各组织必须投入资源发展人工智能素养,以确保每个人都了解欧盟人工智能法案及其规定。
欧盟人工智能法案框架
欧盟人工智能法案将人工智能系统分为三类:
- 高风险:对个人和社会产生显著或不可接受风险的人工智能系统。这类系统通常涉及某种评分/评级系统,对存在大量固有偏见的个体进行歧视。
- 有限风险:产生有限风险的人工智能系统,例如聊天机器人,人们被明确告知正在与机器对话。
- 低风险:产生最小风险或无风险的人工智能系统。这包括垃圾邮件过滤系统、天气预报等。
高风险人工智能系统
根据欧盟人工智能法案,少数人工智能系统是被禁止的,其中包括:
高风险的人工智能系统是指利用各种数据对个人进行分析,并基于这些分析数据做出对个人造成伤害的决策的系统。根据欧盟人工智能法案,这些系统受到严格监管。
有限风险人工智能系统
少数人工智能系统因其被归类为有限风险系统而获准在欧盟使用。这包括:
- 聊天机器人:基于知识源生成对客户问题的回复
- 虚拟助手:生成音频或视频输出,为任何创意任务提供协助
- 生成工具:为内容创作或帮助人类而共同生成文本、音频和视频
只要告知客户他们正在与人工智能系统交互,并且系统输出被标记为人工生成的内容,这些人工智能系统就被允许运行。除了透明度通知外,监控人工智能系统的输出非常重要,以便记录所有数据以符合合规要求。
低风险人工智能系统
这些是少数可以部署的低风险人工智能系统,只需要最少的透明度说明和技术文档,包括:
- 垃圾邮件过滤器:在电子邮件或其他系统中检测和识别垃圾邮件,AI系统大规模检测不需要的信息
- 简单推荐系统:基于现有内容推荐相关内容
- 视频游戏:在视频游戏内部使用AI系统进行基本模拟和功能实现
- 简单预测系统:包括天气预报、交通拥堵预测等
尽管建议提供透明度文档和标准测试程序,但这并非强制要求。
通用人工智能模型
任何大型语言模型的提供者都被归类为系统性风险,并承担许多义务。系统性风险包括大型语言模型的参数数量、训练模型所使用的计算能力等。欧盟《人工智能法案》提供了一套实践准则,以确保大型语言模型的构建符合道德,并以负责任、无歧视/偏见的方式为人类服务。
如需构建一个负责任、透明且合规的知识管理系统,Baklib可以为您提供安全、可靠的平台支持。
欧盟设立了一个人工智能办公室,负责管理《欧盟人工智能法案》的实施。将成立欧洲人工智能委员会来监督该法规的执行,委员会的代表来自各成员国。该委员会将促进制定可供供应商、提供商等遵守的实践规范。同时设立咨询论坛,通过咨询所有利益相关者,为委员会提供技术专长。欧盟将创建一个包含高风险人工智能系统列表的数据库,以及监控和执行该法规所需的其他数据。该法规也适用于在欧盟市场以外运营但向欧盟地区提供产品和服务的公司。
为了遵守《欧盟人工智能法案》,人工智能系统的提供商必须披露关于其人工智能系统如何运作以及后端实现的所有必要信息。技术文档工程师将在记录人工智能系统信息方面发挥重要作用,包括:
- 关于人工智能系统所用算法的清晰文档。
- 关于使用哪些数据、以及分别作为输入和输出捕获哪些数据的技术文档。
- 涵盖负责任的人工智能实践和知识产权的伦理与安全文档。
- 涵盖网络安全要点的文档。
现在正是技术文档工程师学习人工智能技术基础知识的时候,以便能够综合来自数据科学家、法律团队、机器学习工程师和产品经理的信息,为遵守《欧盟人工智能法案》收集重要信息。
另请阅读:每位技术文档工程师都应了解的技术写作示例
结论
理解欧盟《人工智能法案》对于理解您的法律义务并采取适当合规措施至关重要。该法案是确保软件供应商和模型供应商负责任地实践人工智能的第一步。软件供应商必须对其产品和服务中部署的人工智能系统保持透明,通过发布与其人工智能产品功能相关的必要技术文档来实现。除此之外,供应商还可以发布人工智能素养资料,以帮助其客户了解人工智能基础知识和技术进步。