2026 年生产 LLM 系统的 AI 治理清单
EU AI Act 完整执法将于 2026 年 8 月开始。这份实务清单按五层结构, 把每一个生产 LLM 系统都需要落地的治理要素与 ISO 42001、EU AI Act 一一对应。
第 01 节 · 为何此刻
2026 年 8 月会改变什么, 为什么重要
EU AI Act 自 2024 年 8 月起分阶段实施。2026 年 8 月是其余要求 — 包括所有高风险 AI 系统义务 — 完全可执行的时点。
快速回答
简短答案: 2026 年 8 月是 EU AI Act 完全合规的截止日期。高风险 AI 系统面临严格的文档、人工监督和审计要求。多数企业级 LLM 属于有限风险, 但任何用于招聘、信贷、医疗或法律决策的系统都属于高风险。
EU AI Act 分阶段推行给了组织准备时间, 但 2026 年 8 月的截止日期是真实的。执行由欧盟成员国的国家市场监管机构负责, 通用 AI 模型则由欧洲 AI 办公室负责。处罚相当可观: 最严重违规最高可达 3,500 万欧元或全球年营业额的 7%, 其他违规最高 1,500 万欧元或 3%。
该法案还具有域外效力。如果你的 AI 系统在欧盟部署 — 只要影响欧盟居民, 不论公司所在地 — 都受其管辖。这意味着无论是巴基斯坦、美国还是其他地方的公司, 只要构建的 AI 系统会处理或影响欧盟用户, 都需合规。
第 02 节 · 风险分类
你的系统属于哪一类?
| 风险等级 | 示例 | 主要义务 |
|---|---|---|
| 不可接受 (禁止) | 社会评分、实时生物特征监控、潜意识操纵 | 禁止 — 不得在欧盟部署 |
| 高风险 | 招聘工具、信用评分、医疗诊断、教育评估、执法 | 完整文档、人工监督、准确性要求、审计轨迹、合规性评估 |
| 有限风险 (GPAI) | 通用聊天机器人、编码助手、文档摘要 | 透明度义务、版权披露、AI 生成内容标识 |
| 最小风险 | 垃圾邮件过滤器、简单推荐系统、游戏中的 AI | 无强制要求 |
通用 AI 模型 — 包括 GPT-5.4、Claude Sonnet 4.6 和 Gemini 2.5 — 受 GPAI (General Purpose AI) 条款约束, 需要透明度和版权披露, 但负担小于高风险要求。如果你在 GPAI 模型之上构建应用, 而该应用用于高风险用途, 则高风险义务适用于你的应用。
第 03 节 · 治理清单
每个生产级 LLM 系统都需要的五层治理
可接受使用政策
一份成文的政策, 明确 AI 系统被允许做什么、哪些用例被禁止、可以处理哪些数据。这是基础。没有它, 你无法向监管者或审计师证明你思考过系统的风险面。请在 2026 年 8 月之前完成文档化。
数据隔离架构
生产级 LLM 系统不应在没有必要时将个人数据或敏感信息传入模型上下文。在上下文构造前实施 PII 检测, 对欧盟居民数据实施数据驻留控制, 并清晰记录模型看到了哪些数据以及为什么。RAG 架构 — 文档按需检索 — 比把整个数据库塞进去的系统更易审计。
高风险决策的人工复核检查点
对任何会影响个人生活的 AI 辅助决策 — 招聘、信贷、医疗、教育 — 在决策执行前实施人工复核步骤。人工复核不必详尽。它需要被记录、被存档, 并能在实质上推翻 AI 的建议。
事件记录
AI 系统产生错误、有害或非预期输出的每一次事件, 都必须连同日期、输入、输出、上下文和处理结果一并记录。这一日志是 ISO 42001 的要求, 也是 EU AI Act 合规审计的主要证据基础。从现在就开始记录, 不要等到 8 月。
AI 行为的审计轨迹
对会执行操作 — 发送消息、更新记录、触发工作流 — 的代理系统而言, 每个动作都必须连同代理的推理轨迹、调用的工具、传入的参数以及人工审批 (如需要) 一并记录。这是把可治理代理与不可治理代理区分开的关键控制。
第 04 节 · ISO 42001
ISO 42001: 让治理可审计的管理体系
ISO 42001 于 2023 年末发布, 是首个专门面向 AI 管理体系的国际标准。它为组织如何负责任地构建、部署和治理 AI 系统提供了结构化框架。BSI、DNV、TÜV 等主要审计机构现已开展该标准的认证。
ISO 42001 与 EU AI Act 的实务关系: ISO 42001 提供了 EU AI Act 合规要求所假定存在的文档化和过程框架。已通过 ISO 42001 认证的组织在面对 EU AI Act 审计时具有优势, 因为底层的治理基础设施已经就位。
| EU AI Act 义务 | ISO 42001 条款 | 优先级 |
|---|---|---|
| 风险管理体系 | 6.1 — 风险评估 | 高 |
| 技术文档 | 9.1 — 监视、测量、分析 | 高 |
| 人工监督机制 | 8.4 — AI 系统设计控制 | 高 |
| 准确性与稳健性测试 | 9.1 — 性能评估 | 中 |
| 数据治理 | 8.2 — AI 系统数据管理 | 高 |
| 事件记录 | 10.1 — 不符合与纠正措施 | 高 |
FAQ
常见问题
EU AI Act 何时开始全面执行?
2026 年 8 月 2 日。这是其余要求生效的时点, 包括所有高风险 AI 系统义务。该法案自 2024 年 8 月起分阶段推行: 被禁止的 AI 系统自 2025 年 2 月起被禁; GPAI 模型义务自 2025 年 8 月起适用; 完整的高风险制度自 2026 年 8 月起适用。
EU AI Act 是否适用于欧盟以外的公司?
是的。EU AI Act 具有域外效力: 适用于在欧盟部署或影响欧盟居民的任何 AI 系统, 不论提供者所在地。位于巴基斯坦、美国或其他地方的公司, 只要运营的 AI 系统会影响欧盟用户, 就必须合规。
ISO 42001 是什么? 它与 EU AI Act 是什么关系?
ISO 42001 是 2023 年发布的 AI 管理体系国际标准。它提供 EU AI Act 合规所要求的文档化和过程框架。已通过 ISO 42001 认证的组织具备 EU AI Act 审计所寻找的治理基础设施 — 风险登记册、事件日志、人工监督流程。
2026 年 8 月之前最少要落地什么?
一份可接受使用政策、一个事件日志、以及关于谁负责 AI 治理决策的文档。这三项对所有非最小风险系统都是必需的, 落地以天为单位, 也是监管者最先索取的内容。从这里开始, 再叠加技术控制。
EU AI Act 不合规的处罚是什么?
对于涉及禁止 AI 行为或 GPAI 模型义务的违规, 最高 3,500 万欧元或全球年营业额的 7%。其他违规最高 1,500 万欧元或营业额的 3%。向监管机构提供错误信息最高 750 万欧元或营业额的 1.5%。
常见问题
- EU AI Act 完整执法是什么时候开始?
- 2026 年 8 月 2 日。届时剩余义务全部生效, 其中包括所有高风险 AI 系统的合规要求。该法案自 2024 年 8 月以来分阶段实施: 2025 年 2 月起禁止特定 AI 系统, 2025 年 8 月起 GPAI 模型义务生效, 2026 年 8 月进入完整高风险监管阶段。
- EU AI Act 是否适用于欧盟以外的公司?
- 适用。EU AI Act 具有域外效力: 任何在欧盟部署或对欧盟居民产生影响的 AI 系统, 无论提供者位于何地都要遵守。即便公司在巴基斯坦、美国或其他地区, 只要服务对象包含欧盟用户, 就需要合规。
- ISO 42001 是什么? 与 EU AI Act 是什么关系?
- ISO 42001 是 2023 年发布的国际 AI 管理体系标准, 提供 EU AI Act 合规所需的文档与流程框架。已经获得 ISO 42001 认证的组织, 已经具备 EU AI Act 审计关注的治理基础设施 — 风险登记册、事故日志和人工监督流程。
- 在 2026 年 8 月前, 至少要做到什么?
- 一份可接受使用政策、一份事故日志, 以及明确写出谁对 AI 治理决策负责的责任分配文件。除了最低风险类别外, 这三件事对所有系统都是必备的, 几天内就能落地, 也是监管机构最先索要的材料。
- EU AI Act 违规会面临哪些处罚?
- 在违反禁止 AI 实践或 GPAI 模型义务的情况下, 最高可达 3,500 万欧元或全球年营业额的 7%; 其他违规最高 1,500 万欧元或 3%; 向监管机构提供错误信息的, 最高 750 万欧元或 1.5%。