# 欧盟人工智能法规谈判未果:核心分歧与后续展望
经过长达数月的紧张谈判,欧盟《人工智能法案》(AI Act)的最终三方磋商(Trilogue)于本周未能达成政治协议,各方同意将谈判推迟至下月继续。这一结果虽在意料之中,却也折射出全球首部综合性AI监管框架在平衡创新、安全与基本权利之间的深层矛盾。
**谈判僵局的核心焦点**主要集中在两个领域:一是**高风险AI系统的分类标准**。欧洲议会坚持扩大高风险清单,将生物识别监控、情绪识别、信用评分等场景纳入严格监管,而部分成员国(如法国和德国)担忧过严的规则会抑制本国AI初创企业的竞争力,主张赋予开发者更多自评估空间。二是**基础模型(Foundation Models)的监管路径**。随着ChatGPT等生成式AI的爆发,欧盟委员会提议对“通用人工智能”(GPAI)实施分级义务,但欧洲议会要求对最强大的模型(如GPT-4、Claude 3)进行外部审计和透明度披露,而理事会倾向于依赖行业自律和事后问责,双方在“事前许可”还是“事后追责”上分歧明显。
此外,**执法机制与处罚力度**也是一大争议点。欧洲议会主张设立独立的欧洲AI办公室,统一执行规则并赋予其高额罚款权(最高可达全球营收的7%);而理事会更倾向于由各国现有监管机构协同执法,避免新增官僚层级。这种“集中化”与“去中心化”的治理哲学冲突,在最后关头导致文本无法敲定。
**此次谈判未果的影响是多重的**。短期来看,欧盟AI法规的最终落地时间可能推迟至2024年下半年甚至更晚,这给企业合规带来了不确定性——许多科技公司已开始按草案调整内部流程,但细则的变动可能导致成本浪费。中期来看,若欧盟无法在年内达成一致,其“布鲁塞尔效应”将减弱,美国、中国等竞争对手可能加速制定本国标准,削弱欧盟在全球AI治理中的话语权。长期而言,各方需要在“促进创新”与“防范风险”之间找到更具可操作性的折中方案,例如对基础模型采取“沙盒测试+渐进式监管”,或对高风险分类引入行业豁免条款。
下月的磋商将是关键窗口期。西班牙轮值主席国已表示将缩小争议范围,优先就高风险定义和基础模型义务达成框架性共识,其余细节留待后续技术性修订。可以预见,最终法案将是一个多方妥协的产物——既不会如议会版本那般严苛,也不会像理事会版本那样宽松,但无论如何,欧盟正试图为全球AI治理树立一个“以人为本”的标杆,其成败将对未来数字世界的规则产生深远影响。