AI“幻觉”同样要担责!百度因AI生成虚假侵权内容被判道歉

# AI“幻觉”同样要担责!百度因AI生成虚假侵权内容被判道歉

近日,一起因AI生成内容引发的侵权案引发业界广泛关注:百度因旗下AI产品生成虚假信息,对他人名誉造成损害,被法院判决公开道歉并承担相应责任。这一判决首次明确:即便信息由AI自动生成,运营方也不能以“技术幻觉”为由免责。这标志着司法实践对生成式AI的责任边界划出了清晰红线。

## 事件回顾与法律定性

案件核心在于百度AI生成的文本中出现了不存在的“人物事迹”和“负面评价”,导致当事人社会评价降低。法院审理认为,百度作为AI服务的提供者,对生成内容负有审核与管理义务。尽管AI“幻觉”是当前大语言模型的技术性缺陷,但《民法典》第一千一百九十五条及《生成式人工智能服务管理暂行办法》均要求平台对输出内容的真实性、合法性承担“必要注意义务”。百度未能有效拦截虚假信息,构成过错,需承担侵权责任。

## 技术漏洞不能成为“挡箭牌”

AI“幻觉”指模型生成看似合理但实际错误或虚构的信息。过去,不少企业将其归为“技术固有局限”,试图规避法律责任。但本案判决传递出明确信号:技术风险不能转嫁给用户或受害者。运营方理应通过提示词优化、事实核查机制、人工审核等环节降低“幻觉”概率;若因疏忽放任虚假信息传播,则须承担相应法律后果。这实质上是将“技术中立”原则拉回“技术可控”的监管框架。

## 行业启示与合规路径

此案为整个AI行业敲响警钟。一方面,AI服务商需建立更严格的生成内容过滤与溯源系统,对涉及人物、机构、历史事件等敏感信息进行交叉验证;另一方面,应主动在输出界面标注“内容可能不准确”等风险提示,并留存生成日志以备追溯。长远来看,行业需推动建立AI生成内容的“可信度评分”机制,并探索算法审计与第三方评估制度,让“幻觉”不再是法律盲区。

人工智能的进步不应以牺牲他人合法权益为代价。当AI的“幻觉”沦为侵权工具,法律终将让责任落地。百度案只是一个开始,未来所有AI参与者都须在创新与合规之间找到平衡。

相关文章