TikTok 下架视频摘要 AI 功能:因屡次出现“蓝莓”等严重幻觉

# TikTok 下架视频摘要 AI 功能:当“蓝莓”成为AI幻觉的缩影

近日,TikTok 悄然下架了其内置的视频摘要 AI 功能,原因是该功能在运行过程中屡次出现严重的“幻觉”现象——例如,在总结一段与水果完全无关的视频时,AI 却“一本正经”地输出“视频中提到了蓝莓”等明显错误的信息。这一决定不仅暴露了当前生成式 AI 在内容理解与摘要生成上的脆弱性,也为短视频平台如何安全部署 AI 工具敲响了警钟。

## 技术根源:幻觉从何而来?

视频摘要 AI 通常依赖多模态大模型(如视觉-语言模型),通过提取视频中的关键帧、字幕和音频,再生成一段自然语言摘要。然而,这类模型在推理时存在概率性“编造”倾向:当模型对某些视觉元素(如模糊物体、快速切换的场景)缺乏明确置信度时,它会基于统计相关性“猜测”一个最可能出现的词汇。以“蓝莓”为例,如果训练数据中大量出现了“水果”“蓝色”“圆状”等特征的组合,模型便可能在毫无依据的场景中“脑补”出蓝莓。这种幻觉并非个例,而是大模型在开放域生成任务中的系统性缺陷——尤其在面对短视频这种信息碎片化、噪声高的内容时,模型更容易“补全”出荒谬的细节。

## 平台权衡:用户体验 vs. 技术风险

TikTok 下架该功能,反映了平台在“AI 辅助创作”与“信息准确性”之间的现实抉择。视频摘要原本旨在帮助用户快速浏览内容、提升浏览效率,但一旦摘要中出现事实性错误,反而会误导用户对视频的理解,甚至引发传播虚假信息的风险。对于拥有数亿日活的平台而言,哪怕 1% 的摘要出现幻觉,都可能造成大规模的信息污染。此外,这类错误还可能被恶意利用——例如通过诱导 AI 生成虚假摘要来抹黑特定内容或人物。

## 行业启示:AI 功能落地需“防幻觉”设计

此次事件并非孤例。从谷歌搜索的 AI 概览建议“吃石头”到微软 Copilot 编造会议记录,AI 幻觉已成为阻碍产品落地的核心瓶颈。TikTok 的主动下架,本质上是一次“负责任的 AI”实践:在无法确保输出可靠性之前,宁可暂停功能也不愿牺牲用户体验。这提示其他平台,在推出 AI 摘要、AI 评论等生成式功能时,必须建立多层次的校验机制——比如引入事实核查管道、限制摘要的置信度阈值,甚至对高风险领域(如健康、新闻)禁止自动摘要。未来,随着“检索增强生成”(RAG)和“可控生成”技术的成熟,或许能从根本上减少此类幻觉,但在此之前,谨慎部署仍是唯一正确的选择。

相关文章