近日,社交媒体平台X(原Twitter)宣布紧急限制其旗下人工智能模型Grok的图像生成功能,明确禁止用户使用该功能编辑真人照片或生成包含裸露内容的图像。此举源于近期多起滥用AI生成技术引发的争议事件,包括伪造名人形象、生成不当视觉内容等,严重冲击平台内容安全与用户信任。据X平台内部消息,此次管控措施涵盖对Grok图像生成模块的严格审核机制升级,系统将自动识别并拦截涉及真实人物肖像的修改请求,同时强化对敏感关键词和视觉特征的过滤,防止生成暴露性器官、低俗或诱导性图像。平台表示,所有相关功能在未通过合规审查前将被临时下线,直至完成全面安全评估。分析指出,这一举措反映了社交平台在拥抱生成式AI技术的同时,正面临日益严峻的伦理与法律挑战。尽管Grok作为马斯克主导的先进大模型具备强大图像创作能力,但其潜在滥用风险已引发监管机构关注。欧美多地已开始推动立法规范深度伪造(Deepfake)内容传播,而平台主动限权,既是应对监管压力的策略,也是维护品牌形象的关键一步。此外,专家提醒,未来AI内容治理需建立“技术+制度”双轨机制,仅靠算法屏蔽难以根治问题,还需加强用户教育与责任追溯体系。此次限制虽短期内影响用户体验,但从长远看,有助于构建更可信的数字生态。