Meta监督委员会在针对以伊冲突期间人工智能生成内容传播情况的审查中发现,平台需采取更多措施帮助用户识别此类内容。该委员会指出,随着AI生成技术在冲突报道中的滥用风险加剧,Meta有必要完善内容标识机制,确保用户能够明确区分真实信息与合成内容。
委员会在最新裁决中强调,当前平台对AI生成内容的标注标准存在模糊地带,可能导致误导性信息在危机事件中快速扩散。建议Meta建立更透明的溯源系统,强制创作者披露内容生成方式,同时优化算法推荐机制,优先展示经认证的信息来源。
此次审查源于平台用户对两段疑似AI生成视频的投诉,这些内容试图扭曲冲突现场的真实情况。委员会认定,尽管Meta已下架相关视频,但暴露出平台在应对新型虚假信息战方面的系统性短板。专家认为,在地缘政治紧张时期,科技公司应承担更高标准的内容治理责任。