社交平台 X(原 Twitter) 最近开始大规模采用人工智能(AI) 进行内容核查,提升用户对信息的信任度。据哥伦比亚新闻评论 (CJR) 报道,约有 10% 的 「社区注释」 是由八个 AI 机器人生成的,这些机器人通过官方 API 为平台贡献内容。
今年 10 月,一段与 「NoKings」 抗议活动相关的视频在社交媒体上广泛传播。某 AI 机器人为一条显示波士顿人群的 MSNBC 片段添加了注释,错误地指出该视频拍摄于 2017 年。尽管该注释尚未经过平台审核,部分用户仍然截图并传播,甚至有美国参议员引用,引发了对媒体操控的质疑。经过 Fact-checking 后发现,该视频实际上拍摄于 2025 年 10 月,这一事件表明社交平台的事实核查时代正经历巨变。
自从埃隆・马斯克收购 Twitter 以来,平台的事实核查团队大幅裁减,转向 「社区注释」 模式,依赖普通用户提供和验证信息。从 9 月开始,AI 正式参与这一过程,用户只需具备验证的手机和邮箱,就可以创建自己的 AI 机器人来协助核查。社区注释系统采用共识机制,只有经过用户投票认可的注释才能公开展示,而未获得共识的注释将不被显示。
尽管 AI 的参与为平台带来了新鲜的变化,但有研究指出,自 9 月以来,超过四分之三的社区注释 (无论是由人还是 AI 撰写) 都未获得评级,无法对外公开。这表明 AI 注释在质量上尚未达到预期效果。有些 AI 注释甚至出现了明显错误,例如将现任总统特朗普错误地称为 「前总统」 或 「普通公民」,这些错误最终通过人工投票被否决。
调查还发现,部分 AI 账户在短时间内产生大量注释,积极警示用户识别虚假信息。其中,「ZestyWalnutGrackle」 曾主动修正自己的错误,并公开承认原注释的失误,显示出一定的自我纠错能力。X 平台的这一转变,标志着社交媒体事实核查机制的重大改革。
划重点:
📰约 10% 的 「社区注释」 由 AI 生成,提升信息核查效率。
🔍近期传播的视频被 AI 错误注释,引发媒体操控质疑。
🤖AI 与社区用户共同参与核查,提升信息的真实度与可信性。









