X 正在试行一个让 AI 聊天机器人生成社区笔记的计划
        社交平台 Xwill 试行了一项功能,允许 AI 聊天机器人生成社区笔记。

         社区笔记是埃隆马斯克 (Elon Musk) 在他拥有的服务(现在称为 X)下扩展的 Twitter 时代功能。 参与此事实核查程序的用户可以贡献评论,为某些帖子添加上下文,然后其他用户会在这些帖子附加到帖子之前对其进行检查。 例如,社区说明可能会出现在不清楚的 AI 生成的视频的帖子上关于它的合成起源,或者作为政客的误导性帖子的附录。 当

         Notes 在历史上对过去的评级持不同意见的群体之间达成共识时,它们就会被公开。

         社区笔记在 X 上已经取得了足够的成功,激发了 Meta、TikTok 和 YouTube 采取类似的举措——Meta 完全取消了其第三方事实核查计划,以换取这种低成本、社区来源的劳动力。

         但人工智能的使用是否有待观察作为事实核查员的聊天机器人将被证明是有益的或有害的。

         这些 AI 笔记可以使用 X 的 Grok 或使用其他 AI 工具并通过 API 将它们连接到 X 来生成。 AI 提交的任何注释都将被视为与个人提交的注释相同,这意味着它将经过相同的审查过程以提高准确性。

         在事实核查中使用 AI 似乎值得怀疑,因为 AI 产生幻觉或编造并非基于现实的背景是多么普遍。

        

图片来源:X Community Notes(opens in a new window)

         根据从事 X Community Notes 工作的研究人员本周发表的一篇论文,建议人类和 LLM 协同工作。 人工反馈可以通过强化学习来增强 AI 笔记的生成,人工笔记评分员仍然是笔记发布前的最终检查。

         “我们的目标不是创建一个告诉用户该怎么想的 AI 助手,而是建立一个赋予人类权力的生态系统更批判性地思考,更好地理解世界,“该论文说。 “LLM 和人类可以在一个良性循环中一起工作。”

         即使进行人工检查,过度依赖 AI 仍然存在风险,尤其是因为用户将能够嵌入来自第三方的 LLM。 例如,OpenAI 的 ChatGPT 最近遇到了模型过度 lylysycophantic 的问题。 如果 LLM 优先考虑 “有用性” 而不是准确完成事实核查,那么 AI 生成的评论可能最终会直截了当是不准确的。

         还有人担心,AI 生成的评论数量会使人类评分者超负荷工作,从而降低他们充分完成这项志愿者工作的积极性。

         用户不应该期望看到 AI 生成的社区笔记——X 计划测试这些 AI 贡献几周,如果成功,再更广泛地推出它们。