图片来源:X Community Notes(opens in a new window)
根据从事 X Community Notes 工作的研究人员本周发表的一篇论文,建议人类和 LLM 协同工作。 人工反馈可以通过强化学习来增强 AI 笔记的生成,人工笔记评分员仍然是笔记发布前的最终检查。 “我们的目标不是创建一个告诉用户该怎么想的 AI 助手,而是建立一个赋予人类权力的生态系统更批判性地思考,更好地理解世界,“该论文说。 “LLM 和人类可以在一个良性循环中一起工作。” 即使进行人工检查,过度依赖 AI 仍然存在风险,尤其是因为用户将能够嵌入来自第三方的 LLM。 例如,OpenAI 的 ChatGPT 最近遇到了模型过度 lylysycophantic 的问题。 如果 LLM 优先考虑 “有用性” 而不是准确完成事实核查,那么 AI 生成的评论可能最终会直截了当是不准确的。 还有人担心,AI 生成的评论数量会使人类评分者超负荷工作,从而降低他们充分完成这项志愿者工作的积极性。 用户不应该期望看到 AI 生成的社区笔记——X 计划测试这些 AI 贡献几周,如果成功,再更广泛地推出它们。