“OpenAI 文件”在 AGI 竞赛中推动监督
        OpenAI 首席执行官山姆·阿尔特曼 (Sam Altman) 表示,人类距离开发可以自动化大多数人类劳动的通用人工智能只有几年的时间。 如果这是真的,那么人类也应该理解这样一股令人难以置信且破坏稳定的力量背后的人和机制,并对其有发言权。

         这就是“The OpenAI Files”背后的指导目的,“The OpenAI Files”是来自两个非营利性技术监督组织 Midas Project 和 Tech Oversight Project 的档案项目。 文件是一个“OpenAI 对治理实践、领导诚信和组织文化的记录问题集合。” 除了提高认识之外,Files 的目标是为 OpenAI 和其他 AI 领导者提出一条前进的道路,专注于负责任的治理、道德领导和共享利益。

         “指导如此重要的项目的治理结构和领导诚信必须反映使命的规模和严重性,”该网站的愿景改变。 “引领 AGI 竞赛的公司必须遵守,并且必须坚持极高的标准。”

         到目前为止,AI 领域的主导地位竞赛导致了原始扩展——一种不惜一切代价增长的心态,导致 OpenAI 等公司在未经同意的情况下收集内容用于培训目的,并建立大型数据中心,导致停电并增加当地消费者的电力成本。 匆忙商业化也导致公司推出产品在采取不必要的保障措施之前,随着投资者获利的压力越来越大。

        :投资者的压力改变了 OpenAI 的核心结构。 OpenAI 文件详细介绍了在其早期的非营利时期,OpenAI 最初如何将投资者的利润限制在最高 100 倍,以便实现 AGI 的任何收益都将归人类所有。 此后,该公司宣布了取消该上限的计划,并承认它做出此类更改是为了安抚那些将资金作为结构性改革。

         文件突出了 OpenAI 匆忙的安全评估流程和“鲁莽文化”等问题,以及 OpenAI 董事会成员和阿尔特曼本人的潜在利益冲突。 它们包括一份初创公司名单,这些初创公司可能在 Altman 自己的投资组合中,这些初创公司也与 OpenAI 有重叠的业务。

         The Files 还对 Altman 的诚信提出了质疑,自从高级员工试图罢免他以来,这一直是一个猜测的话题在 2023 年因“欺骗性和混乱行为”。

         “我不认为 Sam 是应该按下 AGI 按钮的人,”据报道,OpenAI 前首席科学家 Ilya Sutskever 当时表示。

         OpenAI Files 提出的问题和解决方案提醒我们,巨大的权力掌握在少数人手中,透明度低,监督有限。 这些文件让我们得以一窥那个黑匣子,旨在将对话从必然性转变为问责制。