思考 AI 模型排放的二氧化碳增加了 50 倍
        无论我们向 AI 提出哪些问题,模型都会给出答案。 为了生成此信息 - 无论 than answer 是否正确 - 模型使用标记。 令牌是转换为可由 LLM 处理的字符串数字的单词或单词的一部分。

         这种转换以及其他计算过程会产生 CO2 排放。 然而,许多用户并未意识到与这些技术相关的大量碳足迹。 现在德国的研究人员使用一组标准化问题测量和比较了不同的、已经接受过培训的 LLM 的 CO2 排放量。

         “质疑受过训练的 LLM 对环境的影响在很大程度上取决于他们的推理方法,明确的推理过程会显着增加能源消耗和碳排放,”第一作者、慕尼黑应用科学大学研究员、theFrontiers 的第一作者 Maximilian Dauner 说通讯研究。 “我们发现,与简洁响应模型相比,支持推理的模型产生的 CO2 排放量高出 50 倍。”

        “思考”人工智能导致大部分排放

         研究人员评估了 14 个 LLM,范围从 7 到 720 亿个参数,涉及不同主题的 1,000 个基准问题。 参数确定 LLM 如何学习和处理信息。

         推理模型平均每个问题创建 543.5 个“思考”标记,而简洁模型只需要 37.7 个每个问题的令牌。 思考令牌是推理 LLM 在产生答案之前生成的附加令牌。 更高的代币足迹总是意味着更高的二氧化碳排放量。 然而,这并不一定意味着得到的答案更正确,因为精心设计的细节并不总是对正确性至关重要。

         最准确的模型是具有 700 亿个参数的推理 Cogito 模型,准确率达到 84.9%。 该模型产生的二氧化碳排放量是生成简洁答案的相似大小的模型。 “目前,我们看到 LLM 技术固有的明显准确性与可持续性权衡,”Dauner 说。 “将排放量保持在 500 克二氧化碳当量以下的模型在正确回答 1,000 个问题方面没有一个达到 80% 以上的准确率。” CO2 当量是用于衡量各种温室气体对气候影响的单位。

         主题还导致了 CO2 排放水平的显着差异。 问题这需要漫长的推理过程,例如抽象代数或哲学,导致排放量比更简单的科目(如高中历史)高出六倍。

         练习深思熟虑的使用

         研究人员表示,他们希望他们的工作能够使人们对自己的 AI 使用做出更明智的决定。 “用户可以通过提示 AI 生成简洁的答案或将高容量模型的使用限制在真正需要那种力量,“Dauner 指出。 例如,

         模型的选择可以对 CO2 排放产生重大影响。 例如,让 DeepSeek R1(700 亿个参数)回答 600,000 个问题将产生相当于从伦敦到纽约的往返航班的二氧化碳排放量。 同时,Qwen 2.5(720 亿个参数)可以回答三倍多的问题(约 190 万个),准确率相似,同时产生相同的发射。

         研究人员说他们的结果可能会受到研究中使用的硬件选择、排放因子(可能因当地电网组合而异)以及所检查的模型的影响。 这些因素可能会限制结果的泛化性。

         Dauner 总结道:“如果用户知道他们的 AI 生成的输出的确切二氧化碳成本,例如随意地将自己变成一个可动人偶,他们可能会更有选择性和深思熟虑地考虑何时以及如何使用这些技术。