AI通过模仿人的大脑使用较少的能量
        人工智能 (AI) 可以比任何人更快地执行复杂的计算和分析数据,但要做到这一点需要大量的能源。 人脑也是一台非常强大的计算机,但它消耗的能量非常少。

         随着科技公司的日益扩张,由包括德克萨斯 A&M 大学工程师在内的研究人员开发的一种新的 AI “思维”方法模仿了人脑,并有可能彻底改变 AI 行业。

         博士 遂仁毅,德克萨斯 A&M 工程学院电气和计算机工程助理教授是开发“超级图灵 AI”的研究团队的成员,该团队的运作方式更像人脑。 这种新的 AI 集成了某些流程,而不是像当前系统那样将它们分开,然后迁移大量数据。

         人工智能中的能源危机

         当今的人工智能系统,包括 OpenAI 和 ChatGPT 等大型语言模型,需要巨大的计算能力,并且位于消耗大量电力的庞大数据中心。

        “这些数据中心消耗的功率以千兆瓦为单位,而我们的大脑消耗 20 瓦,”Suin 解释说。 “这与只有 20 瓦相比,这是 10 亿瓦。 消耗这些能源的数据中心在当前的计算方法下是不可持续的。 因此,尽管 AI 的能力非常出色,但仍然需要维持它所需的硬件和发电。

         大量的能源需求不仅提高了运营水平成本,但考虑到与大型数据中心相关的碳足迹,也会引发环境问题。 随着 AI 的集成度越来越高,解决其可持续性问题变得越来越重要。

         模拟大脑

         Yi 和团队认为,解决这个问题的关键在于自然界——具体来说,就是人脑的神经过程。

         在大脑中,学习和记忆的功能不是分开的,它们是一体化的。 学习和记忆依赖于联系神经元之间,称为“突触”,信号在这里传输。 学习通过称为“突触可塑性”的过程加强或减弱突触连接,形成新的回路并改变现有的回路来存储和检索信息。

         相比之下,在当前的计算系统中,训练(如何教授 AI)和内存(数据存储)发生在计算机硬件中的两个不同位置。 超级图灵 AI 是革命性的,因为它弥合了这一效率差距,因此计算机不必将大量数据从其硬件的一部分迁移到另一部分。

         “传统的 AI 模型严重依赖反向传播——一种在训练过程中用于调整神经网络的方法,”Yi 说。 “虽然有效,但反向传播在生物学上并不合理,并且是计算密集型的。

        “我们在那篇论文中所做的是解决主流机器学习算法中存在的生物学不可信性,”他说。 “我们的团队探索机制就像 Hebbian 学习和依赖于尖峰时间的可塑性一样——帮助神经元以模仿真实大脑学习方式的方式加强连接的过程。

         Hebbian 学习原则通常被概括为“一起发射,一起连接”的细胞。 这种方法与大脑中神经元如何根据活动模式加强其连接更紧密地一致。 通过整合这种受生物启发的机制,该团队旨在开发需要更少的人工智能系统计算能力,而不会影响性能。

         在一项测试中,使用这些组件的电路帮助无人机在复杂的环境中导航 - 无需事先培训 - 在飞行中学习和适应。 与传统 AI 相比,这种方法更快、更高效且能耗更低。

         为什么这对 AI 的未来很重要

         这项研究可能会改变 AI 行业的游戏规则。 公司正在竞相构建更大、更强大的 AI 模型,但他们的扩展能力是受硬件和能源限制。 在某些情况下,新的 AI 应用程序需要构建全新的数据中心,从而进一步增加环境和经济成本。

         Yi 强调,硬件的创新与 AI 系统本身的进步同样重要。 “许多人说人工智能只是一种软件,但如果没有计算硬件,人工智能就不存在,”他说。

         展望未来:可持续的人工智能发展

         超级图灵人工智能代表了迈向可持续的人工智能发展。 通过重新构想 AI 架构以反映人脑的效率,该行业可以应对经济和环境挑战。

         Yi 和他的团队希望他们的研究能够带来更智能、更高效的新一代 AI。

         “像 ChatGPT 这样的现代人工智能很棒,但它太贵了。 我们将创造可持续的 AI,“Yi 说。 “超级图灵 AI 可以重塑 AI 的构建和使用方式,确保它继续进步,它以一种对人类和地球都有利的方式做到这一点。