摘要:电气和计算机工程师已经开发了一种“超级柔软的AI”,其运作更像人脑。这个新的AI集成了某些过程,而不是分开它们,然后像当前系统一样迁移大量数据。...
人工智能(AI)可以执行复杂的计算并比任何人更快地分析数据,但是要这样做需要大量的能量。人脑也是一台功能强大的计算机,但它消耗的能量很少。
随着技术公司的越来越多的扩展,包括德克萨斯州A&M大学工程师在内的研究人员开发的一种新方法,模仿了人类大脑,并有可能彻底改变AI行业。
德克萨斯州A&M工程学院电气和计算机工程助理教授Suin Yi博士正在开发“超级柔软的AI”的研究人员团队,其运作更像人类大脑。这个新的AI集成了某些过程,而不是分开它们,然后像当前系统一样迁移大量数据。
人工智能的能源危机
当今的AI系统,包括大型语言模型,例如OpenAI和Chatgpt,都需要巨大的计算能力,并容纳在消耗大量电力的广泛数据中心中。
Suin解释说:“这些数据中心以吉瓦的速度消耗了动力,而我们的大脑消耗了20瓦。” “这是10亿瓦,而仅20瓦。使用当前的计算方法,消耗这种能量的数据中心是不可持续的。因此,尽管AI的能力非常出色,但仍然需要维持它的硬件和发电。”
鉴于与大规模数据中心相关的碳足迹,大量能源不仅需要升级运营成本,而且需要提高环境问题。随着AI变得更加整合,解决其可持续性变得越来越关键。
模仿大脑
YI和团队认为解决此问题的关键在于自然界 - 特别是人脑的神经过程。
在大脑中,学习和记忆的功能没有分开,它们是整合的。学习和记忆依赖于称为“突触”的神经元之间的连接,在传输信号的地方。学习通过称为“突触可塑性”的过程加强或削弱了突触连接,形成新电路并改变现有电路以存储和检索信息。
相比之下,在当前的计算系统中,培训(AI的教学方式)和内存(数据存储)发生在计算机硬件中的两个独立位置。超级AI是革命性的,因为它弥合了这种效率差距,因此计算机不必将大量数据从其硬件的一个部分迁移到另一部分。
Yi说:“传统的AI模型在很大程度上依赖于反向传播 - 一种用于调整培训期间神经网络的方法。” “虽然有效,但反向传播在生物学上并不合理,并且在计算上是密集型的。
他说:“我们在那篇论文中所做的是对现行的机器学习算法中存在的生物学不起作用进行故障。” “我们的团队探讨了Hebbian学习和依赖于尖峰的可塑性等机制 - 可以帮助神经元以模仿真正大脑学习的方式加强联系的过程。”
Hebbian学习原理通常被总结为“将牢房一起开火,将其连接在一起”。这种方法与大脑中的神经元如何根据活动模式加强其连接更紧密地保持一致。通过整合这种生物学启发的机制,该团队旨在开发不损害绩效的计算能力的AI系统。
在测试中,使用这些组件的电路有助于无人驾驶飞机在未经事先培训的情况下浏览复杂的环境 - 即时学习和适应。这种方法比传统的AI更快,更有效,能量更少。
为什么这对AI的未来很重要
这项研究可能是AI行业的游戏改变者。公司正在竞争建立更大,更强大的AI模型,但其扩展能力受硬件和能源限制的限制。在某些情况下,新的AI应用程序需要建立整个新数据中心,从而进一步增加环境和经济成本。
YI强调,硬件中的创新与AI系统本身的进步一样至关重要。他说:“许多人说AI只是软件的事情,但是如果没有计算硬件,就不可能存在AI。”
展望未来:可持续人工智能开发
Super-Turing AI代表了迈向可持续人工智能发展的关键步骤。通过重新想象AI体系结构以反映人脑的效率,该行业可以应对经济和环境挑战。
Yi和他的团队希望他们的研究将导致新一代的AI既聪明又更有效。
耶说:“像chatgpt这样的现代人工智能真是太棒了,但是太贵了。我们将制造可持续的AI。” “超级柔软的人工智能可以重塑AI的构建和使用方式,以确保它继续前进,以使人和地球都受益的方式这样做。”