储备池计算/储层计算(Reservoir computing)已经是科学家们可以使用的最先进、最强大的人工智能类型之一,现在一项新的研究概述了,如何让它在某些任务上的速度提高一百万倍。
在解决最复杂的计算挑战方面,这是一个令人兴奋的发展,从预测天气变化的方式,到模拟流经特定空间的流体流动,这些问题正是开发这种资源密集型计算所要解决的问题。现在,最新的创新将使它变得更加有用。主持这项新研究的团队称其为:下一代储备池计算。
俄亥俄州立大学的物理学家表示:“与目前的储备池计算相比,我们可以用更少的计算机资源,在更短的时间内完成非常复杂的信息处理任务。而且,与以前相比,储备池计算已经取得了显著的进步。”
储备池计算是建立在神经网络(基于活体大脑运作方式的机器学习系统)的思想之上,经过训练可以在大量数据中发现模式。 例如,向神经网络展示一千张狗的图片,下一次狗出现时,它会相当准确地识别出来。
储备池计算带来的额外能力的细节是非常技术性的。 从本质上讲,该过程将信息发送到一个“储备池”,在那里数据点以各种方式链接。 然后将信息从储备池中发送出来,进行分析,然后反馈给学习过程。
这在某些方面使整个过程更快,并且更适应学习序列。 但是,它也严重依赖随机处理,这意味着储备池内部发生的事情并不十分清楚。 用工程术语来说,它是一个“黑匣子” —— 它通常是有效的,但没有人真正知道它是如何工作的,也没有人知道为什么。
有了这项刚刚发表的新研究,可以通过消除随机化来提高储层计算机的效率。 使用数学分析来确定储层计算机的哪些部分实际上对其工作至关重要,哪些不是。 去除那些冗余位,加快了处理时间。
最终结果之一是,不再需要那么长的“热身”期:这个阶段,神经网络被输入训练数据,为它应该完成的任务做准备。研究团队在这里进行了重大改进。
研究人员表示:“对于我们的下一代储备池计算,几乎不需要热身时间。目前,科学家必须输入 1000个、10000个或更多数据点来预热。这些都是需要丢失的数据,实际工作不需要。我们只需要输入1、2个或3个数据点就可以了。”
在使用新系统的标准台式计算机上,一项特别困难的预测任务,可以在不到一秒的时间内完成。以目前的储备池计算技术,即使在超级计算机上,同样的任务也需要更长的时间。
根据数据证明,新系统的速度要快33到163倍。更为惊人的是,当任务目标转移到优先考虑准确性时,更新后的模型竟快了 100 万倍。
这再次证明,下一代储备池计算技术采用了已经非常优秀的技术,大大提高了效率。而这只是这种超高效神经网络的开始,它背后的研究人员希望在未来,让它与更具挑战性的任务相抗衡。
如果朋友们喜欢,敬请关注“知新了了”!