科技日报北京9月13日电 (记者刘霞)瑞士科学家研究称,由热而非电驱动的计算机可以运行为神经网络和人工智能(AI)提供动力的算法,并降低其能耗。相关论文已提交论文预印本网站。
研究负责人、日内瓦大学的尼古拉斯·布伦纳表示,像ChatGPT这样的系统可以学习非常复杂的语言,但其能耗惊人。据估计,ChatGPT每日消耗的能量与美国3万多户家庭消耗的能量相当。
大多数现代人工智能技术使用由许多相互连接的人工神经元组成的神经网络来模仿大脑的功能,ChatGPT等程序中拥有数十亿个这样的神经元。在最新研究中,布伦纳团队开发出了一款设备,该设备能使用量子比特和热量来物理模拟神经连接。
他们模拟了几个相互作用的量子比特在连接到几个温度可变的热库时如何充当神经元。研究团队解释说,要运行计算,可以不用键盘而通过提高其中一些热库的温度输入信息,这将使热量流过设备,改变量子比特的量子态和能量,直到整个设备达到稳定状态。而要读取计算机的输出,检查指定扮演监视器角色的热库的温度即可。
该团队意识到,此类设备的工作原理类似于名为感知器的机器学习算法,感知器是最简单的神经网络,可以决定一个物体是否属于某个类别,如一张照片中的动物是猫还是狗。
研究人员表示,物理定律特别是热力学定律规定,计算机的任何操作都必须“消耗”一些热量和熵,因此纯粹用热流建造感知器在概念上非常有趣,也很不寻常,有望催生出更节能的机器。
专注创建“热力学人工智能”的初创公司Normal Computing的研究人员帕特里克·科尔斯表示,这一概念框架可以转化为小规模实验,但大规模生产可能还面临挑战。
相关稿件