这项研究的首席研究员Abu Sebastian(来自IBM苏黎世研究中心)说,在传统的冯·诺依曼芯片架构中,数据不断地在内存和处理器之间穿梭,这消耗了宝贵的能量和时间。内存计算是降低功耗同时提高性能的合乎逻辑的下一步。这方面的进步对于硬件跟上人工智能的发展是必要的。
IBM的新型模拟芯片是基于相变存储器的。关键成分是一种可以对电流作出反应而发生相变的材料。它们通常是锗、碲和锑的合金。在导电的那个相中,原子排列得很整齐。在另一个不导电的相中,原子四处运动,被电流局部加热,变得杂乱无章。
两个电极之间的相变材料不会像0和1那样在有序和杂乱的排列之间完全切换。相反,在任何时间点,都是两种排列的混合:材料的总电阻取决于原子杂乱排列的区域的大小。
Sebastian说:“我们正在根据原子排列对信息进行编码。”例如,神经网络的权重可以以相变存储器设备中的电阻的方式来存储和访问。
但这些电阻存在漂移和波动的问题。因为当读取信息时电流通过相变材料,所以原子排列杂乱的区域每次都会改变一点——这限制了这种器件的精度和实用性。
为了解决这个问题,IBM的研究人员给相变存储器引入了一个所谓的投影段(projection segment)。投影段是该团队在2015年首次提出的,它是一个金属氮化物导电层,包裹着相变材料芯,并在电极之间平行于相变材料芯运行。投影段将信息的写入和读取过程分开。
这个投影段在写入信息时不做任何事情;所有的电流都会流过相变材料而调整原子排列杂乱的区域。但是,当检索信息时,电流流过投影段并绕过原子排列杂乱的区域,使它们保持不变,并保留所存储的信息。Sebastian说:“这是关键的创新。”
研究人员在一个包含有30个相变存储器的8位芯片上测试了单层神经网络,以识别数字1、0和4的图像,测试结果达到了100%的分类精度。虽然现在还为时过早,但Sebastian估计,与传统计算相比,这一进展可能为未来的设备带来100至1000倍的节能效果。
传统计算追求的是精确度,而随着人工智能的发展,现在有与之相反的计算追求。IBM当天还介绍了一种数字芯片,它也是8位的,同时在神经网络训练中保持了高准确性。这种神经网络更进一步地模拟人脑,而人脑通常可以从很少的信息中得出正确的结论。
IBM负责研究的副总裁Jeff Welser这比作从一个雾蒙蒙的窗户往外看,看到一个模糊的人朝你家走来。“只要你认得出那是你的妈妈,图像的精度有多低都没有关系,”Welser说,“你得到了你所需的正确信息。”