IBM增加了噪音以提高人工智能在模拟存储器上的准确性

在本周发表在《自然通讯》(Nature Communications)杂志上的一项研究中,IBM位于瑞士苏黎世的实验室的研究人员声称,他们已经开发出一种技术,可以利用相变存储器在机器学习工作负载上实现节能和高精度。通过使用基于电阻的存储设备开发内存计算方法,他们的方法结合了用于存储和计算数据的隔间,在此过程中显著降低了有功功率消耗。

许多现有的人工智能推断装置在物理上拆分了内存和处理单元,导致人工智能模型被存储在芯片外的内存中。这增加了计算开销,因为数据必须在单元之间重新分配,这一过程会减慢处理速度并影响电力使用。IBM的技术表面上用相变存储器解决了这些问题,相变存储器是一种非易失性存储器,比常用的闪存技术更快。这项工作,如果被证明是可扩展的,可能会为强大的硬件铺平道路,在无人机、机器人、移动设备和其他计算受限设备上运行人工智能。

正如IBM团队所解释的,相变内存设备的挑战在于它往往会引入计算上的不精确性。这是因为它在本质上是相似的;由于可变性和读写电导噪声的影响,其精度受到限制。

本研究提出的解决方案需要在人工智能模型的软件训练过程中加入额外的噪声,以提高模型的弹性。结果表明它是成功的——在绘制了训练后的权值(即权重)后,在流行的CIFAR-19数据集上训练一个带噪声的ResNet模型的准确率达到了93.7%,在ImageNet上的准确率达到了71.6%。转换输入数据的参数)到相变存储器组件。此外,将特定模型的权值映射到原型芯片中的723444个相变存储设备上后,一天内的准确率保持在92.6%以上。研究人员称这是一项记录。

为了进一步提高随时间推移的准确性,该研究的合作者还开发了一种补偿技术,在推理过程中周期性地修正激活函数(决定模型输出的方程)。他们说,这使得硬件的准确率提高到了93.5%。

与此同时,该团队尝试使用模拟相变存储组件训练机器学习模型。在一个混合精度的架构下,他们报告说,他们设法在几种小尺度模型上获得了“软件等效”的精度,包括多层感知器、卷积神经网络、长-短期记忆网络和生成对抗网络。最近发表在《神经科学前沿》(Frontiers in Neuroscience)杂志上的一项研究详细介绍了这些训练实验。

IBM在该领域的最新工作是引进该公司用于人工智能培训的相变存储芯片。在研究阶段,公司的研究人员展示了该系统可以以电荷的形式存储重量数据,每平方毫米的计算量是显卡的100倍,而耗电量是显卡的280倍。

IBM在一份声明中表示:“在越来越多地向基于人工智能的技术过渡的时代,包括物联网电池驱动的设备和自动驾驶汽车,这些技术将极大地受益于快速、低功率、可靠准确的DNN推理引擎。”“我们在研究中制定的策略显示,在实现精确的人工智能硬件加速器架构方面有巨大的潜力,以一种节能的方式支持DNN培训和推断。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。