​IBM人工智能芯片的新进展

云栖号资讯:【点击检查更多职业资讯】
在这里您能够找到不同职业的第一手的上云资讯,还在等什么,快来!

​IBM人工智能芯片的新进展

IBM苏黎世试验室的研讨人员本周在Nature Communications上宣布了一篇论文。在文中他们宣称,根据相变存储器的技能,他们现已开发出了一种能一起能高完成动力功率和高精度的机器学习计划。这是一种运用根据电阻的存储设备来完成内存内核算的办法,它们的办法弥补了存储和核算数据分隔的计划的缺点,并在此过程中大大降低了功耗。

文章表明,许多现有的AI推理计划在物理上拆分了内存和处理单元,导致AI模型存储在片外内存中。这会添加核算开支,因为必须在各个单元之间对数据进行搬运,这会减慢处理速度并添加用电量。

IBM的技能表面上处理了相变存储器的问题,相变存储器是一种非易失性存储器,比常用的闪存技能要快。这项作业假如被证明具有可扩展性,则能够为在无人机,机器人,移动设备和其他受核算约束的设备中运转AI的强壮硬件铺平道路。

正如IBM团队所解说的那样,相变存储设备面对的应战是它趋向于引进核算误差(computational inaccuracy)。那是因为它本质上是模仿的。因为可变性以及读写电导噪声,其精度受到约束。

研讨提出的处理计划需要在软件中的AI模型练习期间注入额定的噪声,以进步模型的弹性。结果表明它是成功的。在将练习后的权重(即,用于转化输入数据的参数)映射到相变存储器组件后,参加额定噪音在盛行的CIFAR-19 数据集能够把练习ResNet模型精度提升到93.7%,而ImageNet的精度能够做到71.6%.

此外,在将特定模型的权重映射到原型芯片中的723,444个相变存储设备上之后,在单天的过测验程中,精度坚持在92.6%以上。研讨人员宣称这是一个记载。

为了进一步进步精度随时刻的坚持性,该研讨的合著者还开发了一种补偿技能,该技能能够在推理过程中定时校对激活函数(确认模型输出的方程式)。他们说,这导致硬件精度进步到93.5%。

一起,该团队运用模仿相变存储组件对练习机器学习模型进行了试验。陈述称,他们运用混合精度架构在几种类型的小规模模型上完成了“软件等效”的准确性,这些模型包含多层感知器,卷积神经网络,长时刻短期回忆网络和生成对立网络。他们最近在《神经科学前沿》上宣布的一项研讨中具体介绍了练习试验。

IBM在该范畴的最新作业是在引进用于AI练习的相变存储芯片之后。但据报道,公司的这项技能仍处于研讨阶段的一起,公司研讨人员证明了该体系能够将权重数据存储为电荷,每平方毫米的核算量是图形卡的100倍,而功耗却要低280倍。

IBM表明:“在一个越来越多使用(包含物联网电池供电的设备和自动驾驶汽车)向AI跨进的年代,快速,低功率且牢靠的DNN推理引擎对错常有吸引力.

在一份声明中他们表明。咱们正在研讨中的AI硬件加速器架构在支撑DNN练习和推理方面巨大潜力。”

【云栖号在线讲堂】每天都有产品技能专家共享!
课程地址:https://yqh.aliyun.com/zhibo

当即参加社群,与专家面对面,及时了解课程最新动态!
【云栖号在线讲堂 社群】https://c.tb.cn/F3.Z8gvnK

原文发布时刻:2020-05-19
本文作者:Venturebeat
本文来自:“人工智能学家 微信大众号”,了解相关信息能够重视“人工智能学家”