边缘AI产业需要新搭档,ReRAM技术将扮演重要角色

分享到:

机器学习有两个基本阶段:训练和推理。人工神经网络旨在模仿大脑的运作方式,首先要读取大量的已知数据——例如狗和猫的图片——这样才能学会识别每个物体的样子以及它们的不同之处;然后经过训练的神经网络或模型就可以开始工作,根据所学到的知识推断呈现在面前的新数据是什么事物,例如判别影像中的是狗还是猫。

目前大多数训练都是在数据中心进行的,但也有少数是在边缘端进行。像Google、Facebook、Amazon、Apple和Microsoft这样的大公司都拥有大量消费者资料,因此可以为他们的“服务器农场”提供足够多的数据进行工业规模的AI训练,以改善其算法。训练阶段需要速度非常高的处理器,例如绘图处理器(GPU)或Google开发的张量处理器(TPU)。

当边缘设备收集到数据——例如建筑物或人脸的照片——并传送到推理引擎进行分类时,推理就会发生。以云端为基础的AI因为固有的延迟缺点,对许多应用来说是不可接受的;例如自动驾驶车需要对看到的物体做出实时决策,这以云端AI架构就不可能实现。

随着AI功能逐渐向边缘端发展,它们将推动更多的AI应用,而且这些应用会越来越需要更强大的分析能力和智能,好让系统在本地即可做出运作决策,无论是部分还是完全自主的,就像自动驾驶车辆所配备的功能。

传统CPU不是很擅长这类任务,而高端GPU则是功耗大、价格昂贵;边缘端推理需要更便宜、功率更低的芯片,可快速透过神经网络识别一种动物、一张脸,锁定一个肿瘤,或将德语翻译成英语。如今有超过30家公司正在研发AI专用的硬件,以提高在智能手机、平板电脑和其他边缘设备中完成这类特殊运算任务的效率。

分析师们预测,从2017~2021年,全球AI芯片市场将取得高达54%的年复合成长率(CAGR),其关键成长动力在于能满足机器学习要求的强大硬件。

消除内存瓶颈

所有AI处理器都仰赖于数据集,也就是“学习过的”对象种类(如影像、声音等等)模型,用以执行识别功能;每个对象的识别和分类都需要多次存取内存,而当今工程师面临的最大挑战就是如何克服现有架构中的内存访问速度和功耗瓶颈,以实现更快的数据存取,同时降低数据存取消耗的能源成本。

透过在尽可能接近AI处理器核心的位置储存训练数据,可获得最快访问速度和最大能效;但是目前的设计所采用之储存架构,都是几年前还没有其他实用解决方案时打造的,仍然是速度快但小容量的嵌入式SRAM与大容量但速度较慢的外部DRAM之传统组合。当训练模型以这种方式储存,嵌入式SRAM、外部DRAM和神经网络之间频繁且大规模的数据交换会增加功耗及传输延迟;此外,SRAM和DRAM都是挥发性内存,限制了在待机状态的省电效果。

利用高密度、高速和低功耗的非挥发性内存将整个训练模型直接储存在AI处理器芯片上,就可以实现更高的能效和速度。透过实现以内存为中心的新架构(如图1),整个训练模型或知识库就可以放在芯片上,直接与神经网络链接,这样就有实现大规模节能与性能提升的潜力,并因此能大幅延长电池寿命并提供更好的用户体验。现在已经有几种新一代内存技术正竞相实现此一目标。

1

图1 内存位于AI架构中心。

ReRAM的潜力

针对AI应用的理想非易失性嵌入式内存应该具备如下特点:容易制造、容易整合到成熟的CMOS后段工艺、容易微缩到先进工艺节点、可大量供应,并且能够满足各种应用对功耗和速度的要求。

在工艺微缩方面,电阻式内存(ReRAM)会比磁性内存(MRAM)或相变化内存(PCM)更具优势,这在考虑14纳米、12纳米甚至是7纳米晶圆工艺时是一个重要因素;其他内存技术都需要比ReRAM更复杂和昂贵的工艺,运作功耗也更高。

2

图2 ReRAM可以填补内存技术的空白。

举例来说,美国业者Crossbar的ReRAM所采用之纳米丝(nanofilament)技术,可以在不影响性能的情况下微缩到10纳米以下。ReRAM以简单的组件结构为基础,采用适合CMOS工艺的材料和标准生产流程,可以在现有的CMOS晶圆厂生产;因为是一种低温、后段工艺整合的方案,可以在CMOS逻辑晶圆上整合多层ReRAM数组,以构建3D ReRAM储存架构。

AI需要最佳的每瓦性能,尤其对于小功率的边缘设备;ReRAM的能效可达到DRAM的五倍——达到每奈焦(nanojoule) 1,000位的读取—同时表现出比DRAM更好的整体读取性能,高达12.8GB/s,随机延迟小于20ns。

以内存为中心的架构

科学家们一直在探索各种新颖的大脑启发典范,试图透过模仿中枢神经系统的神经元和突触(synapses)之交互作用来实现更高的能效。以ReRAM技术为基础的人工神经突触是一种非常有前途的方法,可用于在神经形态结构中实现这些高密度且能终极微缩的突触数组。藉由在边缘端启动AI,ReRAM有可能在现有和全新的AI解决方案中扮演重要角色。

 

继续阅读
人工智能时代的电视节目将有怎样的变化,AI播音员成为引领技术改革的风向标

11月初,新华社联合搜狗发布了“AI合成主播”,运用人工智能技术,“克隆”出与真人主播拥有同样播报能力的“分身”,这让人工智能再次引起广泛注目。“智能化的浪潮不可阻挡,而电视机作为客厅娱乐的核心,人工智能有望成为标配。”在11月22日举行的中国电视大会“人工智能与电视场景论坛”中,中信国安广视网络有限公司总经理助理殷泽祥的观点,得到了大家的认可,关于人工智能如何赋能屏幕产业,与会专家学者们也有各自的看法。

异构计算,特别是加速器的发展和创新,将会为业界、最终用户和创业公司带来更无限的商机

“ 除了算法、数据外,异构计算将会为AI应用带来更强大的支持。异构计算,特别是加速器的发展和创新,将会为业界、最终用户和创业公司带来更无限的商机。” 去厨神主持的餐厅吃饭,上菜慢,一定要等。因为厨神只有一个。但是在竞争激烈的市场里,应用人工智能AI技术则不能等,否则可能被颠覆被市场淘汰。

骁龙8150九项跑分总和突破22082,同时支持浮点和量子化AI模型加速

如无意外,高通新一代旗舰移动平台将命名为骁龙8150(也就是之前猜测的骁龙855),各方面都会有巨大飞跃,尤其是在AI当道的今天,高通有所突破了。 在专门测试移动平台AI性能的AI Benchmark 2.1.1版数据库里,赫然已经出现了骁龙8150的身影,还是个开发平台,搭配6GB内存、安卓9.0,经过九个项目的测试后最终成绩为22082。

AI芯片发展形势愈演愈烈,社会在这场华山论剑中脱颖而出

除了Google、Facebook、亚马逊(Amazon)和百度(Baidu)等业界“大咖”一直在设计用于训练和推论的深度学习芯片,几乎每一周,我们都还会听说有一些“名不见经传”的新创公司开发出新一代AI SoC架构。 尽管有这么多的AI新芯片陆续发布,但一位资深的产业分析师——Tirias Research首席分析师Kevin Krewell提醒道:“机器学习处理领域充斥着许多新的主张,但只有真正可用的芯片和软件才能展现实力。”

恩智浦目标直指AI-IOT,机器学习全新布局,快速提升安全性能

面对最新的发展趋势,近日,恩智浦在北京召开媒体沟通会。恩智浦半导体微控制器事业部全球产品总监曾劲涛向笔者分享了恩智浦最新的发展动向。

精彩活动