仿生芯片没你想的“高大上”

分享到:

仿生是模仿生物系统的功能和行为,来建造技术系统的一种科学方法。它打破了生物和机器的界限,将各种不同的系统沟通起来。 
 
从这个角度来看,人工智能芯片可以算作是仿生。我认为目前的人工智能还只是停留在人工阶段,真正的智能应该是具有自我学习能力(不需要依赖大数据训练,会自主学习)。我认为新型的类脑芯片才算得上是真正的仿生芯片。
 
首先,苹果A12并不是什么仿生芯片(听上去高大上一些),其实际上就是手机SoC当中加入了AI运算加速内核。苹果A11/A12当中都集成了专门用于神经网路计算的独立处理单元(独立的内核),也就是大家常听到的NPU(不同厂商叫法会有差异)。一般在手机的SoC当中,CPU主要负责一些通用计算,能处理各种复杂的任务,适应性强。比如它也能够处理图形任务、进行人工智能计算,只不过效率要比GPU、NPU低。
 
14
 
 
而GPU则主要负责处理图形任务,它的优势就在于可支持大规模的并行计算架构,非常适合一些简单重复的计算任务。目前也被很多的厂商用于深度学习、数据模型的训练上。虽然大规模部署算力强大,但是功耗也是非常的大。所以,主要被应用于一些对于功耗要求不是很高的人工智能计算领域。
 
现在大家所说的AI芯片实际上就是专用型的ASIC芯片。它的AI计算能力和计算效率都直接根据特定的AI算法的需要进行定制的,所以相对CPU、GPU,其可以实现体积小、功耗低、高可靠性、保密性强、计算性能高、计算效率高等优势。所以目前在终端侧(特别是移动终端)的AI计算上,很多厂商都开始选择采用专用的AI芯片,或者在SoC当中集成NPU内核。
 
其次,回过头来说苹果A11/12当中集成的NPU内核,这实际上是一些特定的神经网络类型即AI算法(比如语音/图片识别、人脸识别等算法)的硬件化,主要就是起到针对这些AI算法运算的加速。比如原本做图像识别,一分钟只能识别一百张,而有了NPU加速则可实现一分钟识别数千张图片,不仅速度更快而且功耗也更低。
 
不过NPU也有其缺点,一旦设计完成,对应的AI算法就无法更改,无法升级。但是它可以与手机SoC当中的CPU/GPU/DSP来协同进行AI计算(高通骁龙845的AI神经网络引擎就是通过调配CPU/GPU/DSP来协同进行AI计算),所以可以在一定程度上弥补灵活性上的缺失。
 
目前手机芯片上所能提供的AI能力,主要是针对语音、图片、人脸、AR等的一些应用。另外神经网络引擎也拥有一定的机器学习的能力,比如你每天都刷脸解锁,所以AI也学习你脸部面容的一些变化(人的面容会因为慢慢的衰老而发生变化)。
 
总的来说,我们应该将A12芯片作为一个整体来看,其AI的能力并不仅仅是由NPU提供的,在一些场景下,其他的CPU/GPU等内核也会参与到AI运算当中,而NPU的作用也主要是针对特定的AI算法进行加速。
继续阅读
物联网发展打造智能家居AI应用情境,新传感器和技术加速发展脚步

近十年来,智慧家庭应用持续发展,上市产品和智能家居装置的数量皆稳定成长。Futuresource Consulting近期发表的调查报告指出,全世界的智能家居装置今(2018)年销售额将达60亿美元,预测至2021年,销售额可望成长三倍。

人工智能(AI)成为一项重要的国家发展计划,智能产品发展仍需较大空间

中国正在把人工智能(AI)作为一项重要的国家发展计划——在2030年以其AI技术主导全球市场,这在全世界各地已经广为人知,还有一些国家对此表示担忧。然而,为了达到这个目标,中国会采用什么样计划呢?

首款人工智能芯片预计明年下半年面世,两三年之内希望能够真正做一款量子芯片

来阿里巴巴成立的芯片公司平头哥(上海)半导体日前已在上海完成注册,阿里巴巴首席技术长(CTO)、达摩院院长张建锋透露,阿里首款AI(人工智能)芯片预计明年下半年面世。

未来,不在物联网里的物流要素都将被淘汰

我们便通过一些典型的应用,看看物联网是如何在物流行业联接万物的。

人工智能运算加速器有了新合作伙伴,Speedcore Gen4 eFPGA的亮相博人眼球

过去几年兴起的人工智能浪潮里,GPU、FPGA和ASIC因为各具特点,被开发者应用到不同的领域中去,人们在过去的AI芯片选型,也基本脱离不了这个范畴。但进入今天,这种格局也许就要被改变了。

精彩活动