特稿:点亮人工智能时代需专“芯”
去年“阿尔法狗”战胜韩国棋手李世石,需要耗电数万瓦、依赖体积巨大的云服务器。一年多后,一个小小的人工智能芯片,就可让手机、手表甚至摄像头都能和“阿尔法狗”一样“聪明”。
随着中国企业率先推出市场化的人工智能手机芯片,这样的手机之“芯”正掀起全球热潮。它将带来怎样的影响,传统芯片命运几何?
专“芯”专用
2017年柏林国际消费电子展上,华为推出麒麟970人工智能手机芯片,内置神经元网络单元(NPU),通过人工智能深度学习,让手机的运行更加高效。
芯片又叫集成电路,按照功能可分为很多种,有的负责电源电压输出控制,有的负责音频视频处理,还有的负责复杂运算处理。目前市场上的手机芯片有指纹识别芯片、图像识别芯片、基带芯片、射频芯片等近百种。
现有芯片种类繁多,为何还要人工智能芯片?
随着手机智能应用越来越多,传统芯片要么性能不够,要么效率不足,难以支撑人工智能所需的大规模神经网络运转。
例如,“谷歌大脑”用了上万个通用处理器“跑”了数天来学习如何识别猫脸;“阿尔法狗”和李世石下棋时使用了上千个中央处理器(CPU)和数百个图形处理器(GPU),平均每局电费近3000美元。对于绝大多数智能需求来说,基于通用处理器的传统计算机成本高、功耗高、体积大、速度慢,难以接受。
与传统的4核芯片相比,在处理同样的人工智能应用任务时,麒麟970拥有大约50倍能效和25倍性能优势。
术业有专攻。专业人士指出,普通的处理器就好比瑞士军刀,虽然通用,但不专业。厨师要做出像样的菜肴,就必须使用专业的菜刀,而专门的深度学习处理器就是这把更高效、更快捷的“菜刀”。
“芯”够强才能走得远
目前迅猛发展的人工智能,上层的应用都依赖于底层核心能力,而这个核心能力就是人工智能处理器。如果在芯片上不能突破,人工智能应用就不可能真正成功。可以说核心芯片是人工智能时代的战略制高点。
人工智能目前采用的深度学习算法,有海量的数据运算需求,对传统架构和系统提出了极大挑战。
深度学习,就是通过算法给机器设计一个神经网络。这个网络的基本特点,是模仿大脑神经元之间传递、处理信息的模式,从多个角度和层次来观察、学习、判断、决策。近年来,这种方法已应用于许多领域,比如人脸识别、语音识别等,是人工智能领域的热点研究方向之一。
用于图像处理的GPU芯片因海量数据(40.670,-0.95,-2.28%)并行运算能力,被最先引入深度学习。2011年,当时在谷歌就职的吴恩达将英伟达的GPU应用于“谷歌大脑”中,结果表明12个GPU可达到相当于2000个CPU的深度学习性能。之后多家研究机构都基于GPU来加速其深度学习神经网络。
然而,随着近两年人工智能技术的迅速发展,GPU在三个方面显露出局限性:无法充分发挥并行计算优势,硬件结构固定不具备可编程性,运行深度学习算法能效不足。
全球科研界和企业于是竞相开发更加适用的人工智能芯片,尤其是适用于移动通信时代的芯片。
华为公司与中国科学院计算技术研究所“寒武纪”项目团队共同开发的麒麟970人工智能手机芯片,首次集成NPU,将通常由多个芯片完成的传统计算、图形、图像以及数字(数位)信号处理功能集成在一块芯片内,节省空间、节约能耗,同时极大提高了运算效率。
据预测,类脑计算芯片市场将在2022年前达到千亿美元规模,其中消费终端将是最大市场,占据98.17%,其他需求包括工业检测、航空、军事与国防等领域。
在新的计算时代,核心芯片将决定基础架构和未来生态。因此,谷歌、微软、超威等全球信息技术和通信制造巨头都投入巨资,加速人工智能芯片的研发。
来源:新华社
Copy right©2007:All Reserved. 西安集成电路设计专业孵化器有限公司
办公地址:陕西省西安市高新技术产业开发区科技二路77号光电园二层北 办公电话:029-88328230 传真:029-88316024
陕ICP备 19002690号
陕公安网备 61019002000194号