首页 > 其他元器件百科 > 人工智能算力需求逐渐增强,电子元器件巨头投入服务器AI芯片市场

人工智能算力需求逐渐增强,电子元器件巨头投入服务器AI芯片市场

发布于2019-05-16 21:46:03 106次阅读

本文主要介绍人工智能算力需求逐渐增强,电子元器件巨头投入AI芯片市场,随着人工智能渐渐落地,人工智能对于算力的需求逐渐增强。

人工智能算力需求逐渐增强,电子元器件巨头投入服务器AI芯片市场

本轮人工智能热潮背后的基础是大数据和神经网络,需要海量的数据去训练复杂的神经网络,而训练完成后的神经网络也较为复杂,执行神经网络的推理操作相对于其他基于逻辑规则等智能方案需要更大的计算力。

因此,算力成为了人工智能背后的基础资源,而算力的提升则离不开芯片的支持。近日,高通、寒武纪、依图等来自不同背景的明星公司都发布了其用于服务器端的人工智能芯片方案,再加上谷歌、亚马逊、Intel、Nvidia等早已在服务器人工智能芯片领域押注的大公司,我们看到了服务器人工智能芯片的热潮。

服务器AI芯片市场已经有明确需求

人工智能计算一般可以分为两类,即训练和推理。训练是指使用收集到的大量数据去优化神经网络的各项参数,从而能实现最优的精确度。推理则是在训练好的神经网络上将输入数据在各层网络之间做正向传递去求得输出。训练任务和推理任务执行的计算对于计算精度和内存访问的模式都有所不同,因此芯片上往往需要不同的优化。

人工智能芯片根据应用场合也可以分为三个种类:服务器、边缘计算、终端。服务器人工智能芯片主要部署在数据中心的服务器中,执行训练和/或推理任务。服务器人工智能芯片对于芯片的首要需求就是单芯片算力(目前的主流算力在100TOPS级别),其次才会去考虑功耗和成本。边缘计算是指部署在更接近数据源头的服务器上执行的计算,以推理计算为主,典型应用场景包括在自动驾驶汽车上执行自动驾驶算法、在智能销售领域无人店中执行监控和结账操作等等。在边缘计算中,芯片的功耗和成本相对于云端有更严格的限制,而算力则还是多多益善(10TOPS以上)。

终端计算则是指直接部署在手机、智能音箱等终端设备上人工智能计算,由于使用电池供电,其对于芯片的首要需求是能效比(1TOPS/W数量级),需要使用尽可能低的能量消耗去完成人工智能计算以保证电池寿命。虽然终端计算对于算力的要求较低(0.1-1TOPS数量级),但是其功耗约束很强,可用的功耗在1W以下,甚至可以低至几十毫瓦级别,同时终端设备对于成本也很敏感。

目前上述三个人工智能应用场景中,边缘计算尚处于概念验证阶段,预计未来几年随着5G和无人驾驶、机器人、智能零售等概念的兴起会出现一批相关芯片公司,但是在今天市场规模还较小。

终端人工智能计算目前已经得到初步验证,手机等智能设备都在争相加入人工智能专用处理模块,但是由于其市场对于成本的敏感性,我们预期未来人工智能在终端设备上的形态会以SoC上的IP模块为主,这也就意味着人工智能要么是由高通、海思等智能设备SoC厂商自研集成到自家的SoC中,要么是由第三方以IP的形式授权给SoC厂商,总体来说该市场的利润率并不会太高,还是要以量取胜。

相较而言,服务器端人工智能芯片市场目前已经得到了较好的验证,业务模式和市场规模都已经获得了认可,利润率也较高,因此成为了主流芯片公司的必争之地;而边缘和终端市场在今天来看还主要是针对未来的前瞻性布局。

根据Barclays Research的研究报告,服务器端人工智能市场会在未来三年内快速增长,并预计于2021年达到100亿美元的规模;而终端和边缘计算市场则将在三年后才开始真正落地。所以,我们看到了巨头纷纷在今年加码服务器端人工智能芯片。

以上就是人工智能算力需求逐渐增强,电子元器件巨头投入服务器AI芯片市场,希望对各位有帮助。

   电子元器件       AI       人工智能   
上一篇 下一篇
热门标签
   慕尼黑电子展       样品       LED驱动       晶丰明源       贴片低阻值电阻       电阻       美隆       长电       稳压电路       绕线电感       电感       TDK       晶振       爱普生       贴片有源晶振       自恢复保险丝       陆海       保险丝       压敏电阻       君耀电子   
相关阅读
最新文章