江南AI 大家聊得多了,但谈到 AI 芯片,可能有人觉得「不亲民」、「不熟悉」。
其实不然,从去年开始,人工智能技术的关注度得到了急剧攀升,甚至去年已经被业内定为 AI 芯片元年。往简单了说,iPhone X 创新的 Face ID 技术就是有专门的处理芯片在执行相关功能。再者,汽车行业的自动驾驶、智能音箱的语音识别,都大量的运用到了AI芯片。随着 AI 算法在终端产品上的应用扩展,特别是智能音箱的爆发式增长,整个 AI 芯片市场需求呈现了一个快速爆发式的增长态势。比手机 RAM 从 1G 到 4G,手机摄像头从单摄到双摄还要夸张得多。
AI 芯片就是专门为特定的 AI 产品或者服务而设计的芯片。这其中包含两类,第一类我们称为专用芯片,当我新买了一张加速卡,往电脑里一插,就可以让 AI 的算法实现更高的性能。
另一类称为 SoC,通过一个集成度超高的芯片来完成系统的 AI 功能及周边功能。除了我们熟知的 CPU、GPU 以外,SOC 一般还包含 NPU(即神经处理单元),这就是 AI 芯片最核心的东西。SoC 可以有多种组合,面对不同的应用场景根据不同的产品定义,它可以把这些计算单元揉和起来,组成一个全新的完整芯片。
说到了 AI 芯片,就得说一说它跟传统通用芯片的区别。所有的 AI 是从算法程序发展出来的,这些在我们以往的通用芯片上也可以运算,比如 Intel、AMD、龙芯等。虽然传统的 CPU 性能很高,核心数却很少,大家日常能用到八核已经算是土豪配置了。它可以把一件事干得非常非常快,单线程运算能力超强。这就是以前通用芯片的计算模式。但是江南,AI 的特点是算法非常复杂并且运算量特别大,并行化非常高,与过往全然不同江南。
做一个最极端的比喻,每个人的大脑就是一个超级 AI。大脑里有很多神经元,每个神经元就是一个很小的计算器,它的运算速度很慢,它的运算能力较弱。但得益于几千亿高度并行的能力,可以产生非常高的运算力,所以人才是人。这便是它的设计初衷,把所有 AI 深度学习的算法用硬件来加持,而不是利用一个串行的计算架构实现目的。因为 AI 芯片重构了整个计算架构,数据处理也进行了变更,这可不是基于传统芯片来进行简单改良。所以相较于通用芯片,AI 算法的运行速度可以达到几十倍、上百倍的差距,这就是 AI 芯片的加速效果。
坚持不使用 AI 芯片确实可以跑通 AI 算法完成任务,但会产生巨大的耗电量和发热量,用户体验多差就不言而喻了。相对于通用芯片,AI 算法在 AI 芯片上运行的速度更快,效率更高、功耗更低,并且能够为图像识别、视觉识别、语音识别、自动驾驶等不同的 AI 算法提供更高性价比的算力支持。
同时,为了用户体验,实时性还要越快越好。自动驾驶场景的实时性要求可谓是最高的了,设想一下当延时过大导致有些场景下汽车失控,这肯定是不能接受的。所以,自动驾驶的汽车对 AI 芯片的需求是最强烈的。但是,目前成本还是一大问题,因为自动驾驶汽车还没正式商用。
三年前我们在研发第一代产品的时候,根据产品定义我们必须找到支持 8 麦克风输入的芯片。可找遍了业界居然都没有一个芯片能够支持,于是我们就开始自己用 FPGA 来设计。最后解决了采集问题,并和一家英国公司完成了芯片设计制造。所以目前在这个阶段,语音交互、视觉交互的公司为什么要自己做芯片呢?一方面原有的运算这些芯片已经无法达到需求,另一方面为了成功量产来降低成本,更好被市场所接受。
1、应用领域。这个 AI 芯片是属于云端还是终端。它是用在手机上的,还是只在云端给大家服务。如果是用在终端上,那么这个芯片是用在什么样的产品,什么样的场景。这样的话,你就能够大概理解这个芯片能带来什么。
2、架构。它是一个 SoC,还是一个专门的 NPU江南,不同组合意味着芯片本身的复杂度不同以及产品定位不同。这个芯片能够独立工作,还是需要协同工作,或者配合其他的芯片在特定场景下共作,甚至与其他的硬件设备来共同完成一项工作。
3、运行效率。AI 芯片必然是要运行 AI 算法,效率能够达到多少,不同深度模型的结构对算力的要求也不一样,对芯片本身的设计也是不一样的。
4、价格和功耗。芯片也是一种商品,必然涉及到价格问题。而功耗跟你的应用场景有关,你是用在智能设备还是用在手机,或者用在云端,这些功耗要求完全不一样。
一个芯片成功与否,最终还是需要市场检验,出货量高低即可作为判断标准。6 月 26 日我们在杭州举办的 Rokid Jungle 首场发布会,也会带来一款全新的自研 SoC 智能 AI 语音芯片。届时,这款芯片不仅会用于我们自己的产品,还会开放给业界。