No015 专题:5G 将如何改变我们的生活
02系列AI芯片,将智能融入一切
系列报告

第 1 部分
我希望AI永远在我身边

 

  • 2017.9.30
  • 作者:伊藤元明

IBM、谷歌、苹果、英特尔——。这些IT行业的巨头目前正在努力开发某些半导体芯片。这是一种内置人工智能(AI)的特殊芯片,即所谓的“AI芯片”。人工智能拥有令人难以置信的力量,将在不久的将来彻底改变我们的生活、工作和社会活动。学习和推理等人工智能特定处理需要大量计算能力,目前需要在数据中心执行。因此,AI无法融入到用户手中的设备中,其应用也受到限制。 AI芯片将是克服这一局面的最重要部分。在这个系列中,第一部分将解释AI芯片需求背后的背景,第二部分将解释各公司正在开发的AI芯片技术,第三部分将解释未来的AI芯片会是什么样子。

人工智能不再只是一种时尚。报纸、杂志和电视上每天都在谈论人工智能,而且潜在的应用范围极其广泛。可以毫不夸张地说,“自动驾驶汽车”、“工业40”、“预测性维护”、“数字健康”、“智慧农业”等有望开启各行业新时代的概念,都是建立在人工智能技术发展和应用拓展的基础上的。

扩展应用以实现“人工智能民主化”

2017年初以来,谷歌、微软等多家IT公司开始对AI使用同样的口号(图1)。这一运动旨在创造一个环境,让人工智能拥有给生活、工作和社会活动带来破坏和创造的力量,可以被许多公司和个人使用,而不仅仅是少数拥有巨大财力的公司和机构。谷歌等公司正在积极开放人工智能使用所必需的计算能力和开发环境,扩大人工智能的使用范围,加速其在各种应用中的使用。

Google等发起“AI民主化”并加速应用
[图1]谷歌等推动“AI民主化”并加速应用
来源:Google“Google Cloud Next '17”

当前的人工智能是一个昂贵的、大规模的信息系统,需要大量的资本来引入和运营。例如,三菱公司为其内部IT帮助台运营引进了IBM的Watson,安装和运营花费了25亿日元。任何人都可以利用IT公司用自己的资金安装和运营并免费提供的服务,例如苹果的语音识别助手Siri和运行在谷歌搜索引擎后院的AI。然而,它不是小企业或个人可以独立引入和利用来创造新服务的东西。

人工智能系统昂贵的最大原因是它们需要大量计算来执行推理处理(对数据进行分类并预测未来状态)和学习处理(从大量数据中提取趋势并提高工作准确性)。 AI系统内部的处理是一个大量重复乘法和加法的过程。当对图像数据进行推理处理以识别图像中的对象时,每张图像会执行 1 亿到 1 万亿次乘积和运算。此外,学习过程比推理过程昂贵几个数量级。据说,准确判断图像内容的学习过程需要进行1 500 亿(10 的16 次方)到100 100 500 次方(10 的22 次方)次乘积和运算,才能得到比较满意的判断结果。有关AI系统中实际进行什么样的计算的详细信息,请参阅本文末尾的“参考说明

确保巨大计算能力实现人工智能的两种方法

推理处理和学习处理对于个人计算机中安装的普通微处理器来说过于繁重。计算耗时过长,不适合实际使用。或许可以进行简单的推理处理来识别小图像,但几乎不可能用于学习处理。因此,需要高性能计算机来高速执行乘法累加运算,并且有两种主要方法来实现这一点。

一种方法是通过在排列有无数高性能服务器的数据中心中进行处理来确保大量的计算能力。由于人工智能中的乘积和计算处理可以并行执行,因此可以同时使用多台计算机来分配负载。当你看看参与智力竞赛的 Watson 和帮助 iPhone 用户的 Siri 的使用时,你会发现设备内部有人工智能。但实际上,人工智能并不存在;它驻留在数据中心。

版权©2011-