> 边缘计算将如何影响人工智能?
详细内容

边缘计算将如何影响人工智能?

时间:2018-01-03 人气:30 来源: 作者:
概述:人工智能是通过计算机模拟人脑思维逻辑的一种技术,它可以进行语言识别、人脸识别、图像识别以及无人驾驶等多种场景。人工智能拥有从感知、分析运算到决策的强大能力,能取代人类智力型工作,已经成为人们热议的主要话题,其影响力之大足以掀起新一轮科技革命。 万物互......

 人工智能是通过计算机模拟人脑思维逻辑的一种技术,它可以进行语言识别、人脸识别、图像识别以及无人驾驶等多种场景。人工智能拥有从感知、分析运算到决策的强大能力,能取代人类智力型工作,已经成为人们热议的主要话题,其影响力之大足以掀起新一轮科技革命。

万物互联时代会产生巨大数据,如果这些数据都要传输到云端平台处理,那么这对网络造成巨大的负载。因此,边缘计算就应势而生,在设备端对部份数据进行分析处理,将能解决掉网络拥堵的问题,同时能提供运行系统的效率和减轻云端平台的负载。
随着边缘计算的进步以及越来越强大的芯片推出,本地设备的运算能力将不断增强,使得人工智能算法能够在没有网络,离开云计算的情况下正常运行。

离开网络和云计算,AI也能运行

最近,滑铁卢大学一个人工智能项目研究人员表示,他们可以让人工智能够在离开计算机和内存的情况下正常运行。这听起来似乎有点不可思议,如果他们真能做到这样,就意味神经网络不再受到互联网和云计算的影响。
科学家认为他们可以引导AI在不需要大量资源的条件下进行机器学习,其优点是达到更好的隐私性,数据发送成本低以及具有携性等特点,即使在偏远的地区也能使用到人工智能程序。
其主要实施方法是将神经网络置于虚拟环境当中,设计自然复制的能力,然后逐步重复剥夺硬件和网格资源,让人工智能程序学习自主适应环境的能力。
通常人工智能需在较大功率和处理能力的PC上运行,但科学家认为机器本身需要学会处理现实环境局限性的问题,即使它没有大量的资源可以借鉴,也能够进行运算,深度学习程序能通过改变自身来适应环境和保持运转。

低功耗芯片,AI迎来全新的格局

当离开人工智能实验室的计算机和存储器后,人工智能载体将会变得更小,从而使得这些程序能够边缘计算环境中生存下去。例如把深度学习引擎安装到机器人、智能手机或者无人机等产品的芯片上,其连通性和重量将是重点考虑的一个问题,设计者需要最大限度降低硬件体积和重量,但又要确保人工智能的正常运行。
在过去,人工智能运算成本非常昂贵,主要原因是依赖于庞大的平行运算,即是需要同时使用多种计算资源解决计算问题。
如今,随着芯片技术的进步,新一代人工智能芯片诞生,如Google的TPU、寒武纪的DianNao系列、Eyeriss的NPU、华为的麒麟970芯片等,预计各种人工智能苾片将会陆续推出,这些产品基本都朝着低功耗、高吞吐量的方向发展。
当把边缘智能芯片嵌入智能手机中时,一些小巧的人工智能可以运行,实现语音激活的虚拟助手和其他智能功能。
人工智能的发展应用将进一步提升终端设备的能力,智能手机就是一个很好的案例,从过去的手输密码到指纹识别,再到现在的人脸识别等,开机变得更方便。利用语音识别可以大大提升文字输入的速度,提高人机交互的效率,这些技术给人们带来更多便捷生活体验。

未来已来,智能计算将发生在边缘

边缘计算蕴含着巨大的市场潜力,如果每一个设备都安装上智能芯片,那么这将是一个超级大的需求。今年7月份,英特尔公司就推出了一款Movidius神经计算棒,这也是世界首个基于USB模式的深度学习的AI加速器,相当于将人工智能运算能力集成到一个U盘里,协助开发者分析、调试、验证和部署神经网络的功能。
这也意味着开发者可以在没有网络,没有云计算的环境下,实现种各图像识别、物体识别等人工智能运算。而且Movidius是插即用的神经计算设备,一台设备可以接入多个神经计算棒,每秒1000亿次浮点运算消耗1W功率,满足了人工智能离线部署的要求。
这种人工智能产品可以安装在摄像机、无人机、机器人等设备上,实现了人工智能的本地化运算,使产品脱离网络也能够获得深度学习的能力,作为独立的智能个体运行于更多应用场景。随着越来越多的边缘智能计算设备推出,将有效推动人工智能在不同领域的应用普及。