구독신청

提高人工智能学习速度的“GPU”

微软研究员早在10年前发现…人工智能学者将其完善
不同于CPU的算法,处理数据更快更多

  • 发布时间 : 2017.04.20 17:45   最后修改 : 2017.04.21 10:32
2005年,三位微软研究员正在研究将人眼接收信息的方式应用到人工智能上的方法。他们试图在人眼的工作机制基础上开发计算机辨别图像的方法。但当时研究这一领域的人们都面临着一个共同的难题,就是速度过慢。例如,若要让计算机面对小狗的照片,辨别出这是一只小狗,那么需要计算机需要学习1亿个图像后方可实现,这一过程需要的时间长达4周。虽然可以让计算机识别出小狗,但是这一技术需要耗费4周之久,因此人们对此兴趣寥寥。

曾任微软研究员、现任领英技术总监的Kumar正是想出这个点子的人,“如果用GPU(图像处理器)替代CPU(中央处理器)处理图像会怎样呢?反正图像总归都要由GPU来处理的啊”。在整整一年后,他们发表论文称,GPU的人工智能神经网络速度可加快3.1~4.1倍。可见,GPU对当下人工智能发展起到核心作用的可能性,是在整整十年前便被发现了。发现带来发展,2009年斯坦福大学教授前往加拿大蒙特利尔参加机器学习学术会议时,人工智能领域专家吴恩达(Andrew Ng)发表的论文又为这一领域带来了新的发现。吴教授在论文中称“我们为了利用GPU实现计算机的大量数据并列学习,为此开发了一般原则”。他发展的GPU利用方法惊人地实现了人工智能学习1亿个数据仅需耗时一天。

此外,在人工智能的神经网络翻译过程中,GPU的作用依然至关重要。将数以百万计的语料库转化为向量,并将其相互关联既是人工智能翻译技术的精义。因此相比CPU,采用GPU进行人工智能的学习会更快获得结果,这也正是GPU制造企业NVIDIA股价一路走高的原因。NVIDIA一早发现GPU可用于人工智能,此后便专注于技术开发。而GPU比CPU更适用于人工智能的原因则在于算法上的差异。CPU是在完成一项操作后进行下一项操作(串行处理方式),由1~8个Core构成。相反,GPU由数千个Core并列构成,因此可以轻松处理大量数据。

此前谷歌曾结合CPU与GPU的优势,开发有利于人工智能学习的TPU(Tensor Processing Unit)。谷歌的官方消息中表示,TPU早在2015年便用于谷歌数据中心,用户也可通过谷歌云服务使用该服务。谷歌日前公布的标杆学习结果中显示,TPU比目前NVIDIA的GPU与英特尔的CPU速度还要快上15至30倍。




[(c) 每日经济 & mk.co.kr,禁止重新编辑与转载]

go to top