您的当前位置:主页 > T翼生活 >工程师也失业?会写AI的AI效率超越人类,Google、MI

工程师也失业?会写AI的AI效率超越人类,Google、MI

分类:T翼生活 作者:
工程师也失业?会写AI的AI效率超越人类,Google、MI
iesJAPAN 2014 in Chiba, east of Tokyo, October 7, 2014. Over 500 companies and organisations are exhibiting at CEATEC JAPAN 2014, which will be held until October 11, 2014. REUTERS/Issei Kato- RTR49758

认图片 、 辨声音 、 下围棋 、玩 德州扑克 、 开卡车 ⋯⋯似乎越来越多人能玩的事情 AI 也能玩,而且玩得比人还溜。但暂时有一部分人还是自我感觉安全的——工程师的工作 AI 还是很难胜任的对吧?毕竟这个东西需要逻辑思考,需要框架和流程设计,哪里是 AI 能一下子胜任的事情。但 Google 等公司认为,AI 现在可以开始学习一些 AI 专家做的事情了,那就是写 AI 程式。

Google Brain 人工智慧研究小组的研究人员最近就进行了这样的尝试。他们在一次试验中让软体设计了一套机器学习系统,然后对这套系统进行测试语言处理方面的测试。结果发现该系统的表现超过了人类设计的软体。

Google Brain 团队首先用递归神经网路生成神经网路的描述,然后利用强化学习对该 RNN 进行训练。其方法可以让 AI 从零开始设计出一个新颖的神经网路架构,在利用 CIFAR-10 数据集进行图像辨识测试时,其辨识的精度甚至比人类设计的最好架构还要高,错误率仅为 3.84%,与目前最先进的神经网路模型相比,其错误率仅低 0.1 个百分点,但速度快了 1.2 倍。而在用于自然语言处理的 Penn Treebank 数据集上,其模型构造出来的一种递归神经单元也超越了被广泛使用的 LSTM 神经单元等最新基準指标,在複杂度方面比后者好 3.6 倍。

类似地,Google 的另一个 AI 团队 DeepMind 最近也发表了一篇名为《学会强化学习》的论文。其研究同样针对的是深度学习所需的训练数据量大且获取成本高的缺点。他们提出了一种名为 deep meta-reinforcement learning 的强化学习方法,利用递归神经网路可在完全有监督的背景下支持元学习的特点,把它应用到了强化学习上面。从而将用一个强化学习算法训练出来的神经网路部署到任意环境上,使得 AI 在训练数据量很少的情况下具备了应用于多种场景的元学习能力。或者用 DeepMind 团队的话来说,叫做「学会学习」的能力,或者叫做能解决类似相关问题的归纳能力。

Google Brain 团队的负责人 Jeff Dean 最近在回顾 AI 进展情况时,就曾经表态说机器学习专家的部分工作其实应该由软体来负责。他把这种技术叫做「自动化机器学习」,并认为这是最有前途的 AI 研究方向之一,因为这将大大降低 AI 应用的门槛。

当然,创建学会学习的软体这个想法由来已久,蒙特娄大学的 Yoshua Bengio 早在 1990 年代就提出了这个想法。但之前的试验结果并不理想,因为 AI 做出来的东西还是比不上人类想出来的模型。但近年来随着运算能力的不断增强,以及深度学习的出现,AI 学会学习的能力终于取得了突破。

儘管 AI 的自学能力取得了突破,但是在近期内还无法大量推广。因为首先这种能力需要庞大的计算资源。比方说 Google Brain 那个设计出辨识率超过人类所开发系统的图像辨识系统的 AI ,就需要 800 个 GPU。

但这种情况将来可能会发生变化。最近 MIT Media Lab 也开发出了设计深度学习系统的学习软体,其所开发出来的深度学习系统的对象辨识率也超过了人类设计的系统。MIT Media Lab 计划将来把它的这套 AI 开源出来,让大家继续这方面的探索。

除了 Google 和 MIT 以外,据报导最近几个月有好几个小组也在让 AI 软体学习编写 AI 软体方面取得了进展。其中包括了非盈利的 AI 研究组织 OpenAI、MIT、加州大学柏克莱分校等。

一旦这类自动式的 AI 技术具备实用性,机器学习软体在各行业应用的节奏无疑将大大加快。因为目前机器学习专家极为短缺,各家企业组织都需要高薪供养这批人才。