你好,游客 登录 注册 搜索
背景:
阅读新闻

人工智能的最终局:自主学习才是技术进步的代表作

[日期:2017-10-24] 来源:亿欧网   作者: [字体: ]

  AlphaGo Zero刷爆了朋友圈,小伙伴们齐声惊呼AI自主学习的时代到了。

  阿尔法元的本质是通过对弈自动产生标定数据,然后使用CNN(卷积神经网络)做DeepLearning。令人吃惊的是AlphaGo Zero只用了490W个自我对局就超过了去年的水平,直观的数据对比是AlphaGo Zero只用了4个TPU和3天时间就达到了AlphaGo用48个TPU和三个月的学习达到的水平。

  可以看到Google在Reinforcement Learning算法上取得了重大的突破。 除了Google在算法层面的优化外,一个合理的推断是人类棋谱的局限性和某些怪招限制了神经网络训练的收敛速度,浪费了过多的时间做过拟合。

  AlphaGo Zero的成功指明了AI的一个发展方向,即在规则目标明确的场景,可以自我产生数据,突破人类固有的思维模式,以达到意想不到的效果。

  一众投资人都在被洗脑AI自主学习的时代已经到来,海量标定数据已经不再是瓶颈。

  人工智能真的到了最终局么?答案当然是No,因为终极挑战Meta Learning早已到来。

  对于文字、语音、图像等数据,没有明确的规则告诉你一句话是普通话还是广东话,一张照片是美女还是丑女,Reinforcement Learning算法的作用就相对有限。这就需要用到Meta Learning,通俗的说就是AI要学会学习。

  回想大家家里的小孩子,可能花了两年的时间才认识了什么是猫,但是他只需要很短的时间,就可以再认识狗以及其他小动物。而且当人认识了一只猫之后,不管它变成什么毛发、戴上什么配饰,都可以很容易的识别出来。

  这里面的本质是人从基本的色彩和形状开始逐渐建立对世界的认知,在脑回路里面会建立一些先验的神经元结构,再通过一系列的组合搭配新的回路,去实现新的任务。再举一个例子,我们学会了行走起跳、环境感知、瞄准物体、游戏规则,然后逐渐学会了踢足球,其背后的机理就是一系列子神经网络的组合应用与重进化。

  为了实现Meta Learning,众多研究机构已经做了很多有益的尝试:

  1、Transfer learning

  即把预先训练好的某项任务的神经网络和模型参数,作为构造下一个神经网络时的额外输入,以此继承一些既有的知识,达到相关性的传播。

  Google给出了两个实例,证明了Progressive Neural Networks方向的可行性:

  1)学会玩某一个游戏的神经网络,可以很快被训练掌握另一个游戏;

  2)基于仿真图像训练机械臂完成到达任务(Reacher task),然后基于该网络依次训练实际场景和抓取任务;

  2、One/Zero-Shot Learing

  ZSL即无样本训练,其思想本质是人类通过一系列的特征来认知事物,我们可以基于先验特征知识和对某未知事物的描述做出判断。

  ZSL/OSL算法会基于样本到pre-define的特征属性向量的映射,做监督学习以及特征语义建模,已得到最优的判别网络。

  举个例子,当AI认知了狮子和猫之后,它听到关于老虎的描述就可以猜到是老虎,尽管没有先验数据做训练。更夸张的说,当AI像考古学家一样见到一个化石,它也可以推断是否是新的物种以及属种关系

  说了这么多,最后对AI行业下一步的发展趋势做一个小的预测。

  预计2018年Google等巨头会初步完成Meta Learing算法并在TensorFlow等框架中支持原子神经网络,届时神经网络的训练门槛会大幅降低,更多的创业者可以站在巨人的肩膀上,只要有出色的idea和少量的数据,就可以做出基于AI的创新,届时我们将看到更大的AI创业浪潮,我们拭目以待。

收藏 推荐 打印 | 录入:Cstor | 阅读:
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款