您的位置:beat365亚洲官方网站 > 互联网资讯 > 人工智能已到瓶颈!院士“联名”反深度学习,

人工智能已到瓶颈!院士“联名”反深度学习,

2019-11-27 02:29

本文约3800字,建议阅读10+分钟。

工作中,需要弄清楚这三者之间的关系,不妨做个简单的梳理

针对深度学习的技术瓶颈,清华大学张钹等多位院士、教授给出了自己的研究思路。

首先何为智能(Intelligence),智能有多方面的含义,这里主要指能够做出“正确的决策”,好的决策依赖于可实操的知识,例如翻译感觉信息,并利用这些信息来做决策。

前言

接下来我们来定义人工智能(Artificial intelligence),在程序员的努力下,计算机已经初具智能,即能够执行对人有用的任务,但比起人和动物还有很大差距,计算机依然无法完成大多数对人和动物来说很简单的活动,这些任务(包括感知和控制)就属于人工智能的范畴。尽管人类的大脑能够完成复杂任务,但我们并不能确切知道为什么能够完成这些任务。执行任务过程中涉及的知识开始是不明确的,但通过数据、例子和经验我们就能掌握解决这些任务的信息。如何让机器具备这类智能?学习过程就是通过已有的数据和经验来建立可操作的知识,解决未知的问题。

在CCF-GAIR大会上,来自清华、加州大学伯克利、斯坦福、哈工大等多所国内外顶级理工科院校的院士齐聚深圳,分享了自己最新的研究。虽然各自研究的细分领域有所不同,但是透过贯穿始终的技术讲演,避不开的事实是,多位院士都在或直接或间接地去“批判”深度学习算法。

人工智能的历史

  • 1943 McCulloch和Pitts: 大脑的布尔电路模型

  • 1950 图灵机“计算机与智能”

  • 1952-1969 早期的对智能机器的热情和期望“机器能够做。。。”

  • 50年代 早期的人工智能程序,包括萨缪尔检查程序,Newell和Simon的逻辑理论家,Gelernter的几何引擎

  • 1956年 达特茅斯会议:“人工智能”被采纳

  • 1965年 Robinson提出逻辑推理的完整算法

  • 1966-74 人工智能发现计算复杂的神经网络研究几乎消失

  • 1969-79 知识系统的早期发展

  • 1980-88 专家系统开始繁荣

  • 1988-93 专家系统破产,人工智能的冬天到来

  • 1985-95 神经网络重新变得流行

  • 1988- 概率的复活;计算深度增加“中等深度的AI”:ALife,GAs,软技术

  • 1995- Agents

  • 1995- 支持向量机被提出,机器学习被分为神经网络和支持向量机两派,此后支持向量机在多个领域替代了神经网络,90年代到现在,决策树、Adaboost等机器学习算法应用在各个领域中

  • 2003- 人类级别的人工智能重新开启

  • 2006-深度学习的兴起

演讲中,他们再次明确指出深度学习的缺陷,进而点出,在可以预见的未来里,随着研究的推进,当下的深度学习算法将会逐步被拉下神坛。

人工智能的主要领域

  • 感知:理解视觉和语音
  • 机器学习和神经网络
  • 机器人
  • 自然语义理解
  • 推理和决策:知识表征、推理、决策

不过,顺着学术界走入产业应用,会发现产业界的关注重点是在技术的落地。所谓落地,本质上就是无数应用场景的聚合。所以对于AI企业而言,对业务的探索和用恰当的技术去解决实际问题才是首当其冲的。

因此,深度学习存在缺陷,这一问题短期内并不会妨碍AI当下不可阻挡的发展之势,技术的局限也不意味着AI公司们将会无事可做。

但阳春白雪的研究始终引领着AI产业的技术走向,也是企业盈利和产业变革的关键驱动力。

所以,在深度学习被过度炒热的当下,我们理应试着站在院士们的“肩膀”上,看的更远。而企业家们在脚踏实地的同时,也应当不忘仰望星空。

尽管这已不是什么新鲜的话题,但是行业内一直没有可以解决问题的办法。本文旨在传达学术界研究者们提供的一些新思路。

机器学习的弊病

源于对“大”的误解

当下,最常被提起的名词就是机器学习、深度学习和神经网络,用数学上集合里的概念去理解这三者之间的联系,他们之间依次是包含的关系,即机器学习包含深度学习,深度学习包含神经网络。其中,四层以上的神经网络就可以称之为深度学习,而深度学习是一种典型的机器学习。

上世纪五十年代,神经网络这一算法结构出现,当时,它的正式名称应叫做感知机,但已经包含了输入层、隐含层和输出层这一经典的通用结构,并且随着隐含层层数的加深,对事情的描述就愈加精准。

但是,神经网络是一种以输入为导向的算法,所以优质的结果一定取决于接近“无穷”量级的数据。因而,在2000年互联网革命没有爆发之前,它一直都处在无人问津的阶段。

正如大家所知道的,互联网时代积累的大量数据和云计算带来的算力的大幅提升,极大地释放了深度学习算法的潜力,因而也让人工智能时代全面爆发,产业应用得以蓬勃发展。数据显示,2017年我国人工智能市场规模达到216.9亿元,同比增长52.8%,预计2018年市场规模将达到339亿元。

然而,随着产业应用的成熟,以及大家对真正“智能”的渴求,让算力和深度学习算法本身的局限性,显露无疑。

图片 1

加州大学伯克利分校电子工程与计算机系教授 马毅

“老百姓概念里的‘大数据’和我们所认为的大数据是完全不一样的,就拿图像处理来说,数十亿的数据量看似量级很高,但对我们来说,它其实是‘小样本’。因为真正能够训练出好的模型的数据量,应当是趋于无穷的,所以即便是拥有了大量数据去训练模型,和理想的智能模型之间,也有着本质的差别。”从算法性质出发,加州大学伯克利分校电子工程与计算机系教授马毅也点出了当下这项火热技术的局限性。

因而从学者、投资人到AI头部企业,寻找新的技术和方向成为了现在的重点。

在会议的开场报告中,清华大学张钹院士呼吁大家思考的“如何走向真正的人工智能”成为了为期三天会议的基调,同时也反映了行业发展至当下阶段,众人的诉求。

新方向探索

数据处理方法、基本思想和技术思路

  1. 数据处理层面,语义向量空间或进一步拓宽入口。

看见了技术的“天花板”,很多专家学者开始提出“小数据”的概念,然而清华大学人工智能学院院长张钹院士却不认为数据量的大小是当下的根本问题所在,他指出,传统的人工智能三要素将不能带来真正的智能。

图片 2

清华大学人工智能学院院长、中国科学院院士 张钹

“评价人工智能获得的成果,我们可以从这五件事来看:深蓝打败人类国际象棋冠军;IBM在电视知识竞赛中打败了美国的前两个冠军;2015年微软在ImageNet上做图象识别,误识率略低于人类;百度、讯飞也都宣布在单句的中文语音识别上识别准确度略低于人类和AlphaGo打败了李世石。前两件事归为一类,后三件事可归为另一类。

大家一致认为,这五件事得以发生的三要素是:大数据、算力的提升和非常好的人工智能算法。但我认为大家忽略了一项因素,就是这所有的成果必须建立在一个合适的场景下。”

换言之,当下人工智能的发展避不开种种限制条件,因而智能的机器也只能够照章办事,没有任何灵活性,也达不到人们想要的智能,而这也就是当下AI的发展状态。

“我们现在的人工智能基本方法有缺陷,而我们必须走向具有理解能力的AI,这才是真正的人工智能。”张钹院士在演讲中指出。

那解决办法是什么呢?通过循序渐进,张院士在演讲中给出了思路,并指明语义向量空间这一技术方向。

本文由beat365亚洲官方网站发布于互联网资讯,转载请注明出处:人工智能已到瓶颈!院士“联名”反深度学习,

关键词: