这个时代是人工智能最火的时代,但是仔细看来,其实并没有看到很多新问题或新思路,新想法。大热的深度学习,最大的功臣可能是摩尔定律。其他一切问题,其实并没有突破性的进展,当然不可否认的是,在很多特定的领域,确实机器,或者说人工智能已经超越了人类,取得了大量的成功应用。但是也,仅此而已吧…

简单得不能再简单的,并不严谨的人工智能历史回顾

一切从一场会议开始,会议于 1956 年在达特茅斯学院举行,因此也叫达特茅斯会议。会议的组织者都是现在听来如雷贯耳的人物,John McCarthy,Marvin Minskey,Claude Shannon,还有个谁来着,记不清了=_=!(查了下 Wikipedia 好像是当时 IBM 的信息研究经理)。 会上,大家认为有必要发展一个新的学科,这个学科研究智能,具有思想的机器等。这个会议标志着人工智能(AI)学科的正式诞生,McCarthy 建议大家将“人工智能”作为这个新学科的名字。

接下来的 10 年是 AI 的第一个黄金年代,那时候诞生的很多东西对现在产生了深远的影响。各种定理证明,下棋的程序一个接一个,包括 McCarthy 发明了 LISP, MIT 机器人俱乐部开发了 SHRDLU 这个机器人系统,在我看来,他其中的很多思想比现在绝大多数所谓机器人都先进得多。还有那个内嵌在 Emacs 里面的伪心理医生的 NLP 原型系统 Eliza。有一本书叫做《黑客》,详细回顾了这段历史。那时候大家都非常乐观,纷纷预言最多有个 10 年 20 年,人工智能就能大获成功,通用人工智能能够实现,机器能够思考和推理。值得一说的是,神经网络的雏形也是那时候出现的,名字还叫感知机。还有一个特征就是,政府的钱也是不要命的给,特别是美国,英国等。。。

其实热闹了 10 多年吧,大家发现,似乎对人工智能过于乐观了,想像中的东西似乎过于复杂,就说推理吧,人类社会的常识性问题太多,大家都统一具有这个认识,但是在机器中就是无法表达完全,也没有能力建立如此巨大的数据库。Minsky 更是将炮火对准了感知机,称这个就是一个玩具,连简单的异或运算都无法解决。当时的神经网络流派被吓得龟缩了又差不多 10 多年。然后政府也不玩了,你们这些人太能忽悠,钱给了成果太远。所以大概从 1974 年起,人工智能经历了第一次寒冬。

时间来到了 80 年代,这个时候有两个事情,带来了人工智能的复苏,首先是一个叫做“专家系统”的东西,就是一些专家写一些知识库,然后据此来根据各种现象进行决策和判断的系统,这个系统当时解决了很多问题,包括医院,大公司等,一时受到业界,以及资本市场的热捧。现在看看,谁还能见到这玩意,那时的“专家系统”热潮到是跟现在“深度学习”热潮的情况差不多。另一件事情就是神经网络卷土重来了,两个标志,一个是 Hopfield 网络,另一个是 BP 反馈算法。不过也是受限于计算能力,神经网络没办法大规模应用。还有轰轰烈烈的知识工程,其中最出名的是常识知识库 Cyc,不过做了几十年甚至到今天还没有完成。以及日本试图以举国之力来提升人工智能影响的“第五代计算机”,这个项目虽然失败了,但是此举大大提升了日本科技国家的形象,不过这是后话了。

由于对 AI 期望过高,而大家发现当时扛把子的专家系统实际上只能解决一类问题,此外知识工程,第五代计算机等项目也纷纷失败,因此在 80 年代后期,人工智能迎来了第二次寒冬。

90 年代初,随着神经网络的再次冒头,它们成功的在一些行业获得不错的应用。97 年,计算机战胜了国际象棋世界冠军,那时候人们普遍认为,战胜围棋冠军可能还需至少 20 年。但是这也是注定的事情。2016 年,阿发狗出世,一举打败李世石。将深度学习推倒了世界之巅。其实深度学习是什么?其本质还是神经网络,随着摩尔定律,计算机的能力大大增强,以前的神经网络深度无法增加太多的局限被一举打破。翔这几年的图像识别等有标准数据集的比赛,冠军被深度神经网络包揽了,当然他们的网络层数动不动就是 100,1000 这样的。

从历史中我们能看到什么

从没有一个学科跟人工智能一样,热火朝天的时候并不是技术真正进步的时候,而是它成功挑起所有人过高的期待的时候。有趣的是,这个事情在历史上已经发生过两次了,目前,好像正在经历第三次。很多人觉得当前我们可能来到了技术奇点,很快就可以技术大爆炸。但是回过头来的时候,AI 的黄金年代,以及第二次 AI 兴起的时候,大家也都这么认为。

冷静一点看,比如 LISP,现在所有的语言基本上都会会被其影响,说不定再过几年,关于 LISP Machine 的理论和研究,以及应用又会流行起来。再比如 NLP,从那个伪心理医生开始,一些难解决的问题,例如指代问题,上下文引用问题,到现在也是没有彻底的解决。别说机器人系统 SHRDLU 中相关的通用任务规划,对话理解等。以及例如图像识别的那个经典悖论,人可以飞快的认识一堆照片中的熟人,但是计算机就只能一点点去匹配。这几天正好看到一个有趣的反人脸识别技术的报道,在人脸识别系统的待测试图片中加一些不会影响到人识别的扰动,成功的将计算机的识别率由 95% 降到 0.5% 以下。这证明这些领域中的本质问题还是没有解决。

就更别说当今大火的自动驾驶,配备了大量传感器和计算单元的机器往往经过了几百万小时的深度学习,上路时遇到没见过的情况时还是可能会出现问题。密码学中有个概念叫“雪崩效应”,意思是说输入一点微小的变化,可能引起输出如雪崩式的大规模变化。而这些实用的人工智能系统,一定是“反雪崩效应”,即对应于稍不一样的情况,输出的反应也会是差不多的,这个是所谓泛化,或“触类旁通”。人天生就有这个能力,但是机器,目前谁也说不清楚,通过深度学习,它学到了什么,遇到没见过的情况会怎么处理。回到开车这个例子,一个人,训练大概几十个小时就是一个合法的司机了,以后通过实战就能成为老司机,这对于机器是不可想象的。

歪论人工智能

当年阿发狗战胜李世石的时候,很多人一片惶然,觉得机器马上就战胜人类了,好多人要被取代了,甚至机器具有意识了,能够统治人类了。其实这个胜利说白了,大部分是摩尔定律的胜利。对于这些具有明确规则,能够获得完整信息的系统,机器战胜人类是迟早的事情,早一点,晚一点,其实并不能代表什么,也没有太大的意义。

所谓人的智能,实际上是一个比较玄的东西,目前都没有一个准确的定义能说明白人的智能究竟是什么。我尝试着用不严谨的语言说,智能就是在合适的时间,做合适的事情。千千万万个决策和千千万万个行动,造就了人的智能。而目前比较火的这些技术,可能在 80%,甚至 90% 的情况下能够满足这个条件的定义,但是剩下的部分,幼儿园的小朋友都比它们强。

所以吧,事情应该分开来看,相对确定,有确定的步骤和解决方法的问题和技术,那是机器的领域。它玩得好就玩得好吧,没啥,说是人工智能也罢,不是也罢。没啥分别。

真正难的部分,路还很长。