2.2 从阿尔法狗能到超级人工智能
人工智能被视为移动互联网的下一幕,其技术红利已经开启了。人工智能可以简单理解为让机器完成人为设定的任务,分为运算智能(能存会算)、感知智能(看听会说、能看会认)、认知智能(能理解会思考)三个层面;而数据挖掘、机器学习(Machine Learning)、深度学习(Deep Learning)深刻影响着人工智能发展。伴随“互联网+”行动进入深水区,人们逐渐认识到了互联网的本质除了连接商品、信息、人以外,还可以连接“智慧”。
人们将这种只相当于昆虫智力的人工智能称为弱人工智能(Artificial Narrow Intelligence, ANI),主要是指仅在单个领域比较强的人工智能程序。其实弱人工智能已经无处不在了,如2016年春季战胜李世石的谷歌AlphaGo,便是弱人工智能的典型代表,如图2-5所示。其特征便是虽然很擅长下围棋,却无法与你玩一把飞行棋,也难怪有评论称其水平只是人工智能界的“小学生”。与之相类似的还有我们较为熟悉的那个爱卖萌的苹果Siri,以及美联社、腾讯、新华社等尝试的“机器人记者”。这些写稿机器人们虽然已经可以自动生产财报报道的内容,但是对于报道“看了一场体育比赛之后,用虽败犹荣来描述胜负”,却是它们完成不了的。
图2-5 AlphaGo大战李世石
对许多人来说,弱人工智能已经是每天生活的一部分,它们并不可怕,也不会对人类本身的存在造成严重的威胁,它们所带来的颠覆性效果已经直抵我们生活的方方面面。许多机器已经含有弱人工智能的特征,只是人们并没有称之为人工智能而已,如小型的无人航拍设备、精准的GPS定位软件,等等。
当前,大众对人工智能的专业理解,存在信息不对称的问题,因此,当把人工智能放到围棋游戏上时,连世界冠军都甘拜下风,便很容易让人产生错误的想象,仿佛机器的智力水平超越了人类。但是,智能革命并不会仅仅停留在弱人工智能的阶段,而是一个人类社会从弱人工智能,通过强人工智能,最终到达超人工智能的宏大进程。强人工智能(Artificial General Intelligence, AGI),也就是人类级别的人工智能。强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。创造强人工智能比创造弱人工智能难得多,现在还做不到。Linda Gottfredson教授把这种智能定义为“一种宽泛的心理能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作。”强人工智能在进行这些操作时应该和人类一样得心应手。
哲学家、计算机科学家和人工智能专家指出了弱人工智能和强人工智能两者之间的区别。强人工智能与AlphaGo完全是两个不同的方向,很简单的比喻,人脑的计算水平再快,也赶不上机器的算力,但机器再聪明,也不可能与人脑一样复杂多变。弱人工智能不能模仿人类的大脑,也就是说没有意识。强人工智能能够模仿人类大脑,也就是说具有自我意识,它们甚至可以胜任超越人类智慧的认知任务。强人工智能就是让机器真正地思考(can machine really think),弱人工智能可以做到的则只是让机器智能的行动(can machine act intelligent)。不同于弱人工智能,强人工智能可以像人类一样应对不同层面的问题,而不仅仅只是下下围棋、写写财报报道。不仅如此,强人工智能还具有自我学习、理解复杂理念等多种能力。也正因此,强人工智能程序的开发比弱人工智能要困难很多。
造一个能在瞬间算出十位数乘法的计算机——非常简单。
造一个能分辨出一个动物是猫还是狗的计算机——极端困难。
造一个能战胜世界象棋冠军的电脑——早就成功了。
造一个能够读懂六岁小朋友的图片书中的文字,并且了解那些词汇意思的电脑——谷歌花了几十亿美元在做,还没做出来。
如图2-6所示为人们对人工智能的错误判断和实际情况比较。
图2-6 人们对人工智能的错误判断和实际情况比较
用计算机科学家Donald Knuth的说法,“人工智能已经在几乎所有需要思考的领域超过了人类,但是在那些人类和其他动物不需要思考就能完成的事情上,还差得很远。”但随着21世纪第二个十年中相关技术的成熟与相关理论研究的不断深入,拐点也许就在眼前。强人工智能诞生的那个时间点,被人们称为“技术奇点”或者奇异点。从这个点开始,计算机智能将跨过那个门槛实现质的飞跃,从而以最快的速度取代目前地球上最聪明的人类智慧。库兹韦尔在其新书《人工智能的未来:揭示人类思维的奥秘》中也表达了这样的观点:现在,作为人类智能基础的简单的生物算法已经被发现,我们要做的不仅仅是将它扩展到设计智能机器上,计算机终将在奇点到来之时超越人类。
2013年,牛津大学人工智能哲学家尼可•博斯特伦(Nick Bostrom)对数百位人工智能专家做了一项关于“你认为人类级别的人工智能什么时候会出现”的调查,结果大部分专家认为,正常情况下会在2040年出现,最晚也会产生于2075年。莱斯大学(Rice University)的计算科学家摩西•瓦迪(Moshe Wardi)和库兹韦尔等也都曾预言,最迟在2045年,在一些非常重要的工作中,人类将退出历史舞台。更有甚者提出,计算机将快速进化,最终用一代人或者两代人的时间就能超越人类智慧。当然,这只是在对人工智能研究没有受到任何限制的情况下所进行的预测,强人工智能的产生不仅是技术的问题,更会涉及伦理、法律、利益的再次分配,还有深植于人类内心的对于未知的恐惧等多种因素的影响,这些都有可能成为强人工智能研究的巨大阻力,因此,强人工智能的出现也许会比人们预测的晚一些。但这至少说明了强人工智能的时代也许距离我们已经不太遥远了。
而当人们已经深处弱人工智能所包围着的世界,并且强人工智能正在通过深度学习不断逼近的同时,关于第三种人工智能——超人工智能(Artificial Super intelligence, ASI)的讨论则把人们的视野引向了更加遥远的未来。牛津哲学家、知名人工智能思想家Nick Bostrom把超人工智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。”他为我们勾勒了这样一幅图景:超人工智能模式是一种能够准确回答几乎所有困难问题的先知模式,能够执行任何高级指令的精灵模式,能执行开放式任务,而且拥有自由意志和自由活动能力的独立意识模式。也就是说,超人工智能可以是各方面都比人类强一点,也可以是各方面都比人类强万亿倍的。
超人工智能是由强人工智能自动进化而来的。通过自我改进来达成强人工智能的人工智能,会把“人类水平的智能”当做一个重要的里程碑,但是也就仅此而已了,它不会停留在这个里程碑上的。考虑到强人工智能之于人脑的种种优势,人工智能只会在“人类水平”这个节点做短暂的停留,然后就会开始大踏步向超人类级别的智能走去。这个强人工智能的智能水平越长越快,直到它达到了超人工智能的水平——这就是智能爆炸,也是加速回报定律的终极表现。随着机器人从弱人工智能时代演进到强人工智能时代,人与机器之间相互加强的正反馈循环不断加快,最终结果就是超人工智能时代的智能爆炸,进而产生比任何人类都将聪明上百万倍甚至更多的机器。
如图2-7所示为强人工智能与超人工智能时间表。
图2-7 强人工智能与超人工智能时间表
而这正是事情变得可怕的原因,因为如果超人工智能真的在各个方面都比人类强大了,机器具有了意识和超级智慧,突然,人类就会变得没有必要。这就是亿隆马斯克和霍金所担心的。想象一下,一个比人们聪明100倍、1000倍甚至10亿倍的超人工智能可以做出什么事情?那些在我们看来超自然的,只属于全能的上帝的能力,对于一个超人工智能来说可能就像按一下电灯开关那么简单。防止人类衰老,治疗各种不治之症,解决世界饥荒,缓解气候变暖,甚至让人类永生或者灭亡,这一切都将变得可能。霍金曾经在一次接受BBC的采访时提到,充分开发的人工智能最终可能导致人类灭绝。一旦人类开发的人工智能重新设计自己,进化的速度将会不断增加;人类的自然进化速度太缓慢,最终将会变得无法竞争,被更加智能的机器取代。