翟振明:“机器消灭人类”纯属臆想么?
您当前的位置:首页 > 学者视点

翟振明:“机器消灭人类”纯属臆想么?

时间:2016-05-03 15:04:36  来源:南方人物周刊  作者:翟振明



日本东京,软银集团类人机器人Pepper担任瑞穗银行分行迎宾员

  "AI给我们卸载,VR让我们飞翔,但这个全新人造空间暂时还没有航标灯也没有雷达,那里充满机会又危机四伏,最紧迫的,是要制定“虚拟世界大宪章”。天空还是深渊,就看我们此时的抉择"

  这次围棋人机对决,第三场一见分晓,马上有人说,“从此再也不是人工智能挑战人类,而是人类挑战人工智能了”,这不无道理。但如果有人说,这只是一个韩国(棋)人输给了一只英(美)国狗(Go),那也不全错。

  第四轮李世乭扳回了一局,又是否表明人类挑战机器初见曙光?

  需要先声明的是,我在美国期间除了在大学教书还兼职写过代码,主要是为程序除错(debug),但从未下过围棋。主业则一直从事哲学研究和“扩展现实”(即虚拟现实和物联网融合后类似电影《黑客帝国》那样的人造世界)的理念构架和技术路线设计,我创建和主持的人机互联实验室已通过沙盘测试,目前正在升级改造之中。

  棋局之外的重重玄机

  有人以为,这次AlphaGo赢了,但毕竟没有5局全胜,这说明人类还是有希望反扑的。在我看来,无论是AlphaGo横扫李世乭,还是互有输赢,其间并没有什么特别的不同,都说明人类在AI这一领域的技术取得了长足进步,但与“机器人征服人类”之类的噩梦式前景无甚关联。假若这次机器彻底赢了,总有假设的一个过去的时间点,他们之间会互有输赢。早几天迟几天,会有多少实质性差别呢?长远来看,机器必胜。

  焦虑和恐惧有不同的来源,其中一种反应是由于觉得人类的智力优势被机器夺走后,自己就会在就业市场上被淘汰。这些人主要把自己的存在价值理解成只是一种工具价值,李世乭的完败,几乎等于让他们丢掉了最后一根稻草。

  其实这是自我矮化的佣工思维,与整个人类的前途无甚关联。说到底,我们人类的内在价值,并不在于我们会干活。体力劳动和脑力劳动,都是为了解决问题,完成我们自己给自己设定的任务,这种设定源于我们的自我意识和意义系统。有了这种设定,才能知道什么是该干的“活”,什么是服务于我们的诉求的有效劳动。下棋一类的智力活动,在人类这里刚好不是用来“干活”完成功利目标的技能,而是属于生活内容一部分的高级游戏活动,这很有工具理性之上的自足意义。但是,这场人机大赛,引起哗然的并不是这个,而是人们感觉到的一种基于工具效能理解的自我认同挫败。

  日本宇航员若田光一与机器人Kirobo在国际空间站进行对话实验。Kirobo创造了“首个进入太空机器人”和“最高海拔聊天机器人”两项吉尼斯世界纪录

  这种强大智能机器的发明,与人类从科技进步中期待得到的东西之间并没有什么特别的违和感。你说是了不起的里程碑也可以,但这里涉及的主要并不是AI技术内部逻辑的断裂性突破,而是我们一些人把围棋和李世乭预先设想为当然标杆后,标杆在某种光照下投下的张扬的影子。玄机在哪里呢?不在棋局中,不在Deep Mind的工坊里,不在阿尔法狗的“神经网络”里,而在我们自己心智的幻影中。这就是脑力劳动自动机的一个演示版,搞好了就是一个不闹情绪的超级秘书而已。

  那么,是否可以这么认为,这种人机大战,只是人设计的机器战胜真人棋手,实际还是人和人之间的大战?
 

 

  这个说法还算靠谱,但是我不太想用战争隐喻来刻画这个事件。换句话说,这只说明了,在单一的抽象博弈智能方面,体制化的学术集体战胜了天赋极高的自然个体。机器没有独立的意志,最终说来,“输”与“赢”的说法,都是我们人类单方面的投射,与AI“自己”无关,因为AlphaGo根本就没有所谓的“自己”。没有独立的意志,怎么和人发生“大战”呢?相反,棋盘之外,人们的反应,比如无名的焦虑、不可克制的兴奋。更具体点,中国看客几乎异口同声地把AlphaGo称作“狗”,这却是要超出现今任何人工智能可以“理解”的范围的,这不又是玄机么?

  有围棋人士指出,AlphaGo给出选点的思维方式与人类很不同,一个流行的说法是,“最可怕的不是AlphaGo战胜李世乭,而在于它能赢却故意输掉。”这句话虽然只是玩笑,但其内涵可以非常深刻。这里引出的问题就是,什么叫“故意”输掉?AlphaGo并没有自我意识,没有自由意志,如何谈得上“故意”?“故意”可是一种截然不同的能力。这已经涉及到人们常说的“强人工智能”与“弱人工智能”的根本差别的问题。

  AlphaGo系统虽还属于“弱人工智能”的范畴,但也不就是“弱爆了”,它还是有令人兴奋的亮点,那就是所谓的“学习能力”。但这个“学习能力”的说法,不加澄清就会误导人。其实,这是基于一种模仿人脑神经元的网状连接结构的软件运行时的符号累积迭代过程。这种神经网络算法装在高速计算机上,使得这个AI棋手可以永不疲倦地练习对弈,就练棋次数而言,所有人类“棋圣”合起来与之相比都只是零头。再加上巨大数据库和无与伦比的推演速度,丝毫不受情绪影响的阿尔法狗不赢才怪。

  在我看来,人工智能到现在才开始赢,而不是更早些,倒有点儿不太正常。毕竟,美国逻辑学家匹茨(W·Pitts)首次提出神经元网络数学模型至今已经七十多年了,当时他是哲学大师罗素和卡尔纳普的追随者。

  从技术上讲,AlphaGo可以说达到了目前人类 AI研究的一大高度。它有了“深度学习”的能力,能在围棋这种拥有“3的361次方”种局面的超高难度比赛中获胜,突破了传统的程序,搭建了两套模仿人类思维方式的深度神经网络。加上高效的搜索算法和巨大的数据库,它让计算机程序学习人类棋手的下法,挑选出比较有胜率的棋谱,抛弃明显的差棋,使总运算量维持在可以控制的范围内。此外,高手一年下一千盘棋了不得了,AlphaGo每天能下三百万盘棋,通过大量的操练,它抛弃可能失败的方案,精中选精,这就是所谓的“深度学习”——通过大样本量棋局对弈,它能不断从中挑选最优的对弈方案并保存下来供临场搜索比较。

  更要命的是,阿尔法狗与人相比的最大缺憾,恰好是它对弈时的最大优势。它没有感官系统、没有主体内可体验内容、没有主观意向、没有情绪涌动。缺了这些,它在解决完全信息情况下的博弈问题超级强大。与当年击败国际象棋冠军的“深蓝”不同,基于AlphaGo同种原理的AI系统,可以学习把握医疗数据,掌握治疗方法,帮助人们解除病痛。它可以让人类从纯功利性质的脑力劳动中解放出来,给我们的生活带来极大的便利。DeepMind团队的新目标,据说是开发出可以从零开始的参与所有博弈竞赛的通用学习型人工智能。

  所谓“机器消灭人类”的臆想

  提到人工智能,很多人会问,人工智能一旦强大到一定地步,或者“失控”,会威胁人类生存吗?这次AlphaGo赢得围棋比赛,这样的问题再一次牵动人们的神经。本来,比尔·盖茨、史蒂芬·霍金等大牛就警告说人工智能的发展可能意味着人类的灭亡。2015年1月,比尔·盖茨在Reddit的“Ask Me Anything”论坛上表示,人类应该敬畏人工智能的崛起。盖茨认为,人工智能将最终构成一个现实性的威胁,虽然在此之前,它会使我们的生活更轻松。

  这种担心可以理解,并且这种警醒也并非多余。只是,像“机器人会消灭人类吗”之类的问题,在我看来都不过是暴露了人们由于概念混乱而导致的摸不着北的状态,这种状态又与不合时宜的思维陋习结合,才将人们带入无根基的焦虑或者恐惧之中。

  我们要看到,所有的人造机器,包括AlphaGo,都是某些方面的能力高于人类。这本来就是人造机器的目的。在现有条件下,它还不会失控,以后真失控了的话,与飞机高铁大坝火箭核能之类的失控基本属同类性质。无论是谷歌的无人驾驶技术,还是如今的AlphaGo下棋程序,或者更早前的微软小冰,这些智能机器的发明,复杂程度日益提升、智能日趋强大,但与人们惊呼的“人类将要被机器消灭”之间,并不存在什么客观的联系。

  以上提到的AlphaGo的相对于人的缺陷,正是它能赢棋的重要因素。现在,我们又要反过来想想,又正是这些缺憾,使得它只能在“弱人工智能”的领地中徘徊,充当纯粹的工具。这种“弱人工智能”很可能通过图灵测试,但这与人的意向性(intentionality)及主体感受内容(qualia)不相干,也不会有爱恨情仇、自由意志,而没有这些,它就不可能产生“征服”或“消灭”谁谁谁的动机。

  在学界和业界,早就有“强人工智能”相对“弱人工智能”的概念,虽然初听起来好像这里只有强弱程度的差别,但这种区别具有分立的性质,而不只是程度问题。所谓的“强”,其实指的是超越工具型智能而达到第一人称主体世界内容的涌现,还包括刚才提到的意向性、自由意志等的发生。

杭州,一位小朋友在中国围棋博物馆玩“人机对弈”游戏

  哲学家波斯特姆(Nick Bostrom)在美国《连线》杂志2016年1月刊发表了看法,直接针对AlphaGo的新技术。在波斯特姆看来,这(指此前AlphaGo的发展)并不一定是一次巨大飞跃。波斯特姆指出,多年来,系统背后的技术一直处于稳定提升中,其中包括有过诸多讨论的人工智能技术,比如深度学习和强化学习。波斯特姆说,“过去和现在,最先进的人工智能都取得了很多进展”,“(谷歌)的基础技术与过去几年中的技术发展密切相连。”

  看起来,AlphaGo的表现在波斯特姆意料之中。在《超级智能:路线图、危险性与应对策略》一书中,他曾经这样表述:“专业国际象棋比赛曾被认为是人类智能活动的集中体现。20世纪50年代后期的一些专家认为, ‘如果能造出成功的下棋机器,那么就一定能够找到人类智能的本质所在。’但现在,我们却不这么认为了。”也就是说,能下棋能赢人类的机器,终究还是机器,与人类智能的本质无甚关联,曾经那么宣称的人,不是神化了下棋技艺的智力本质,就是幻想了下棋程序的“人性”特质。波斯特姆看来也不会认为AlphaGo与“强人工智能”有何相干。

  我去年刚在《哲学研究》发过一篇文章,论证按照现在这种思路来搞人工智能,搞出来的东西是不可能有自我意识和意志的。按照量子力学的基本构架来进行,倒有可能。

 对这种思路,1998年我在美国出版的专著(英文)中已有阐述。最近,美国量子物理学家斯塔普(Henry Stapp)、英国物理学家彭罗斯(Roger Penrose)、美国基因工程科学家兰策(Robert Lanza)都提出了人类意识的量子假设。清华大学副校长施一公院士、中科大副校长潘建伟院士等也大胆猜测,人类智能的底层机理就是量子力学效应。看来大家的想法不谋而合。早先我提出了一个针对强人工智能的判准,为了与图灵测试相对照,叫作“逆向图灵人工智能认证判准”,就是——

  任何不以已经具有意识功能的材料为基质的人工系统,除非能有充足理由断定在其人工生成过程中引入并随之留驻了意识的机制或内容,否则我们必须认为该系统像原先的基质材料那样不具备意识,不管其行为看起来多么接近人类意识主体的行为。

  基于以上看法,我认为“强人工智能”实现以后,这种造物就不能被当作纯粹的工具了,因为它们具有人格结构,正常人类成员所拥有的权利地位、道德地位、社会尊严等等,他们应该平等地拥有。与我们平起平坐的具有独立人格的“机器人”,还是机器人吗?不是了,这才是真正的突破。

  最为关键的是, 这样的“强人工智能”主体,不就真的可以与人类对抗、毁灭人类吗?要理解这种担忧的实质,就需要我们好好自我反思一下,我们在这里如何把基于个人经历形成的一己情怀当作有效的价值判断了。我们主动地设计制造了这种新型主体存在,不就等于以新的途径创生了我们的后代吗?长江后浪推前浪、青出于蓝而胜于蓝,人类过往的历史不都是这样的、或至少是我们希望的吗?一旦彻底做到了,为何又恐惧了呢?所以,我们看待它们的最好和最合理的态度是:他们是我们自己进化了的后代,只是繁殖方式改变了而已。退一万步讲,假如它们真联合起来向前辈造反并将前辈“征服”,那也不过就像以往发生过的征服一样,新人类征服了旧人类,而不是人类的末日。

  其实,对人工智能的过度期待或深度忧虑,大多基于缺乏学理根据的科幻想象或人们对自身的身份认同前景的恐慌。一百年前小说家讲述的科学怪人“弗兰肯斯坦”创造了怪物最后自己被怪物控制的故事,确实让我们觉得,与一般的自然灾难相比,我们自造的怪物“失控”了回过头来对付我们,的确让人更加懊恼。但是,目前这种人工智能,再怎么自动学习自我改善,都不会有“征服”的意志,也不会有“利益”诉求和“权利”意识,这是我多年研究后得出的结论。

  AI给我们卸载  VR让我们飞翔

  当前,无论从紧迫性还是从终极可能性上看,人工智能问题都属于常规性问题,并且都是渐进呈现的,我们不必过于兴奋或担忧。我们有更值得担心、警醒的紧迫事情要去做。

  比如说,人工智能对人类生活的影响,无论从哪个角度看,都远没有虚拟现实与物联网整合后的“扩展现实”的影响更具颠覆性。并且,这样的扩展现实很快会在大家都不知不觉之际突然扑面而来。脸书、百度、腾讯、索尼、蔡司、HTC、暴风影音……全世界都在做这种东西啊,因此今年被称作“虚拟现实元年”。微信的领头人张小龙不经意地说,“希望5年后大家开会不用出门,戴上一个眼镜全都和在现场一模一样。”到时,我们的微信群就不是一个头像一个昵称凑一起了,而是共同进入一个与现实世界的“会所”不能分别的虚拟会所,面对面互动交流。

  另一方面,各国政府和非政府力量都在大量投入物联网领域,谷歌掌门人施密特又宣称“物联网即将代替互联网”。在我看来,网络化的虚拟现实和物联网整合后就是“扩展现实”。这里,人工智能可以被用来丰富世界的内涵,也可以方便我们操控物联网,但起关键作用的却是主从机器人,这基本上是一种“无智能机器人”,与人工智能无甚关联。

  由此建造出来的人工世界,必须以由分别的自由主体直接操控的“人替”为中心,它们各自的主体性必须具有绝对优先的权能地位。这就要求一开始就在技术标准中为每一个人替建立一堵防火墙,使得它们与外界的信息交换具有本体论上的不对称性。对于监视和操控性的信号和信息的摄入和输出,决定权和控制权要完全落脚在人替端,这样才能保证每个人都可以通过人替认识和操纵外在世界,而来自外在世界(包括他人)的监视和操控信号和信息,则不能擅自进入。这样的不对称性,应该成为人替本体工程的第一原则。

  这条原则,也就是“人是目的”原则的技术标准化,其功能与在我们现今世界的一样,就是要维护人的基本尊严和促进大家获得更多的幸福,等等。

  此外,因为虚拟世界的“物理”规律是人为设定的,这就要求有一个“造世伦理学”的学术领域,在这个领域我们以理性的方式探讨和制定一套“最佳”的相互协调的“物理”规律。譬如,虚拟世界中的造物是否可以变旧?人替是否可以在与自然和他人的互动中被损坏?虚拟世界中是否允许“自然灾害”的发生?等等。要回答这类问题,有赖于一种前所未有的“造世伦理学”的诞生。如果我们不想把创建和开发虚拟世界这个将对人类文明产生巨大影响的事业建立在毫无理性根据的基础上,我们必须以高度的责任心创建这个学术领域并在这里进行系统深入的研究探讨。

  总而言之,在虚拟现实和物联网融合成无所不包的“扩展现实”之前,我们必须事先预想、防范可能出现的侵犯人的尊严和权利的问题。正像我们和腾讯基金会签订的协议中所说的那样,让大家一起在这里“预先注入鲜活的人文理性”。这个世界上,总有一些权力欲、控制欲爆棚的人,想要以思想控制和信息垄断乃至物理强制的方式压制他人从而凌驾于他人之上。这样,他们很渴望把大多数人及其虚拟替身变成物联网的附属,进而服务于他们的权力意志。扩展现实如果向这个方向发展,将是人类的大灾难。

  只是,我在这里没机会深入讨论这个激动人心又令人担忧的话题。我只能说:AI给我们卸载,VR让我们飞翔,但这个全新人造空间暂时还没有航标灯也没有雷达,那里充满机会又危机四伏,最紧迫的,是要制定“虚拟世界大宪章”。天空还是深渊,就看我们此时的抉择了。
 

  (作者简介:翟振明教授系中山大学人机互联实验室主任、哲学系教授、博士生导师。他于上世纪90年代就开始研究虚拟现实的基本构架及与物联网整合后对人类生活方式的可能影响,其思想实验已派生出一批技术发明,被认为是虚拟现实领域的先行探索者和领头人)

推荐资讯
相关文章
    无相关信息
栏目更新
栏目热门