它们让你对AI的未来充满恐慌,细数AI预

作者

RodneyBrooks,译者

BrotherZhao,编辑

Vincent,AI前线出品|ID:ai-front。我们周围充斥着对于人工智能和机器人未来的歇斯底里——关于人工智能和机器人将会何等有力、何等迅速以及他们将对工作岗位造成何种冲击。我最近在MarketWatch读到一篇文章。文章讲的是,在未来10到20年内,机器人将取代一半的现有工作岗位。文中甚至给出了柱状图来证明这些数字的有效性。文章的结论太荒唐了。(我尽量使用学术语言,但有时候面对这种情况确实词穷。)比如文章说,在未来10到20年内,地面维修工人数量将由万名缩减到5万名,因为机器人将会取代这些工作岗位。那现在这些岗位上有多少机器人在运行?一个都没有。这一领域有多少具备实用价值的演示模型机器人工作着呢?一个都没有。还有很多类似的文章认为,对于那些目前需要在特定场合进行体力劳动的岗位,超过90%都将会被终结。这些适用于其他所有领域的文章也存在同样的问题。错误的预测将导致我们害怕那些不会发生的事情,不论是对工作岗位的大范围取代,奇点,还是与人类价值观不同的甚至试图毁灭人类的AI。对于这些错误,我们需要反击。但是,为什么人们会产生这些错误呢?我找到了七个常见的原因。1.高估和低估RoyAmara是未来研究所(theInstitutefortheFuture)的联合创始人。该研究所位于PaloAlto,也就是硅谷的智慧中心。他以现在被称为Amara定律的格言而闻名:技术的作用总是在短期内被高估,而在长期内被低估。这短短的句子凝结了太多东西。乐观主义者会有一种解读,而悲观主义者会有另一种解读。有关Amara定律两面性的一个绝佳例子就是美国的全球定位系统GPS。年开始的时候,GPS的卫星轨道上包含由24颗卫星(现在是31颗卫星,含冗余)组成的星系。GPS的目标是为美国军队的弹药投放提供精准的位置支持。但是这一项目在20世纪80年代几乎被一次次取消。符合GPS设计目的的第一次实战使用是年的沙漠风暴行动,GPS额外取得了数次成功,才使得军方接受它。错误的预测将导致我们害怕那些不会发生的事情。现在,GPS已经到了Amara所说的“长期”,而它现在的应用方式是起初无法想象的。我外出跑步时,我的苹果手表2代就会使用GPS功能足够精确的记录我的位置,精确到能够确定我跑步时是在马路的哪一侧。苹果手表中GPS接收器的微小尺寸和低廉价格是初期的GPS工程师们无法想象的。GPS技术在全球范围内同步进行物理实验的时间,并在同步美国电网的时间和保持电网运转方面发挥重要作用。它甚至允许那些真正操纵着股市的高频交易员避免毁灭性的定时错误。所有的飞机,无论大小,都使用GPS导航,GPS还用来跟踪假释出狱的人。GPS决定了世界各地的哪些地区种植哪种种子。GPS技术可以跟踪卡车车队并汇报司机的驾驶行为。GPS最开始时只有一个军事目标,然而,要让它像最初预期的那样工作,绝没那么简单。现在GPS已经渗透到我们生活的方方面面。如果没有GPS,我们不仅会迷路,而且会受冻、挨饿,甚至很可能会死掉。在过去30年中,其他技术有着相似的模式。起初人们抱有巨大的期待,然后是巨大的失望,之后慢慢地对超出最初预期的结果产生了信心。这一模式在大规模计算、基因组测序、太阳能、风能,甚至是购物送货上门等方面都是如此。在20世纪60年代,在20世纪80年代,AI一次又一次地被高估。我相信,现在它又被高估了。但它的长期前景也可能被低估了。问题在于,长期是多长?后面的6个错误能帮我们解释,为什么对于AI的未来而言,时间尺度被严重低估了。2.想象中的魔法在我十几岁的时候,亚瑟·克拉克是科幻小说作家“三巨头”之一,其余两位是罗伯特·海因莱因和艾萨克·阿西莫夫。但是克拉克还是一位发明家、科学作家和未来主义者。在年到年之间,他发明了后来被称为克拉克三定律的三条格言:如果一位年高德劭的科学家认为某事是可能的,那他几乎肯定是正确的;如果他认为某事是不可能的,那他很可能是错误的。发现可能性的边界的唯一途径,就是跨越这一边界,进入到不可能的领域。任何非常先进的技术,初看都与魔法无异。从个人角度而言,我对克拉克三定律的第一定律的后半句持保留意见,因为我在有关AI将在多久时间内占据优势地位一事上比其他人更为保守。但是现在我要在克拉克第三定律上展开论述。想象一下,我们有一台时光机可以把艾萨克·牛顿从18世纪晚期穿越到现在,并把他安顿在他熟悉的环境中:剑桥大学三一学院教堂。现在给牛顿看一台苹果公司的产品。从你口袋中取出iPhone,开机让屏幕亮起来并布满图标,把iPhone给牛顿。牛顿曾经利用菱镜将太阳光分解,揭示了白光是由不同颜色的光组成的,并将不同颜色的光又混合成了白光,但他毫无疑问地将对在黑暗教堂中能发出如此耀眼色彩的装置感到诧异。现在播放一部英国乡村场景的电影和一些他应该听过的教堂音乐。然后向他展示这个网页,网页中有他个人批注的多页的皇皇巨著《自然哲学的数学原理》。教给他如何通过缩放手势来放大网页细节。要留意那些有关未来技术是不是魔法的争论。牛顿有可能解释这个小装置是如何实现这一切的吗?尽管他发明了微积分,还解释了光学和重力的原理,但是他却从未能正确区分炼金术和化学。所以我认为他会非常困惑,并且根本想不出这个设备的最基本的轮廓。对他而言,这和超自然的化身没什么不同。这个跟魔法是没办法区别的。同时要记住,牛顿可是那个年代相当聪明的人物。如果某个事物是魔法,我们就很难知道它的边界。假设我们更进一步地给牛顿展示了这个装置如何照亮黑暗,如何照相、录像、录音,如何用作放大镜和镜子。然后我们向他展示,它可以用来以极高的速度和极高的精度进行算术计算。我们展示一下,牛顿拿着iPhone的时候,iPhone记录了他的步数,继续向牛顿展示他可以用iPhone与世界任何地方的人们即时通话,就在教堂中即可。牛顿可能会推测这个设备能做的其他事情是什么?用来分散太阳光的菱镜是永远有效的。他会不会推断iPhone可以一直用下去,忽略了自己没有理解它还需要充电?回想一下,我们把牛顿从迈克尔·法拉利出生前年的时代抓回来了,所以他根本没有对于电力概念的科学理解。如果iPhone能在没有火的情况下产生光,那它也有可能会将铅变为金子吧?这就是我们在猜想未来科技时遇到的问题。如果未来科技距离我们现有的目前能理解的科技足够遥远,那么我们就不知道未来科技的边界。如果未来科技与魔术无法区分,那人们说的有关未来科技的任何事情都将无法证伪。这就是我与人们争论是否应当害怕广义人工智能(artificialgeneralintelligence,缩写为AGI)时常常遇到的问题。广义人工智能(AGI)指的是我们将建造出与人类一样运作的自主机器人。我被告知自己还没明白广义人工智能会有多么强大。这不是争论所在。我们对于广义人工智能是否存在都没有概念。我希望它是存在的——这一直都是我自己在机器人和AI领域工作的动力所在。但是现代广义人工智能(AGI)研究的进展十分不好,不论是在广义上还是在支持持续存在的独立个体上。广义人工智能(AGI)貌似主要受困于人工智能至少50年来一直存在的问题上,即推理和常识。我看到的所有证据都证明我们目前在如何建造广义人工智能方面毫无头绪。它的特性完全未知,所以在修辞上他就很快变成了魔法,强大而没有任何边界限制。宇宙万物无不有边界。小心有关未来科技是魔法的争论。这样的争论永远无法驳斥,因为它是信仰之争,而不是科学之争。3.性能与能力我们一直都在利用人们完成某一特定任务的表现作为线索,来推断他们完成其他任务的能力。我们在国外城市向一位陌生人问路,她自信地给出回复并指给我们看起来说得通的方向,所以我们会觉得,想要乘坐公交的时候,还可以问她如何支付公交车费。现在,假设有人告诉我们,一张特定的照片展示的是人们在公园里玩飞盘。我们自然会认定此人能够回答以下问题:飞盘是什么形状的?一个人大概能把飞盘扔多远?人能吃飞盘吗?大概一次可以有多少人同时扔飞盘?三个月大的小孩儿可以扔飞盘吗?今天的天气适合扔飞盘吗?计算机能够给图片打上“人们在公园里扔飞盘”的标签,却不可能回答那些问题。除去他们仅仅会给更多的图片打标签却根本不能回答前述问题的事实之外,他们对于以下内容根本没有概念:人是什么、公园通常在室外、人是有年龄的、天气除了让照片显示为照片之外还有更多内涵,诸如此类。这并不意味着这些系统是毫无用处的;他们对于搜索引擎具有极高价值。但是这正是问题所在。人们听说某些机器人或者某些AI系统已经完成了某些任务。然后他们将这一性能(performance)归纳为一种能力(performance),即一个完成同样任务的人被认为会具备的能力。他们把这一归纳应用到了机器人或AI系统。现在的机器人和AI系统在他们能做的事情方面还极其狭隘。人类风格的归纳还不适用。JOOSTSWARTE4.手提箱文字MarvinMinsky将那些具有多重含义的文字称为“手提箱文字”。“学习”(learning)就是一个很强大的手提箱文字;他可以指代如此众多不同类型的体验。学习使用筷子是跟学习一首新歌非常不同的体验。学习写代码是跟学习在城市里认路非常不同的体验。当人们听说机器学习正在某一新领域取得巨大进步的时候,他们倾向于将其作为一种新的思维模式,即人类学习新领域的思维模式。然而,机器学习是非常脆弱的,他需要人类研究人员或者工程师的大量准备工作,特殊用途的编码,特殊用途的训练数据集以及为每一个新的问题领域定制的学习结构。现在的机器学习完全不像是人类那样的海绵式学习,人类不需要外科手术改变什么或者是特殊用途的设计就能够在新的领域取得快速突破。与之类似的是,当人们听说计算机可以打败国际象棋冠军(年)或者世界顶尖围棋选手(年)的时候,他们倾向于认为,计算机在像人类一样“下”棋。当然了,现实中那些程序根本不知道游戏是什么,甚至是他们在玩儿什么。他们的适应性也很差。人类玩游戏的时候,规则的微小变动对人类影响不大。对于打败世界顶尖围棋选手的AlphaGo或者打败国际象棋冠军的DeepBlue而言却并非如此。手提箱文字导致人们错误理解了机器能够在人类从事的任务中做得多好。这部分归咎于AI研究人员——更不可饶恕的是他们所在的研究机构的新闻办公司——急于采用手提箱概念的实例来声明研究进展。这里的重点是“实例”(aninstance)。这一细节很快就消逝了。标题党们宣扬手提箱文字,并扭曲了大众对于人工智能当前进展和未来前景的理解。5.指数定律很多人都在遭受“指数主义”滥用的折磨。每个人都对摩尔定律有些见解。摩尔定律说的是,计算机会按照时钟般的时间表变得越来越好。戈登·摩尔实际上说的是,装在微芯片上的元件数量每年都会翻倍。这在过去的50年是成立的,尽管翻番所需的时间常量从一年延长到了超过两年,但这种模式即将终结。芯片上的元件数量翻番已经使得计算机速度持续翻番,引发内存容量每两年翻两番,还使数码相机分辨率越来越高、LCD屏幕像素数也呈指数级增加。摩尔定律生效的原因在于,它适用于非真即假问题的数字化抽象。在任何给定的电路中,是否存在电荷或电压?只要芯片原件越来越小,这一答案就始终是明确的——直到达到物理尺寸极限,我们面对的是只有几个电子存在的元件,量子效应开始占据主导。这就是我们现在的硅基芯片技术面临的问题。在人们遭受指数主义折磨的时候,他们可能会觉得,用来证明论点的指数会继续快速增长。但摩尔定律和其他看似有指数关系的定律可能都会失败,因为它们根本都不是真正的指数级的。本世纪初期,我在领导麻省理工学院的计算机科学与人工智能实验室(CSAIL)并需要帮助超过90个不同的研究项目组筹集资金时,我尽量利用iPods的内存增长向捐赠者展示事物在何等快速地变化。以下是用美金或者更低价格买到的iPod中存储的歌曲的数据。随后,我会推断出未来几年的数据,并问捐赠者这些随身携带的内存空间可以用来做什么。按照上述方法推断到今天,我们应该得到的是一个有着超过GB内存的、价格为美元的iPod。然而今天的顶配iPhone(价格远不止美元)也只有GB的内存,还不到年的iPod内存的两倍。一旦内存容量大到足够容纳任何一个普通人的音乐、APP、照片和视频的时候,这个指数定律就突然失效了。在达到物理极限,或者没有更多经济理由继续下去的时候,指数定律就会失效。类似的,得益于深度学习的成果,AI系统的性能获得了迅速的提升。很多人似乎认为,这就意味着我们会持续看到AI性能在正常基础上的同等倍数的提升。但是,深度学习的成果是30年的历史积累,而且是个孤立事件。这并不意味着不会有更多的孤立事件,平淡的AI研究中出现的孤立事件会突然极大地提高许多AI应用的性能。但是,并没有说明孤立事件多久发生一次的“定律”。6.好莱坞的场景许多好莱坞科幻电影的情节都是,世界和现在完全一样,除了有个新的转折。在《机器管家》中,SamNeill扮演的理查德·马丁在坐着吃早餐,由RobinWilliams扮演的人形机器人服侍着他。理查德拿起了一份报纸,边吃早餐边读着。一份报纸!纸质报纸。不是平板电脑,不是亚马逊Echo这样的播放设备,也没有与互联网直接进行神经连接。事实证明,许多人工智能研究人员和人工智能专家,尤其是那些沉溺于人工智能失控和屠戮人类的预测的悲观主义者,都是同样的想象力匮乏的。他们忽略了这样一个事实,如果我们最终能够制造出如此智能的设备,彼时世界将已经发生了巨大变化。我们不会瞬间惊讶于这种超级智能的存在。人工智能会随着时间的推移而不断进化,我们的世界会被许多其他智能填充,并且我们将会拥有丰富的经验。早在想要摆脱人类控制的邪恶超级智能出现之前,就会有不那么智能、不那么好战的机器出现。在此之前,就会有脾气相当暴躁的机器出现。在那之前,就会有相当烦人的机器出现。在他们之前,还会有傲慢和不开心的机器出现。我们将在这个过程中一点点改变我们的世界,同时不断调整新技术及其应用环境。我并不是说未来不会有什么挑战。我要说的是,挑战不会像很多人想的那样突然而至和不期而至。7.部署速度在某些行业,新版本软件部署非常频繁。像Facebook这样的平台,几乎是每小时都会部署新功能。许多新特性只要通过了集成测试,如果出现问题需要回滚,都不会有多大的负面经济影响。这是硅谷和网络软件开发人员已经习惯了的节奏。因为新部署的代码的边际成本低到接近于零,所以这是可行的。另一方面,部署新的硬件需要昂贵的边际成本。我们从自身生活中都能知道这一点。我们现在买的很多轿车都不是自动驾驶的,也不是软件驱动的,他们很可能在年仍会行驶在路上。这就给所有汽车实现自动驾驶设定了内在的时间限制。我们估计,现在建造的新房子可能会存在超过年。我住的房子建成于年,这还不是附近年代最久的建筑。资本成本导致物理硬件的长期使用,即使有高科技的硬件可以替代或者硬件内置其他任务功能时也是如此。美国空军的B-52轰炸机改进型B-52H依旧在列。这一型轰炸机是在年引入的,迄今已有56年之久。这一型轰炸机的最后一架是在55年前的年建造的。当前这些飞机应当会一直执行飞行任务到年或者更久——目前已经存在将其寿命延长到年的讨论。我经常在世界各地的工厂里见到几十年的陈旧设备。我甚至见到过运行Windows3.0的电脑——Windows3.0是在年发布的。这里的理念是“只要它没坏,那我就不修。”这些电脑及其软件已经稳定运行了二十多年,运行着执行不变任务的不变程序。几乎所有的机器人和AI领域的创新要想真正广泛地应用,都要比行业内外的人们想象的难得多。工厂的主要控制机制,包括在美国、欧洲、日本、韩国和中国的全新工厂里,都是基于可编程逻辑控制器的,即PLCs。PLCs是在年引入的,用来取代机电继电器。“线圈”现在仍然是在用的主要抽象单元,PLCs被视为24伏的机电继电器的网络而进行编程。现在依然如此。一些直流电线已经被以太网电缆取代。但它们不是开放网络的一部分。相反,它们是单独的电缆,点到点运行,物理传输这些全新而又古老的自动化控制器中的控制流——控制流就是所有步骤的执行顺序。在世界上大多数工厂里,当你想要改变信息流或控制流时,咨询师要花好几周时间才能弄明白已有的内容、设计新的配置方案,然后供应商团队才会重新布线和配置硬件。这种设备的主要制造商之一的人最近告诉我,他们的目标是每20年进行3次软件升级。原则上可以换一种方式完成此事,实践中则不然。我刚刚看了一份招聘清单,甚至在今天,特斯拉公司都在为加州弗里蒙特的工厂招聘PLC技术人员。生产现存的具备最强AI功能的汽车时,他们还在使用电磁继电器仿真。许多AI研究人员和权威人士都以为世界已经数字化了,简单地引入新的AI系统将会直接向下影响到AI领域、供应链、工厂车间和产品设计上的运营变化。没什么比这个更离谱了。几乎所有的机器人和AI领域的创新要想真正广泛地应用,都要比行业内外的人们想象的难得多。作者介绍RodneyBrooks是麻省理工学院的计算机科学与人工智能实验室(CSAIL)的前任主任,RethinkRoboticsandiRobot的创始人。本文经授权改编自首发于rodneybrooks.

转载请注明:http://www.abuoumao.com/hyls/6587.html

网站简介| 发布优势| 服务条款| 隐私保护| 广告合作| 网站地图| 版权申明

当前时间: 冀ICP备19029570号-7