分享

介于太空旅行和电动汽车之间的人工智能:即将到来的未来

迄今为止,人工智能取得的进展令人震惊。 他们取得的成果和取得成果的速度一样重要——但我们可以拥有一个比地球上最聪明的人聪明得多的人工智能。 但也许这将是一个危险的情况。

对未来的看法

在最近于迪拜举行的世界政府峰会上,为推广其公司的电动汽车,埃隆·马斯克 (Elon Musk) 谈到了不同的问题,阐述了他认为人类很快将不得不面对和克服的问题和挑战。 像往常一样,这位南非裔百万富翁涉猎广泛:从人工智能发展带来的未知数和可能的社会影响,到机动性,再到星际旅行,甚至星际旅行,再到概述可能的情景然而,在不久的将来,一些想法也毫无遗漏地投向了中长期的视野。

被许多人认为是一个有远见的人,一个对明天现实的预测者,一个太空旅行的先驱(SpaceX),一个电动汽车的推动者(特斯拉),一个最近的生态可持续能源的支持者(太阳能城),如此雄心勃勃,像他一样富有,马斯克说他寻求可以造福人类的解决方案。 尽管不乏诋毁者,审慎是必须的,但不能否认他具有才华横溢的智慧,始终保持前瞻性的目光,无论人们是否喜欢,都在想象和塑造世界命运方面发挥了某种作用,它将来。

因此,值得倾听他必须告诉我们的内容,然后可能会反思和质疑所提出的话题,这些话题绝不是微不足道的。 在这里,我将深化一些与人工智能相关的话题,我将从马斯克演讲中推断出的一些句子开始。

更麻烦的问题之一是人工智能……深度人工智能,或者有时被称为通用人工智能,我们可能拥有比地球上最聪明的人聪明得多的人工智能。 我认为这将是一个危险的情况。

迄今为止,人工智能取得的进展令人震惊。 它们对取得的成果和取得成果的速度同样重要。 一种明显不可阻挡且极其快速的步态,它越来越快地加速而不是放慢速度。 事实上,它趋于呈指数趋势,符合摩尔定律关于微处理器中晶体管数量增加的规定。 一种实际上隐藏了我们思想陷阱的节奏。

奇点在2047年等着我们,孙正义的话

事实是,Erik Brynjolfsson 和 Andrew McAfee(第二个机器时代,2014 年)解释说,人工智能领域的进步虽然从数学的角度来看是恒定的,但在我们眼中似乎并不有序。 两位作者借用了海明威的一句话来说明这一点,他指的是导致一个人走向毁灭的螺旋:“渐进的,最后是突然的”。

这意味着指数级数记录了逐渐增长,最初几乎可以忽略不计,直到显然突然加速发生并且数量变得不可估量,甚至无法想象,因此根本无法管理。

换句话说,继续以这种速度发展,机器的有效计算能力(根据一些能够进化到允许他们自主改进自己并可能发展自己的自我意识的程度)和人构想它、控制它、预测它然后控制它的能力。 这个深刻的停顿时刻被称为奇点。 尽管奇点仍然代表一种猜想,并没有收集到一致的共识,但它描述了一种看起来越来越具体且不幸接近的可能性。

软银机器人公司首席执行官孙正义在最近于巴塞罗那举行的世界移动通信大会上发言时表示,在三十年内,封装在单个微处理器中的智商将远远高于我们当中最聪明的人。 “三十年后,我们鞋子里的任何芯片都将比我们的大脑更聪明。 我们的价值将低于我们的鞋子。”

Son 的预测基于我们大脑中的神经元数量与芯片上的晶体管数量之间的比较。 根据他的计算,2018 年晶体管将实现命运般的超车,数字将开始分化。 在相对较短的时间内,单个微处理器的智商估计将达到 10.000 左右,而另一方面,人类历史上最聪明的头脑也很难达到 200。因此,我们将不得不根据 Son 定义的“超级智能”来衡量自己。 “也就是说,一种超出人们想象的智能[无论多么聪明]。 尽管如此,我相信在三十年内,这一切都将成为现实»。 因此我们也有一个奇点出现的日期:2047 年。

我们是否因此接近并注定要屈服? 孙正义表示,他对人机共存、协作的未来充满信心。 “我相信这种超级智能将成为我们的合作伙伴。 如果我们滥用它,它将带来风险。 如果我们遵循诚实的意图 [good spirits] 使用它,它将成为我们更好生活的伴侣»。

我认为我们需要密切关注人工智能是如何被采用的……因此,我认为对于公共安全来说,重要的是我们需要一个密切监控人工智能并确保它不会对人民构成危险的政府。

奇点对人类来说是一个非常严重的威胁

谷歌最近公布了一项由其 DeepMind 开发的人工智能的研究结果,证明它可以用 AlphaGo 战胜对手,一局又一局地学习(深度学习),先是欧洲围棋冠军,最后是世界围棋冠军。 尽管这些只是初步结果,尚未发表任何确定性研究,但有证据表明,先进的人工智能将能够适应并从其运行的环境中学习。 此外,当它走投无路并有屈服的风险时,它会选择使用被定义为“极度激进”的策略来赢得它。 “研究人员认为,智能体越聪明,他从环境中学习的能力就越强,因此能够使用一些极具侵略性的策略来取得领先。”

一些权威人士表达了他们的担忧,即特别先进的人工智能可能会构成非常具体的威胁。 其中包括斯蒂芬霍金,他认为甚至物种的连续性也可能面临风险:“全面人工智能的发展可能意味着人类的终结”。

霍金、马斯克和其他重要人物,例如。 史蒂夫·沃兹尼亚克 (Steve Wozniak) 和诺姆·乔姆斯基 (Noam Chomsky) 签署了一封公开信,警告自主武器系统发展的固有风险,并要求联合国禁止此类武器系统。 «人工智能技术已经达到了自主武器发展的水平——即使不合法也是事实上的——几年而不是几十年。 而且风险很高:自主武器被描述为继火药和核武器之后的第三次军备革命。

DeepMind 开发的复杂人工智能不仅表明它知道如何积极进取才能取胜,而且如果证明有用和必要的话,它还可以识别和实施与其他人工智能的合作策略。 “……信息很明确,我们将不同的人工智能系统与现实生活中的利益竞争相提并论,如果他们的目标与造福于我们人类的最终目标不平衡,那么全面战争就可能接踵而至”。 由无数互连网络组成的人工智能所决定的巨大复杂性本身就构成了一项挑战,可能被证明远远超出了人类管理它的能力。

人工智能的副作用

然而,即使在超级智能在战场上证明是致命的,甚至决定反人类之前,就像《终结者》中的天网超级计算机一样,其他更进一步的危险也存在。 前段时间,马斯克已经警告过可能的副作用,致命的或无论如何在某些情况下可能出现的令人不快的副作用,并且出于更微不足道的原因。 因此,我们在对智能设备进行编程时必须格外小心谨慎。 马斯克夸张地说,编程糟糕的人工智能“可能得出结论,所有不快乐的人都应该被淘汰。 ......或者我们都应该被抓住并用多巴胺和血清素直接注射到大脑中来治疗,以最大限度地提高幸福感,因为她得出的结论是多巴胺和血清素会引起幸福感,因此它可以最大程度地增强幸福感。” 再一次,智能系统的复杂性增加得越多,后者的连接和网络能力增加,管理和预测其工作效果的难度就越大。

最近,一大批科学家、研究人员和企业家(目前为 3441 人)在生命未来研究所 2017 年 Asilomar 会议之际签署了一封公开信,旨在指明一套指导方针,包括道德的,他们应该为人工智能领域的研究提供信息。 Asilomar AI 原则有 XNUMX 点,“范围从研究策略到数据保护,再到未来问题,包括可能的超级智能”。 目标再次是努力引导人工智能的进步朝着共同利益方向发展,并确保全人类都有一个有益的未来。 “我不是战争的支持者,我认为它可能非常危险......我显然相信技术具有巨大的潜力,即使我们今天拥有的能力,也不难想象它如何被用于特别有害的地方方法。”斯坦福大学计算机科学系的 Stefano Ermon 说,他是该文件的签署人之一。

史蒂芬霍金也是阿西洛马人工智能原则的签署人,他撰写了一篇清晰而发自内心的文章,该文章于去年 XNUMX 月发表在《卫报》上,标题意味深长:这是我们星球上最危险的时代。 这位著名的天体物理学家强调了人类将如何应对巨大的社会和经济变化。 全球化带来的影响、不平等的加剧以及财富和资源集中在少数人手中,将增加“……技术转型的加速”。 似乎这还不够,“我们正面临着惊人的环境挑战:气候变化、粮食生产、人口过剩、其他物种的灭绝、流行病、海洋酸化。”

所有这些证据既是警告,也是迫在眉睫的威胁。 后果是显而易见的:«它们共同提醒我们,我们正处于人类发展的最危险时刻。 我们目前拥有摧毁我们赖以生存的星球的技术,但我们还没有成熟放弃它的可能性。”

因此,霍金总结道,“对我来说,所有这一切真正相关的方面是今天,我们的物种比我们历史上的任何其他时期都更需要共同努力”。 因此,合作、合作、照顾那些留下来的人,甚至更多的人,将留下来的人、减少不平等、团结而不是分裂、分享和为共同利益而不是为了少数人的利益而努力。 人工智能的进步将在这种情况下发挥重要作用。 它将能够加剧失衡和不平等,破坏我们今天所知的社会,或有助于消除冲突和分歧。

以史为鉴

Masayoshi Son 关于人工智能的未来的话又回来了:«如果我们滥用它,它将构成风险。 如果我们遵循诚实的意图 [good spirits] 使用它,它将成为我们更好生活的伴侣»。 尽管如此,霍金仍然充满信心:«我们可以做到,我对我的物种非常乐观; 但所有这一切都需要从伦敦到哈佛、从剑桥到好莱坞的精英们吸取过去一年的教训。 首先,让他们学会一点谦逊»。 回顾过去,精英们几乎没有远见,更没有谦逊。 然而,正在进行的转型和最终灭绝的最终潜在风险需要改变方向,这也符合少数受益于现状的人的利益。 毫无疑问,精英们意识到了这一点,但真正的问题是:他们是否也深知并坚信这一点? 毕竟,历史给我们的教训敦促我们不要继续怠惰和徘徊,因为正如霍金自己遗憾地承认的那样,“……让我们面对现实吧,这主要是愚蠢的故事”。

评论