手机端
当前位置:主页 > 国际 >

人工智能可能是人类的灾难顶级计算机科学家有解决方案



斯图尔特·拉塞尔(Stuart Russell)撰写了有关人工智能的书,并正在领导改变我们如何构建人工智能的斗争。寻找最好的做事方式。洛克菲勒基金会使之成为可能。斯图尔特·罗素(Stuart Russell)是一位领先的AI研究人员,他从字面上撰写了(以及合着)有关该主题的顶级教科书。在过去的几年中,他还一直警告他的领域有可能发生灾难性的错误。

在新书《人类兼容》中,他解释了如何做。他指出,对人工智能系统的评估是根据它们在实现目标方面的出色程度:赢得电子游戏,写人性化的文字,解决难题。如果他们采用了适合该目标的策略,那么他们将直接执行该策略,而无需明确的人工指导。

但是通过这种方法,我们已经为失败做好了准备,因为我们赋予AI系统的“目标”并不是我们唯一关心的事情。想象一下一辆自动驾驶汽车,它具有从A点到B点的“目标”,但没有意识到我们也关心沿途乘客和行人的生存。或者是一种节省医疗费用的系统,该系统可以区分黑人患者,因为它预期他们不太可能寻求所需的医疗服务。

人类关心很多事情:公平,法律,民主投入,我们的安全与繁荣,我们的自由。拉塞尔(Russell)在《人类兼容》一书中指出,人工智能系统只关心我们投入目标的一切。这意味着即将发生灾难。我在加州大学伯克利分校(UC Berkeley)遇到了拉塞尔(Russell),他在那里领导着人类兼容AI中心,谈论他的书以及先进人工智能带来的风险。这是我们谈话的记录,内容经过了简短和清晰的编辑。

先进的AI对人类有什么危险?要回答这个问题,我们必须了解:人工智能系统是如何设计的?他们在做什么?在[AI系统的标准模型]中,您将构建旨在实现您放入程序中的特定目标的机器,算法等。因此,如果它是国际象棋程序,那么您就给它一个击败对手,赢得比赛的目标。如果是自动驾驶汽车,乘客会提出目标:[例如,]我想去机场。

这样听起来就很好。当系统变得更加智能时,问题就来了。如果您输入了错误的目标,那么追求该目标的系统可能会采取您非常不满意的操作。我们称此为Midas国王问题。迈达斯国王明确了他的目标:我希望我接触的一切都变成金子。他得到了他所要求的。不幸的是,其中包括他的食物,饮料和家人,他死于痛苦和饥饿。许多文化都有相同的故事。精灵给您三个愿望。因为我毁了世界,所以第三个愿望始终是“请取消前两个愿望”。

不幸的是,使用比我们更智能,因此功能更强大的系统,您不一定会得到第二和第三个愿望。因此,问题来自能力的增强,再加上我们无法完全正确地指定目标。我们能否将二氧化碳恢复到历史水平,以便使气候恢复平衡?听起来像一个伟大的目标。好吧,最简单的方法就是摆脱所有产生二氧化碳的东西,而这些东西恰好是人类。您想尽快治愈癌症。听起来不错吧?但是,最快的方法是与数百万或数十亿人类同时进行医学试验。因此,您给每个人带来癌症,然后您会看到有效的治疗方法。

我们不能只写下我们不想要的所有东西吗?不要违反任何法律,不要谋杀任何人...因此,我们一直在尝试制定税法已有6,000年的历史。但是,人们在税法方面提出了漏洞和方法,因此,例如,我们的跨国公司向其经营所在的大多数国家/地区支付的税很少。他们发现了漏洞。这就是我在书中所说的漏洞原理。尝试围绕系统行为设置围栏和规则并不困难。如果它比您更聪明,它将找到一种方法来做您想要的事情。

凯尔西·派珀人类兼容描述了此问题。我们在这些系统中放置了错误的目标。这些系统尝试完成其目标,但其目标并未涵盖我们关心的所有内容。有什么解决方案?斯图尔特·罗素如果您继续沿着当前的道路前进,那么AI越好,对我们来说越糟。对于任何给定的错误陈述的目标,系统实现该目标的能力越强,就越糟糕。

我们在本书后半部分提出的方法是,我们以完全不同的方式设计AI系统。我们不再使用标准模型,这需要我们指定固定目标。取而代之的是,人工智能系统具有宪法上的要求,即对人类有益。但是它知道它不知道那意味着什么。它不知道我们的偏好。它知道它不知道我们对未来如何发展的偏好。

因此,您得到完全不同的行为。基本上,机器服从于人类。他们在做任何与世界一部分混为一谈的事情之前都要征得许可。他们没有动机欺骗我们有关行动方针的影响吗斯图尔特这是标准模型出错的另一层复杂性。

追求固定目标的系统会观察人类行为,并预期人类可能会尝试干预这一行为。而不是说“哦,是的,请关闭我或改变目标”,[此AI]实际上会假装做人类喜欢的事情,只是为了防止我们进行足够长的干预,直到它有足够的能力来实现目标。客观的,尽管有人为干预。因此,您是在激励我们欺骗其能力,计划。这显然不是我们想要的。[试图学习人类想要的AI的人]可以诚实地计划自己的计划,因为它想要获得反馈等等。

您数十年来一直是领先的AI研究员。我很好奇您相信AI危险的那一点。因此,很长一段时间以来,我一直很不舒服地意识到,我们没有以下问题的答案:“如果您成功了该怎么办?”事实上,[我]教科书的第一版中有一个带有该标题的部分,因为一个非常重要的问题,要问是否整个领域都朝着目标迈进。如果看上去,当您到达那里时,您可能正在将人类带离悬崖,那么这就是一个问题。

如果您要问,好的,我们将使事情变得比我们更聪明,更强大。我们期望我们到底如何永远保持更强大的[实体]的力量?这个问题是否有答案还不是很明显。实际上,[计算机科学家艾伦]图灵说,我们将不得不期望机器能够控制。他完全辞职了,正如他所说的那样,我们的物种将变得谦卑。因此,这显然是令人不安的状况。

从2010年代初期开始,对我来说,情况就更加清楚了。我在巴黎放假。我有更多时间去体会人类经验和文明的重要性。同时,其他研究人员,大多是外地的研究人员,已经开始指出这些失败模式:固定目标导致所有这些不受欢迎的行为,欺骗,以及由于自卫动机而造成的资源消耗的欺骗和任意任意的不良后果。

因此,这些事情的融合使我开始思考,好吧,我们如何真正解决问题?我阅读了一些有关《人类兼容》的批评和回应。您听到的一件事是“现在担心AI就像1700年代的人们在担心如何阻止航天飞机爆炸一样。”由于我们不知道一般的AI会是什么样,我们不可能考虑如何安全地进行设计。

我认为回顾一下核能和核物理的历史很有用,因为它有很多相似之处。不,这不是一个完美的比喻。但是当利奥·西拉德(Leo Szilard)发明了核链反应时,他不知道会诱导哪些原子经历裂变反应并产生中子,然后中子再产生更多的裂变反应。他说:“好吧,这是发生连锁反应的一种可能方式。”而且,他能够在此基础上设计核反应堆,包括将反应保持在亚临界水平以使其不会爆炸的反馈控制机制。我们制定了一个计划,却不知道任何这样的反应。

因此,您可以谈论系统的总体结构和设计,而无需了解如何使所有部件按您希望的方式工作。通用AI系统显而易见的一件事是,它们将比我们现在拥有的系统更加智能。关于[AI目标]的标准模型的要点是,系统越智能,情况就越糟。我看到的另一条批评线-我认为这是Facebook的Yann LeCun所表达的 -是 我们不必担心系统不会按照我们希望的方式运行。我们不会构建这样的系统。

就像在争论:“当然,我们永远不会建造会爆炸的核反应堆,因此我们不必担心核安全。”对吗?这是荒谬的。在书中,我说这就像在发生事故的现场,说没人应该叫救护车,因为有人要叫救护车。获得核安全的唯一途径是担心[反应堆]爆炸的方式并防止爆炸。

我在书中稍作讨论的一个有趣的论点是,从某种意义上讲,您可以将公司视为机器。它们实际上是为最大化规定目标(即季度利润)而设置的机器。您可以将化石燃料行业视为一种超级智能的机器,实际上,在追求其目标时,它已经超越了人类。因此,他们创建了一个为期50年的政治颠覆,公共关系虚假宣传活动,以便他们可以继续抽出二氧化碳。

现在已经被正是导致问题,因为他们追求的目标不正确,这些准机超级智能的实体,它显然不是它的情况下,当然作品出来。Yann LeCun提出了其他论点,Steven Pinker(另一个AI风险怀疑论者)也提出了其他论点。[一个论点是]认为我们将世界统治的目标,自卫和自我保护的目标放在一边是错误的。没有理由这样做。只要我们不这样做,就不会发生坏事。

对这本书或所见作品最大的误解是什么?关于AI普遍存在一种误解-好莱坞出于有意思的情节和媒体的考虑而发布,因为他们似乎想在每篇文章上都贴上终结者机器人的图片-这就是我们需要关注的事情是意识,这些机器会以某种方式意外地变得有意识,然后它们会憎恨所有人并试图杀死我们。

而且,我认为,只是曲解或误解的基本观点,一个在整个争论,这是因为你不具备把这些目标。他们是追求几乎任何固定目标的子目标。那只是一条总的红鲱鱼。我们在这里关心的是世界上有效的行为。如果机器在现实世界中胜过我们,而我们却胜过我们,那么我们必须弄清楚我们如何确保它们只代表我们行事,而不与我们的利益背道而驰。
分享至:

®关于本站文章™ | 若非注明其他来源,默认 均为本站编辑部原创文章,如有侵权,请联系我们™