分享

Deep Mind联合创始人Shane Legg:机器具备智能开启一个新的黄金时代

 智物科技评论 2023-12-23 发布于北京

“就像人类智能来到这个世界一样。这是另一种智能来到这个世界。”

DeepMind联合创始人Shane Legg是AGI这个词真正的maker。在ChatGPT出现之后,DeepMind的进展以及几位合伙人的言谈,关注度似乎都不高。

李飞飞和哈萨比斯的对话,似乎一直少有人关注到。这一次Shane Legg做客TED,对话Chris Anderson,几乎没有受到任何关注。

技术从业者的悲哀,AI旗帜们也势如积薪,总归是后来者居上。强如OpenAI,如果不能尽快和手机、汽车结合,恐怕也会输给他人。

关于AGI的周期,路径似乎比终点重要。Shane Legg所讲的2028,50%概率实现AGI的预测,没有太大的现实意义。在Chat GPT之前,真正的AI行业研究者对AGI要比所谓的产业人士悲观的多。

几天前,当一贯对AGI有所怀疑的Yan Lecun坚持说AGI不会很快发生,并且明确强调不会在未来5年发生的时候,Shane Legg转发了Yan Leccun的留言,并且评论说,5年前曾经有人说过本世纪都不会出现AGI,恍如昨日。

态度不言自明。

Shane Legg认为,2028年实现的概率50%

Shane Legg特殊之处在于,他几乎是最近一波AI浪潮当中,最早探讨机器智能的研究者,他的博士论文所探讨的方向就是Machine Super Intelligence,也包括命名AGI这个词的称谓。这是他和Hinton、Yan Lecun并列,被《时代周刊》选中作为当今世界最重要的AI100人中的Thingker之一的原因?

在不久前的一篇文章当中,Shane Legg将所谓的AGI分成6级,如今的Chat GPT处于开始阶段的第一级。

Chris Anderson问了一些大众关注的问题,所谓AI对社会的威胁、影响等等,但是,Shane Legg真正深刻的思想在于提醒人们,当机器具备智能,会让社会进入到一个新世界,就像当年的人类智能降临一样。

当机器具备智能对世界所带来的巨大挑战和机会,也是我们自己将自己取名为IntelligenThings的原因。

下面是Chris Anderson和Shane Legg对话的部分内容。

CA:很多人认为你是创造了“人工通用智能”(AGI)这个术语的人。告诉我们一下,是怎么在2001年提出来的。

SL:是的,我是被一个叫本·戈茨尔(Ben Goertzel)的人接触的,我们实际上一直在一起工作。他要写一本书,考虑的是关于更通用和有能力的AI系统,而不是专注于非常狭窄的领域。

他在考虑给书起个标题。所以我建议他,“如果你对非常通用的系统感兴趣,就叫它人工通用智能吧。” 于是他就采纳了这个建议。然后他和其他一些人开始在网络和互联网上使用这个术语,然后就变得流行了。

我们后来发现有个叫迈克·加罗德(Mike Garrod)的人,在1997年的一个安全纳米技术杂志上发表了一篇论文。所以他实际上是第一个使用这个术语的人。但事实上他的意思几乎和我们一样。

CA:这似乎是一个时机成熟的想法,认识到这里存在潜力。我是说,你提出了一个早期的预测,许多人认为是疯狂的。那是什么?

SL:嗯,在大约2001年左右,大约是我建议使用“人工通用智能”这个术语的时候,我读了一本雷·库兹韦尔(Ray Kurzweil)的书,《灵性机器的时代》,我得出结论他基本上是正确的,计算可能在未来几十年内呈指数增长,世界上的数据量也会呈指数增长。

所以我想,如果那会发生的话,那么那些能够利用所有这些数据和计算的极具可扩展性的算法的价值将非常高。然后我还想到,在2020年中期,如果我们有这些高度可扩展的算法,就可以在远远超过人类一生中所经历的数据量上训练人工智能系统。

因此,由此产生的结果是,你可以在我大约2009年的博客上找到,我认为那是我第一次公开谈论这个问题,我预测AGI在2028年有50%的机会。我今天仍然相信这一点。

CA:这依然是你的日期。那时你是如何定义AGI的,现在的定义是否有所改变?

SL:是的,一开始我并没有一个特别精确的定义。最初只是关于系统将会更加通用的一个想法。所以不仅仅是下围棋或国际象棋之类的,而是能够做很多不同的事情。我现在使用的定义是,它是一个能够执行人类通常可以执行的所有认知任务的系统,可能更多,但至少它可以执行人类通常可以执行的认知任务。

CA:那么谈谈DeepMind的创立以及你与共同创始人之间的互动。

SL:对。所以我去了伦敦的一个叫Gatsby Unit的地方,那里研究理论神经科学和机器学习。我对学习大脑的理论和从机器学习中了解的知识之间的关系感兴趣。

所以那似乎是一个很好的地方。我在那里遇到了Demis Hassabis。他和我有同一个博士后导师,我们开始交谈。他说服我,那是开始一家公司的时机。那是在2009年我们开始交谈的。我有点怀疑。我认为AGI仍然离我们有些远,但他认为时机成熟了,所以我们决定去做。

然后他的一个朋友是穆斯塔法·苏莱曼。

CA:公司的一个具体目标是找到通往AGI的途径吗?

SL:绝对是的。在我们2010年寻找投资者时,我们传递的第一个商业计划封面上有一句话,它说:“打造世界上第一台人工通用智能。” 所以这就是一开始就有的。

CA:即使你知道构建那个AGI在某些情况下可能会产生灾难性后果?

SL:是的。这是一项深度变革的技术。我相信它会发生。我认为,这些算法可以在当时或之前被理解。而且我认为智能基本上是一种非常有价值的东西。我们周围的一切——我们所在的建筑物,我使用的词语,我们拥有的概念,我们周围的技术,所有这些东西都受到智能的影响。因此,在机器中具有智能是一种非常有价值的发展。

所以我相信它会到来。现在,当一个非常强大的技术出现时,可能会有一系列不同的结果。事情可能会发展得非常好,但也有可能发展得不好。这也是我大约20年前就意识到的一些事情。

CA:随着DeepMind的发展,有没有一刻让你真的感到,“天哪,我们真的发现了一种难以置信的强大力量”?是AlphaGo?或者,对你来说是什么时刻?

SL:是的,这些年有很多时刻。其中之一是我们做雅达利游戏。你看过那些视频吗,我们有一个算法可以学会玩多个游戏,而不需要为任何特定游戏进行编程吗?在那里有一些令人激动的时刻。当然,围棋是一个非常令人兴奋的时刻。

但我认为真正激发我的想象力,也激发了很多人的想象力的是近年来语言模型的惊人扩展。我认为我们可以看到这些系统真的可以开始做一些人类通常可以做的认知任务的有意义部分。

CA:那时你正在研究这些模型,但在某种程度上,你是否对OpenAI突然发布ChatGPT感到措手不及?

SL:对。我们一直在研究它们,你知道,变压器模型是在Google发明的,我们有团队正在构建大型的变压器语言模型等等。

CA:Google在这个过程中收购了DeepMind。

SL:是的,确切地说。所以我没有预料到一个模型纯粹基于文本培训会变得如此出色。

我认为你需要更多的多模式,需要图像,需要声音,需要视频等等。但由于绝对庞大的文本数量,它可以在一定程度上弥补这些问题。我仍然认为你可以在这方面看到一些方面。我认为语言模型在文本无法轻松表达的领域往往较弱。

但我认为这并不是一种根本的限制。我认为我们将看到这些语言模型扩展到视频、图像和声音等领域,这些问题在时间上会被解决。

CA:谈一谈在你看来,此刻世界更需要更明智地思考的事情。

SL:对。我认为非常强大,非常智能的人工智能即将到来。我认为这是非常有可能的。我不认为它会在今天、明年或后年出现。它可能比那还要远一些。

CA:2028年?

SL:2028年,有50%的机会。所以,你知道,如果它在2028年之前没有发生,我当然不会感到惊讶。

CA:当你说强大时,我是说已经有强大的人工智能了。但你说的基本上是人工通用智能的一个版本即将到来。

SL:是的。

CA:那么给我们一个它可能看起来像什么的画面。

SL: 如果你拥有一种人工通用智能,你可以做各种惊人的事情。就像人类智能能够完成许多令人惊叹的事情一样。因此,问题实际上不在于某个特定的事情,这就是通用性的全部意义。但是为了给你一个例子,我们开发了AlphaFold系统,它可以获取蛋白质并基本上计算出该蛋白质的形状。

这使得你可以进行各种研究,了解生物过程,研发药物等等。现在,如果你拥有一个AGI系统,不再需要像DeepMind那样大约30名世界级科学家工作三年才能开发出来,也许你只需要一支由几名科学家组成的团队在一年内就能完成。

所以想象一下,这些AlphaFold级别的发展在世界各地定期发生。这就是AGI可以实现的一种情景。

CA: 所以在AGI与我们同在的几个月内,可以说,一些人类几十年、几个世纪来一直努力解决的科学难题可能会迅速相继解决。

SL: 是的,我认为它将开启各种惊人的可能性。它可能真的是人类的黄金时代,人类智能在机器智能的帮助和延伸下,使我们能够完成各种奇妙的事情,并解决以前无法解决的问题。

CA: 我认为你并不是一个不可救药的乐观主义者,你也看到了它可能走向不同方向的潜力。谈谈这条道路可能是什么样子。

SL: 我想解释一下。我不相信那些确信事情会变得非常顺利的人,也不相信那些确信事情会变得非常非常糟糕的人。因为我们所谈论的是一场非常深刻的变革。这就像人类智能来到这个世界一样。这是另一种智能来到这个世界。因此,这是一个非常深刻的过渡,我们并没有完全理解这一切的所有影响和后果。

我们不能确定它会变成这样,那样或者其他什么。因此,我们必须对可能发生的事情保持开放的态度。我有一些乐观的看法,因为我认为,如果要使系统安全,你需要对该系统有很多了解。如果你不知道飞机是如何工作的,你就不能使飞机安全。

因此,随着我们接近AGI,我们将对这些系统了解得越来越多,我们将看到更多方法来使这些系统安全,使AI系统高度符合伦理。但是关于未来,我们有很多事情不了解。因此,我必须承认存在事情可能会变得糟糕的可能性,因为我不知道会发生什么。

在如此重大的变革中,即使某事变糟糕的概率相当小,我们也应该非常认真对待这一点。

CA: 描绘一下可能出现问题的情景。

SL: 这很难,因为我们在谈论潜在拥有超人类智能的系统,对吧?因此,有很多方式可以在世界上产生问题。

有时人们会指出,我不知道,经过工程设计的病原体,对吧?也许超级智能可以设计出一种经过工程设计的病原体。也可能是更普通的事情。也许使用AGI,它被用来破坏世界上的民主,使用宣传或其他各种方式。

我们不知道 -

CA: 这个可能已经发生了。

SL: 这可能已经有点在发生了。但是,你知道,如果我们拥有更强大的系统,这可能会发生更多。因此,社会可能会以许多方式不稳定。你可以在历史书中看到这一点。

CA: 如果你在15年前问过所有人类,好吧,我们可以打开一个门,打开这扇门可能会引领人类有史以来最好的结果。

但也有一个有意义的机会,比如超过百分之五的机会,我们实际上可能会摧毁我们的文明。我是不是有可能认为,大多数人实际上会说:“你可别敢打开那该死的门。让我们等等。”?

SL: 如果我有魔法棒,可以减缓事物的发展,我会使用那个魔法棒,但我没有。现在有数十家公司,实际上可能有10家世界上最先进的模型开发公司,包括我认为一些国家情报部门正在秘密进行的项目。然后还有,我不知道,数十家公司可以开发一代滞后的东西。

请记住,智能是非常有价值的。它非常有用。我们正在这样做是因为我们能够看到各种各样的价值可以在这个领域创造出来。我们要如何阻止这个过程呢?我没有看到任何现实的计划,我听说过阻止这个过程的计划。也许我们可以 - 我认为我们应该考虑一些规范措施。

我认为我们应该像对待每一种强大技术一样对待这些事情。AI在这里并没有什么特殊之处。人们谈论,哦,你竟然谈论规范这个?不,我们一直以来都在为了社会的利益而规范强大的技术。我认为这是我们应该关注的非常重要的事情。

CA: 这是我们第一次拥有这样一种超级强大的技术,我们完全不完全了解它是如何运作的。在你看来,我们必须做的最重要的事情难道不是更好地了解,至少能够朝着正确的方向引导它吗?

SL: 目前有很多能力背后的能量,因为开发这些能力有很多价值。

我认为我们需要看到更多的能量投入到实际科学中,了解这些网络是如何工作的,它们在做什么,它们没有做什么,它们可能在哪里失败,了解我们如何将这些事物组合在一起,以便我们能够找到使这些AGI系统变得非常符合伦理和安全的方法。

我相信这是可能的。但我们需要动员更多人的思想和智慧来找到这些解决方案,这样我们最终就能够迎来一个未来,其中我们拥有非常强大、也非常符合伦理和安全的机器智能,它将人类带入一个新的黄金时期。

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多