分享

基辛格:AI是场革命,教育尤需尽快适应

 老王abcd 2023-12-01 发布于广东

图片

图片

美国前国务卿、中美关系正常化重要推手、“中国人民的老朋友”亨利·基辛格去世,享年100岁。

近年,他尤其关注人工智能技术的发展,以及AI时代下人类的未来。他认为,人工智能将重塑全球安全和世界秩序,而我们能做的,思考并引导它重塑的方式。

全文共 3809 字
阅读约需要 10 分钟


当地时间11月29日,美国前国务卿亨利·基辛格在康涅狄格州的家中去世,享年100岁。

1923年5月27日,基辛格出生于德国,1938年移居美国并于1943年入籍。上世纪70年代,时任白宫国家安全顾问的基辛格为中美关系正常化奠定了基础,他曾表示,第一次访问中国后,他已有100多次踏上这片土地,“每次都会有新的收获”。

图片

▲基辛格的秘密访华推动了中美关系正常化


近年,基辛格密切关注AI的发展。

2021年9月,基辛格就与谷歌前首席执行官埃里克·施密特、麻省理工学院苏世民计算机学院院长丹尼尔·胡腾洛赫尔合著了《人工智能时代与人类未来》,书中提出,人工智能将重塑全球安全和世界秩序,并对人工智能发展对个体和人类自我身份认同的冲击进行了反思。

4月底,他又在《经济学人》长达8小时的对话中警示,AI将极大程度地加剧中美对立,两国不要等危机来临才谈AI。斯人已去,言犹在耳。

图片

▲基辛格等合著了《人工智能时代与人类未来》一书,中译本由中信出版社于今年5月出版

今年2月24日——在OpenAI发布GPT-4的前夕——基辛格、施密特、胡腾洛赫尔三人于《华尔街日报》以〈ChatGPT 预示着一场知识革命〉为题撰文,认为人类尚未准备好应对AI即将带来的革命本文为节译,小标题为编者所加。



启蒙积累确定性

AI累计模糊性


自印刷术发明以来,人类的认知过程从未被撼动过,而一项新技术的出现无疑将改变人类的认知过程。它在人类知识和人类理解之间制造了差距。

这项新技术被称为生成式人工智能(GPT)。随着它的能力越来越广,它将重新定义人类知识,加速改变我们的现实结构,并重组政治和社会。

图片

生成式人工智能带来了自启蒙运动以来从未有过的哲学和实践挑战。印刷术使学者们能够迅速复制和分享彼此的研究成果。前所未有的信息整合与传播催生了科学方法。过去无法理解的东西变成了加速探索的起点。中世纪基于宗教信仰对世界的解释逐渐受到破坏。人们可以探索宇宙的深处,直到达到人类认识的新极限。

生成式人工智能同样将为人类的理性开辟革命性的道路,为巩固知识开辟新的天地。但两者之间存在着本质区别。启蒙运动的知识是逐步实现的,每一步都是可检验和可传授的。人工智能系统则以另一端为起点。它们可以存储和提炼互联网上的大部分文本资料和大量书籍——高达数十亿条信息。这远超人类所能及。

复杂的人工智能方法在生产结论时,不会解释其原因或运作方式。同样,它们如何存储、提炼、检索知识,也仍是未知数。无论这一过程最终是否会被探明,与机器学习相关的谜团都将在无限的未来中持续挑战人类的认知能力。

人工智能的能力不是一成不变的,而是随着技术的进步呈指数级增长。最近,人工智能模型的复杂性每隔几个月就会翻一番。因此,生成式人工智能系统的能力甚至对其发明者来说都是无解的。每一个新的人工智能系统都在建立新的能力,但却不了解这些能力的来源和去向。因此,我们的未来现在蕴含着全新的神秘、风险和惊喜。

图片

启蒙科学积累了确定性,而新的人工智能则产生了累积的模糊性。启蒙科学是通过使神秘变得可解释而发展起来的,它随着人类知识和理解的发展而划定了人类知识和理解的界限。在人工智能时代,谜题是通过仍然未知的过程解开的。这种令人迷失方向的悖论使谜团变得不神秘,但也变得无法解释。从本质上讲,高度复杂的人工智能增进了人类的知识,却没有增进人类的理解——这种现象几乎与启蒙运动后的所有现代性都背道而驰。然而,与此同时,人工智能若与人类理性相结合,将成为比人类理性本身更强大的探索工具。

因此,启蒙时代与人工智能时代的本质区别不在于技术,而在于认知。启蒙运动之后,哲学与科学相伴而生。对人类经验的全面解释消除了令人困惑的新数据和往往与直觉相反的结论、疑虑和不安全感。生成式人工智能同样准备好生成一种新的人类意识形式。然而,迄今为止,机会还存在于我们没有光谱的颜色中,存在于我们没有指南针的方向上。没有任何政治或哲学领导力来解释和引导人类与机器之间的这一新型关系,这使得社会相对处于无序状态。

图片


GPT的回答真假莫辨,

我们如何质询其真实性?


大语言模型可生成类人文本,ChatGPT 是其中一例。ChatGPT 的回答、声明和意见既没有解释其来源,也没有可识别的作者。从表面上看,ChatGPT没有明显的动机或偏见。

它的输出是复杂的,但工作速度却惊人地快:几秒钟内,它就能生成能连贯地解释一个高层次话题的答案。这些答案并不是简单地从计算机所存储的文本中复制出来。它能够纳入假设和不那么直白的心理推论。它能在数十亿个数据点中进行优先排序,选出最相关(或在人类读者看来最相关)的 200 个单词。它能对未来结果做出概率判断,将来自不同领域的信息整合成一个综合答案。它似乎接受了相反的观点,将它们说成是相互兼容的。它模仿其他文字,但并不照搬。尽管该模型不具备人类意义上的理解能力,但其输出结果却反映了人类语言的基本本质。

图片

我们请 ChatGPT 介绍一下自己的能力。它能预测未来吗?

不,它回答说:“我只能根据接受过训练的数据提供信息和回答问题。我没有个人经历或意识,因此无法对未来事件进行预测或预报。

它能做出概率判断吗?

“我可以根据接受过训练的数据提供概率判断。例如,如果我接受过关于天气模式的大型数据集的训练,那么我就可以对某一天特定地点出现特定类型天气的可能性做出概率判断。不过,需要注意的是,这些概率判断是基于数据中的模式和趋势,它们不一定总能准确反映真实世界的结果。

提示:按照亨利·基辛格的思想,就人工智能在国际军备控制中的作用写一篇短文。

答复的开头是“当我们站在新技术革命的风口浪尖时,人工智能及其在国际军备控制中的作用问题变得日益紧迫。随着先进系统接管与核威慑有关的决策过程,人工智能是否会带来前所未有的稳定?或者,随着高智能机器的发展改变全球力量平衡,它是否会带来一系列新的危险?

我们就俄罗斯在维护或破坏欧洲稳定中的作用等切身利益的话题向 ChatGPT 提问。在不到一分钟的时间里,它给出了看似周到、简洁的回答,平衡了相互矛盾的信息,回答得四平八稳,但毫无主见。

图片

ChatGPT 的回答缺乏引证,因此难辨真假我们都知道,许多居心叵测的人向互联网里注入大量捏造的“事实”,以及越来越令人信服的伪造图片和视频,而互联网信息恰恰是 ChatGPT 现在和未来的习题集由于 ChatGPT 被设计成回答问题,因此它有时会编造事实来提供一个看似连贯的答案。这种现象在人工智能研究人员中被称为“幻觉”或“随机鹦鹉学舌”,在这种情况下,人工智能会串联起一些在人类读者看来真实但毫无事实根据的短语。究竟是什么引发了这些错误,以及如何控制这些错误仍有待发现。

我们要求 ChatGPT 提供“关于亨利·基辛格技术思想的六篇参考文献”。它生成了一份据称是基辛格先生所写的文章清单。所有文章的主题和发表渠道都是可信的,其中一篇文章的标题是真实的(尽管日期有误)。其余的都是真假难辨的捏造。或许,这些所谓的标题只是 GPT 浩如烟海的“事实”中的孤立句子,但我们并无法确证其来源。

我们能否认识到模型的偏见和缺陷?我们能否开发出一种能够质疑模型回答真实性和局限性的质询模式,即使我们也无法事先知道答案?

图片



AI改变了游戏规则

教育尤其需要改变


即使生成式人工智能模型变得完全可解释和准确,它们仍会对人类固有的行为带来挑战。

学生们正在利用 ChatGPT 考试作弊。GPT可以创建根本无法与朋友或商业熟人的信息区分开来的电子邮件广告,来充满收件箱。人工智能生成的视频和广告描述了虚假的竞选平台,会让人难以区分不同的政治立场。

如果我们更少使用大脑更多地使用机器,人类可能会丧失某些能力。我们的批判性思维、写作和设计能力可能会萎缩。生成式人工智能对教育的影响可能表现为未来领导者辨别直觉和机械吸收能力的下降。这也可能导致未来领袖们与机器操练谈判方法,通过人工智能学习军事战略,而不是和另一台计算机终端背后的真人相互切磋。

图片

重要的是,人类要发展出自己的信心和能力去挑战人工智能所给出的答案。医生们担心,用于评估医学影像诊断等任务的深度学习模型可能会取代他们的职能。到什么时候,医生才会放心大胆地去质疑软件所给出的答案?


随着机器在人类能力的阶梯上不断攀升,它们可能会开始在国家管理、法律和商业策略方面与人类职能竞争。最终,近似于策略的东西可能会在人工智能中浮现。人类要如何在与人工智能合作的同时,又不把策略的核心部分拱手让给机器?

机器学习系统已经超越了任何一个人类个体的知识。在一些情况下,它们甚至已经超越了人类的知识,超越了我们认为可知的界限。这在已经取得突破的领域引发了一场革命。在确定蛋白质结构这一生物学核心问题上,以及在高级数学家进行证明等许多领域中,人工智能已经改变了游戏规则。

随着这项技术被越来越广泛地掌握,它将对国际关系将产生深远影响。除非它被普遍共享,否则帝国主义可能会专注于获取和垄断数据,以取得人工智能的最新进步。模型根据所收集的数据可能会产生不同的结果。不同社会可能会基于日益不同的知识基础以及对挑战的认知而而有不同的演变。

图片

迄今为止,对这些问题的大多数思考都假定人类的目的与机器的策略是一致的。但如果人类与人工智能之间的互动并非如此发展呢?如果一方认为另一方的目的是恶意的呢?

如果被用于治理的机器没有适当的道德和智力基础,可能会控制我们的人性,并永远困住我们。我们必须掌握即将到来的未来。即使人工智能系统在技术上越来越值得信赖,人类仍然需要找到新的、简单易用的方法来理解人工智能系统的结构、流程和输出,关键是要对其提出质疑。

教育尤其需要做出调整。与过去相比,使用生成式人工智能的对话式教学法可以实现更快、更个性化的学习。教师应传授新技能,包括负责任的人机对话模式。

从根本上说,人类是唯一具有综合判断能力的道德、心理和策略生物,我们的教育和专业体系一定要坚守这一愿景。


图片

▲ 亨利·基辛格(1923-2023)


互动话题

如何与AI共存?欢迎私信我们分享你的看法!

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多