分享

思考还是不思考,这是AI的问题

 雷雳和学生们 2023-11-23 发布于河南

摄影师:戴书婷

思考还是不思考,这是AI的问题
走进大型语言模型中的处理vs.理解
约翰·诺斯塔/
任宇欣,雷雳译
要点
(1)GPT模型看起来很智能,但从根本上依赖于来自大量训练数据的模式识别。
(2)它们的任务熟练程度与它们预训练的多样性和范围密切相关。
(3)一项新的研究表明,GPT缺乏真正的理解、抽象推理和情感感知。
(4)认识到GPT等AI的局限性对于将AI处理与人类认知区分开来至关重要。
 
人工智能会思考吗?像Chat GPT 这样的大型语言模型的出现重新点燃并扩大了这场争论。
所以,问题是,这些先进的人工智能模型是思考的实体,还是只是复杂的鹦鹉,映现我们自己的话再返回给我们?这个问题不仅仅是哲学问题;它切中了我们今天如何理解人工智能并与之互动的核心。
一、思想的幻觉
乍一看,与 GPT 模型交谈感觉就像在与知识渊博的朋友交谈。它可以写诗,回答复杂的问题,甚至开玩笑。但这种智慧的表象可能更像是一种精心设计的幻觉。
谷歌DeepMind最近发表的一篇题为《预训练数据混合增进 Transformer 模型中的窄模型选择能力》的论文阐明了这一点。该研究表明,GPT和类似模型的能力在很大程度上依赖于它们的训练数据。当面对类似于训练的任务时,这些模型表现出色。
然而,当面临不熟悉的挑战时,它们的表现就会波动起伏。
二、训练数据:GPT 的核心
我们所认为的 GPT 的“智能”实际上是其训练的反映。GPT 模型是在包含各种人类知识和语言使用的庞大数据集上训练的。这种训练使它们能够产生模仿理解的反应。
但这不是思考;这是规模空前的模式识别。虽然 GPT 可以模拟对话甚至学习,但其功能存在边界。它不能抽象地推理,不能理解人类意义上的上下文,也不能体验情感。
它受其训练数据的范围和性质的约束。例如,如果 GPT 模型从未碰到过有关新科学发现的数据,它就无法进行有意义的“思考”或推理。
三、对人工智能未来的影响
了解 GPT 功能的局限性对用户和开发人员都至关重要。它缓和了期望,并指导我们负责任地运用和与人工智能互动。随着人工智能技术的不断进步,在真正的人类认知和人工智能处理之间保持明确的区分至关重要。
四、提前考虑
“思考还是不思考。”就GPT 而言,答案(目前)倾向于后者。但是,当我们站在人工智能创新的最前沿时,我们目前对 GPT 能力的理解只是快速发展的旅程中的一个里程碑。我们所处的轨迹不仅充满希望,而且还指向了我们认为人工智能的“认知能力”的扩展。虽然今天的人工智能可能不是人类意义上的“思考”,但前进的道路充满了潜力,暗示着未来可以重新定义思维的界限。
这种演变是迅速的,每一次新的发展都使我们更接近一个领域,在这个领域中,人工认知和真实认知之间的界限变得非常模糊,为非凡的可能性打开了大门。
 

资料来源:

https://www./intl/blog/the-digital-self/202311/to-think-or-not-to-think-that-is-the-ai-question

(该文翻译发布得到了原文作者授权)

拓展链接

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多