分享

给ChatGPT泼点冷水

 奎林说 2023-02-11 发布于江苏


太热了就得冷一下子

需要给ChatGPT泼点冷水,是因为被各种砂锅、铁锅、高压锅等锅炒的太热了,太热了的后果就是会糊,谁也不想让它糊掉吧。

ChatGPT应用本质上就是个人机交互对答系统,这种东西很多年前就有了,相关领域的研究者和应用者比较熟悉。各种网站的自动客服、问答系统都属于这个范畴。这个ChatGPT能被炒热也是得益于现在这些移动媒体的广泛传播,更得益于商家的宣传策略。

为啥要泼点冷水,就是怕太热了,人们会把它当神,而有一天发现它没那么好用,大众又会习惯性地把它踩在脚下或者放入冷锅。

1997年的深蓝人机大战、2016年的AlphaGo围棋大战等等这样的事情都会引爆人们对计算机技术、人工智能的关注,并进而思考人类在人工智能面前还能做什么,人类会不会被人工智能给打败什么的。

我说真的是想多了,一些技术的进步总会让一些人担忧自己的工作会不会被代替掉,自己没饭吃。我说你不想想吗?这么多年,农业革命、工业革命、信息革命,让社会越来越发达,人们因此而闲下来了吗?没有!事更多了、更忙了,不是吗。

也就是按照一些人说法,机械、机器、计算机、人工智能等等的发展,代替了人的大部分工作,人显得多余了。按照这个道理,那应该在海滩上悠哉悠哉度假的人更多了才对、还不愁收入,事实上不是。更多技术的发展会带了更多的工作机会,这个道理不用细说。

简单举个例子,当年火车刚开始的时候,没有马车快,很多人嘲笑火车、抵制火车,觉得这个东西会让一些人失业,不过你看看,火车这个东西,是需要更多的人去工作的。

这些年的互联网发展,网络上集聚的信息太多了,十多年前流行一种问答网站,采取众包的方式集聚了很多问题和回答。比如百度知道、百科知识、知乎网等等,国外的就更多了,并且质量很高,比如维基百科。这些早期的积累下来的内容都给人机交互系统带来了巨大的训练数据集。

ChatGPT的算法、技术更先进,它对于常识性的回答非常符合人类的认知,这当然是的。因为现阶段喜欢玩ChatGPT那些人,不就是问一些常识嘛。你问点比较专业的看看呢,再比如数学什么的,对ChatGPT来说就是天书。除非他把作业帮、作业精灵之类的答案都给抓过来,那它也能回答一些中小学的问题了,不过那不就是另一个作业帮了吗。

微软投资了ChatGPT,前几天微软的必应搜索引擎内嵌了ChatGPT,中文里面的好多回答都来自于知乎网站,随后,必应关闭了这个应用。不过这使得知乎的股价大涨,知乎算不算躺赢了一次。

ChatGPT很不错,有问必答,侃侃应对。这种神奇的人机互动体验,勾起人们绞尽脑汁向ChatGPT提问的热情,并为其带来惊人的用户量:该系统在两个多月前由美国人工智能研究公司OpenAI推出,今年1月便已达到1亿月活跃用户,用户增长速度堪称史无前例。ChatGPT新的算法极大地提升了对话交互模式下的用户体验,说白了就是人类的情绪和语气更丰富了。且由于ChatGPT采用的模型使用了“利用人类反馈强化学习(RLHF)”的训练方式,还让模型逐渐有了对生成答案的评判能力。

为什么很多地方用不了ChatGPT?主要在于你跟机器人对话一次,OpenAI公司就要花掉1元人民币左右的成本。然而,截至目前该公司AI还并未有任何商业盈利模式,而对于智能机器人是否收费也是个两难决策,如果继续免费,随着用户的暴增,成本的激增势必会令公司无法承受,但一旦收费,肯定也会劝退不少用户。

ChatGPT是人工智能应用的一个例子,人工智能领域还有很多分支,还有很多领域,不出所料,不久还会出现图像、图形、声音等方面火爆的应用,希望那时候ChatGPT的问答不要冷掉。

ChatGPT的回答仔细看看分析一下,几乎都是些正确的废话;你惊叹于它回答的巧妙,那极大可能是你以前或多或少知道过这些回答的内容。正是因为你知道,所以ChatGPT才让你觉得它好厉害。如果ChatGPT回答了你不知道的东西(或真或假的都有),很有可能你会说,这答的是什么呀。

国内的公司估计这几天急眼了,等不了几天,就会有一大帮公司推出国产ChatGPT,大概率还会附上各种牛逼吹到天上的文案。

适当的时候泼泼冷水是对的,期望越大失望越大的事太多了。

Yann LeCun自称中文名“杨立昆”,被誉为“卷积网络之父”,为卷积神经网络和图像识别领域做出过重要贡献,在人工智能研究领域,杨立昆、杰弗里·辛顿和约书亚·本吉奥一直被公认为深度学习三巨头。

杨立昆认为:目前人类的水平连“猫猫狗狗”级别的AI都做不出来。1月27日,在Zoom的媒体和高管小型聚会上,杨立昆对ChatGPT给出了一段评价:“就底层技术而言,ChatGPT并不是多么了不得的创新。虽然在公众眼中,它是革命性的,但是我们知道,它就是一个组合得很好的产品,仅此而已。”

杨立昆认为,人类的思维方式和对世界的感知让人能预想即将发生的事物,这是人类获得常识的基础,而聊天机器人的模型并没有这种能力。语言模型并没有物理直觉,它们是基于文本训练的。如果它们能从庞大的联想记忆中检索到类似问题的答案,则可能会答对物理直觉问题。但它们的回答也可能是完全错误的。

美国作家、Robust. AI公司创始人、纽约大学教授加里·马库斯曾表示:尽管ChatGPT能够生成合乎语言逻辑的内容,但这些内容并不一定是现实本身。也正因为此,ChatGPT可能将进一步放大假新闻的影响,存在治理层面的深切担忧。他表示,ChatGPT只是一个工具,不是人类。说它是科学家,不如说它充其量更像是一个拼写检查器,一个语法检查器,或者一个统计包。它无法提供真实的想法,不会设计精心控制的实验,也不能从已有文献中得到启发。

对于未来将登场的OpenAI开发的GPT-4模型,马库斯也给不太积极的预测:GPT-4仍然会像它的前辈一样犯下各种愚蠢的错误。它有时可能会很好地完成给定的任务,有时却罢工不干,但你并不能提前预料到即将出现的是哪种情况;GPT-4对物理、心理和数学方面的推理依然靠不住。它或许能够解决部分之前未能挑战成功的项目,但在面对更长和更复杂的场景时依然束手无策;比如,当被问及医学问题时,它要么拒绝回答,要么偶尔会说出听起来很有道理但很危险的废话。尽管它已经吞噬了互联网上的大量内容,但它并不能足够可信和完整地提供可靠的医疗建议。

牛津大学计算机科学教授迈克尔·伍尔德里奇:网络对什么是'真’或'假’没有任何概念。他们只是尽可能地写出最有可能的文本来回答所给的问题或提示。文本中包含的任何偏见都将不可避免地反映在程序本身中,这对人工智能来说是一个巨大的持续挑战——识别和减轻这些偏见。

萨里大学人工智能研究所主任安德鲁·罗戈斯基:这本质上依旧是品牌之间的商业行为。大型人工智能模型真的是不可持续的,生成式人工智能和大型语言模型能够做出很厉害的事情,但它们仍然不够智能。它们不理解自己产生的输出,也不会拥有洞察力、想法这些东西。事实上,这只是品牌之间的一场战斗,利用人们当前对生成式人工智能的兴趣来重新划分商业版图。

深度科技研究院院长张孝荣:ChatGPT对大众的吸引力在于语言组织能力比较强大,能够迅速形成一篇看得过去的文章。缺点也在于此,由于语料库基于互联网开放信息,文章的细节经不起推敲,在某一些领域往往会出现逻辑或者文字上的硬伤。目前 ChatGPT水平有限,距离实际应用还有很远的路。目前这个ChatGPT更多像一个'玩具’,还不是生产力工具。科技巨头会在这个方向进行布局,跟进研发,但在获得更大的技术突破前,ChatGPT很难成为一个风口,按照行业发展规律,过不久就会快速退潮。

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多