分享

论误人子弟,GPT和Claude都很专业

 玖弋阁 2023-04-18 发布于上海

大部分人对类似GPT这些AI能做什么的认识,基本都靠想象,比如可以帮忙搜索信息,可以帮忙撰写文章。

基于想象这事情还是别了,真切地使用一下,感受一下,就知道AI到底是个多么有创意的家伙。

我对达达拜·瑙罗吉这人有点兴趣,毕竟英国有条街叫瑙罗吉,就是用他的姓氏命名的。

照例,我先问Claude:你知道达达拜·瑙罗吉吗?

Claude一如既往写得很完整,但第一句话就出现问题了:达达拜·瑙罗吉是现代印度知名革命家和政治家。他是印度人民党的创始人之一,也是印度独立运动的重要领导人之一。他提出非暴力不合作的理念和运动,以争取印度的独立。

非暴力不合作?这不是甘地吗?

我和Claude说:你搞错了,那是甘地。

Claude立马承认错误:

不过,我觉得还是不太对,我告诉他瑙罗吉是个经济学家。Claude立即进入学习模式,说它显然了解得不够深,然后洋洋洒洒写了一堆瑙罗吉的贡献。

Claude不熟悉瑙罗吉,那GPT呢?

GPT连人家生辰八字都给改了。

我告诉GPT他是个经济学家,GPT说我不认识他。

更夸张的是我和GPT说瑙罗吉提出了边际效应,GPT欣然接受,还给我列出了一堆内容。

好吧,既然我喂GPT什么,它就觉得是什么,完全不会判断准确与否。那我继续喂。把瑙罗吉的名字用英文表示,加上他的个人理论,GPT给了份答案。

你喂给AI 什么,它就接受什么,这点GPT和Claude都差不多。它们不会自主判断喂的东西准确与否,尽管它们有数据库。这就要求使用者有自己的判断,否则真能让AI一脸认真地忽悠得晕头转向。

关于它们自己提供的信息准确与否,人类该怎么判断,AI贴心地告诉你:请多方验证。

对于瑙罗吉问题,Bing的答案准确多了,因为Bing告诉我它是基于搜索给出答案,和另两位同胞不一样。当然准确性风险依旧存在。

AI会不会传递错误信息?会。AI会不会成为谣言的制造者或传播者?很有可能。跑断腿的辟谣可能不会有了,但烧坏AI的辟谣一定会有。

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多