大部分人对类似GPT这些AI能做什么的认识,基本都靠想象,比如可以帮忙搜索信息,可以帮忙撰写文章。 基于想象这事情还是别了,真切地使用一下,感受一下,就知道AI到底是个多么有创意的家伙。 我对达达拜·瑙罗吉这人有点兴趣,毕竟英国有条街叫瑙罗吉,就是用他的姓氏命名的。 照例,我先问Claude:你知道达达拜·瑙罗吉吗? Claude一如既往写得很完整,但第一句话就出现问题了:达达拜·瑙罗吉是现代印度知名革命家和政治家。他是印度人民党的创始人之一,也是印度独立运动的重要领导人之一。他提出非暴力不合作的理念和运动,以争取印度的独立。 非暴力不合作?这不是甘地吗? 我和Claude说:你搞错了,那是甘地。 Claude立马承认错误: 不过,我觉得还是不太对,我告诉他瑙罗吉是个经济学家。Claude立即进入学习模式,说它显然了解得不够深,然后洋洋洒洒写了一堆瑙罗吉的贡献。 Claude不熟悉瑙罗吉,那GPT呢? GPT连人家生辰八字都给改了。 我告诉GPT他是个经济学家,GPT说我不认识他。 更夸张的是我和GPT说瑙罗吉提出了边际效应,GPT欣然接受,还给我列出了一堆内容。 好吧,既然我喂GPT什么,它就觉得是什么,完全不会判断准确与否。那我继续喂。把瑙罗吉的名字用英文表示,加上他的个人理论,GPT给了份答案。 你喂给AI 什么,它就接受什么,这点GPT和Claude都差不多。它们不会自主判断喂的东西准确与否,尽管它们有数据库。这就要求使用者有自己的判断,否则真能让AI一脸认真地忽悠得晕头转向。 关于它们自己提供的信息准确与否,人类该怎么判断,AI贴心地告诉你:请多方验证。 对于瑙罗吉问题,Bing的答案准确多了,因为Bing告诉我它是基于搜索给出答案,和另两位同胞不一样。当然准确性风险依旧存在。 AI会不会传递错误信息?会。AI会不会成为谣言的制造者或传播者?很有可能。跑断腿的辟谣可能不会有了,但烧坏AI的辟谣一定会有。 |
|