分享

ChatGPT是如何学习的?与人类学习有何相似之处?

 daoge6302 2023-05-08 发布于湖南
ChatGPT创造了AI的新时代
因为它能理解人话、并且还会“说人话”。

那么,作为一款程序,
它是怎么做到理解人话、说人话的?

以下是B站红人、人工智能专业人士YJango公众号:“超智能体”)所做的一个视频,用“大白话”来解释这一点。
先交待一句:ChatGPT的工作机理,在某种程度上也揭示了“人脑是如何学习”的,这个我们后面再说。
以下是YJango制作的视频:
以下视频来源于
超智能体

王珏老师特将视频中的要点摘录出来,并同步提供其它相关材料,供大家关联学习:
1、ChatGPT的工作机理是:“单字接龙”!即根据已经知道的字,来预测下一个字
图片

2、ChatGPT的训练方式是:给它“喂”海量语料库,由机器用算法计算出文字之间的关系,形成“下一个字”的所有可能的概率分布
图片

(以下是从其它文章中补充的例子)ChatGPT从文中学习如何“单字接龙”,采用的是一种由Google工程师提出的全新理论,叫“自注意力”机制。
例如,下列句子是我们想要翻译的输入句子:
The animal didn’t cross the street because it was too tired

这个“it”在这个句子是指什么呢?它指的是street还是这个animal呢?这对于人类来说是一个简单的问题,但是对于算法则不是。

当模型处理这个单词“it”的时候,自注意力机制会允许“it”与“animal”建立联系,并生成如下“关联度概率分布”:
图片

3、ChatGPT给出的“答案”,并不存储在喂给它的语料库中,也不在它自己存储的数据库中,完全是它自己“从头生成”的——这与搜索引擎只能找到“已存储”的信息完全不同。
图片
换句话来说,ChatGPT通过算法对海量语料库进行处理,生成了自己的“语言模型”
图片

4、“单字接龙”只是第一阶段,是机器的“自学习”(或者叫“无监督学习”),在此基础上还需要人类对其生成结果的反馈、监督与强化
图片
————————————————
大家看看:ChatGPT的学习过程,和人类的学习机制是否很像?
——人类学习,同样需要有效的“输入”
     就像ChatGPT中的“语料库”
      也有不同点:人类学习的“输入”不仅仅是语言,更需要“情境”、“情感”的介入
——人脑同样需要对“输入”的知识进行“编码”
    “编码”的方法,类似ChatGPT中的“算法”
    不同的是:人脑“编码”的方法,也存储在“经验”之中,而且人类的编码方法,也会随着时间的推移、而发生进化!(相比之下,ChatGPT的“算法”是固定的,变的只是文字的“概率分布”)
——输入的目的,同样是形成“认知模型”、而非简单记住
    就像ChatGPT最终生成的是:语言模型
    不同的是:人脑不仅能生成语言的认知模型,还能将语言、思维过程与当时的情境、个人情感、价值判断“揉合”在一起。(相比之下,ChatGPT只是会说话,却无法判断其正误、价值、情感)
——在“认知模型”生成后,同样需要“输出”,并且输出的过程同样需要反馈、监督、强化
    就像ChatGPT的“监督学习”与“强化学习”
    不同的是:人类的“输出”本身,由于语言对思维的承载、梳理等作用,即使无反馈也能促进认知模型的进化;另外,在接受反馈、监督时,人类学习会受到“情感”的影响(比如反感、对抗、枯燥感等),还会受到“已有经验”的影响,因为“想不通”而无法改进认知模型(相比之下,ChatGPT肯定会改进,因为它只是调整“概率”而已)。

事实上,我们完全可以把人脑的学习机制总结如下:
  • “先输入-->后输出-->再反馈-->适当调整-->输出-->反馈-->……”
  • “输入”的目的是:初步理解(形成初步认知模型)
  • “输出”的目的是:运用初步认知模型,验证能否顺利解决问题
  • “反馈”的目的是:让脑了解初步认知模型存在什么问题,以便调整

其实,AI与人脑的学习机制如此相似,并非偶然,因为:
  • 最新的AI算法,就是模仿人脑的神经机制设计出来的(比如:“深度神经网络”模仿的就是人脑的视觉神经机制;ChatGPT则模仿人脑的“注意力”机制)!
  • 而上世纪提出的“认知信息加工理论”,则是对电脑加工信息的模仿!

图片


————————————————
最后,王珏老师还建议大家特别关注:ChatGPT中出现的“涌现”现象
图片
大语言模型的“涌现”(Emergent)现象,是人们(包括AI研发者)从未想象到的能力,它是指在训练参数和数据量超过一定数值后,诸如逻辑推理、语言理解等能力突然出现的现象——就好像“智能”是突然出现的
图片
事实上,当AI的“参数”规模达到一定门槛之前,无论参数数量如何增长,它的能力表现都没有明显提升(参见下图,参数在100亿以前,能力改善很小),直到某个门槛之后(下图100亿之后),能力突然大幅增强、甚至出现新的智能:
图片
下图反应的是通过AI“训练时计算量(FLOPs)”的视角,同样有“涌现”现象:
图片
【附注】历代ChatGPT的参数情况如下:
  • GPT-1:1亿个参数
  • GPT-2:15亿个参数
  • GPT-3:1750亿个参数
  • GPT-4:预计达到100万亿规模

根据上述图表(100亿以上参数才产生“涌现”现象),显然只有到GPT-3,才能产生“智能”的巨大飞跃!
——当然,要训练出GPT-3 的1000亿级的参数,其投入也是可观的。据说单次训练成本为1200万美元,也就是将近1亿RMB。

ChatGPT的“涌现”现象,对于我们理解(猜测)人脑的运转机制,也大有启发。
众所周知:人脑是由最为简单的神经元细胞构成的。每个神经元细胞只有一个简单功能:放电/传导——要么放电、要么不放电;如果放电的话,要么能传导到下一个神经元,要么传导终止。
如此简单的功能,居然使人类产生“意识”、“智能”、“智慧”,是非常不可思议的。脑科学家一直弄不懂其中的原理是什么!
如果我们和ChatGPT类比一下的话:
——人脑中有1000亿个神经元(与GPT-3的参数量接近)
——每个神经元大约有1万个左右的突触(最多1000万亿种连接的可能性,与GPT-4的参数量接近)
如果ChatGPT都能产生“涌现”现象,那么人脑意识、智能、智慧的产生,是不是也是大量神经元(连接)而产生的“涌现”现象呢?

————————————————————

本公众号提供全面、深度的学习科学研究、微课与PPT研究、以及其它实用技术研究文章!到公众号首页输入代码查看更多研究:

  • wk:微课超级大全,设计制作应用一网打尽

  • ppt:PPT技巧集

  • xxkx:学习科学研究文章

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多