那么,1760亿参数是什么概念呢?根据我查到的资料,OpenAI的GPT-3拥有1750亿个参数。至于GPT-3.5和GPT-4的参数量,目前还没有找到确切的数据。我曾向Newbing提问,他给出的答案是:GPT-3.5和GPT-4都有三种变体,分别拥有13亿、60亿和1750亿个参数。对于这个回答,我持保留意见。 Newbing回答GPT-3.5和GPT-4的参数量 无论如何,至少可以肯定的是,BLOOMChat的参数量可以和GPT-3媲美,相较于之前的开源大语言模型,有了显著的增加。 随着人工智能领域取得了一些重大进展,自然语言系统正在快速发展。大语言模型在每次升级和创新中变得越来越好,越来越受欢迎。几乎每天都会添加新功能或进行修改,使得大语言模型能够在几乎每个领域的不同应用中发挥作用。大语言模型无处不在,从机器翻译和文本摘要到情感分析和问题回答。 虽然现在已经有了ChatGPT和文心一言等工具可供使用,但仍然存在隐私泄露的问题。这时,我们需要寻求一个可以自己训练和部署的大语言模型。于是,拥有1760亿个参数的BLOOMChat应运而生。 BLOOMChat可以在46种自然语言和13种编程语言中生成文本。它是由BigScience组织开发的,这是一个国际合作的研究项目。根据官方给出的数据,在对六种语言进行的人类评估中,BLOOMChat的回答在45.25%的时间内比GPT-4的回答更受欢迎。对此,我也表示有些难以置信。下面,让我们向BLOOMChat提问,看看效果如何吧: 编程 法律 历史 文学 数学 娱乐 其他-仅供娱乐 体验下来,BLOOMChat在处理简单的编程、法律、历史、文学和数学等问题方面表现不错,但是还是和ChatGPT有些差距。而且BLOOMChat也有一些缺点,比如可能会产生一些错误或不相关的信息,或者可能会错误地切换语言。它也可能会重复短语,或者在编码或数学方面有限制,甚至有时会生成一些有毒内容。不过,由于它是开源的,所以有望通过社区的贡献而不断改进。 关于二次训练和本地部署,你可以在官方给出的Github地址上找到答案: https://github.com/sambanova/bloomchat 好了,希望你们喜欢今天的分享。如果你有任何问题或意见,请在评论区留言。我们下期再见! |
|