fb 原创文章第215篇,专注“个人成长与财富自由、世界运作的逻辑与投资"。 早上发现上一篇群发竟然失败,原因是违规了,这是第一篇没有发送成功的文章。 罢了,懒得修改了。 今天想说说AIGC。 以chatGPT为代表的AIGC非常火,街头巷尾,恨不得菜市场的大妈都能聊上两句。 核心原因,chatGPT效率惊艳,媒体炒作,另外chatGPT的场景确实落地,对一些场景的工作提升着实有效。 作为从业者,我们在兴奋的同时,也要冷静,不能人云亦云。 我关注以下几个问题: 1、chatGPT为代表的文本生成技术,到底是像alphago这样“昙花一现”的媒体炒作,还是人类真正迎来了"iphone时刻",甚至是“万维网”发明的时刻——也就是奇点临近,强人工智能有了路径。 2、普通人如何参与到这场军备竞赛中,至少不被时代淘汰? 知识星球里已经热炒了一波,好多星球涌进一大批人,当然主体并不是关心技术本身,而是chatGPT衍伸的应用。 大模型“群雄逐鹿”: 01 那些年,被媒体爆炒的概念 光这几年,经历的概念就不少。 深度强化学习——以alphago为代表,区块链,元宇宙。 alphago打败李世石后一年,alphamaster从0开始称霸宇宙。文人墨客开始炒作机器人要统治地球,结果吴恩达一盘冷水——先教模型认知一只猫吧。 区块链以BTC最为人熟知。知名投资人奔走疾呼,说区块链是万维网时刻,all in区块链之类的。这些年过去,除了韭菜,似乎落地的不多。 元宇宙出了几个数字人,和facebook的Meta all in 元宇宙后股份大跌之外,也没有什么动静。 互联网和资本市场这种事情太多太多。 概念,炒作,热钱,这次是不是一样呢? 02 核心逻辑 什么叫“iphone时刻”? iphone为代表智能机取代功能机,手机不再仅限于打电话发短信,而是以应用市场为代表的平台,它的功能随着开发者的进入,可以有无限的想象空间。 iphone非常有“创新性”的去掉手机键盘,改进触屏式交互方式。简单说把“触屏电脑”放进口袋,并重新定义软件的交互方式。 事后看,也“挺简单”的。 但第一个提出来并做出来,还把体验做得这么好,也只有乔布斯一人。 互联网的发明更不必说,把全世界电话连成网络,世界变成了“地球村”。极大提升人类连接与信息交换的方式,重塑了全人类的生活方式。 ”iphone时刻“,一定是一项新发明,极大的提升的生产力。 万维网让电脑互联,iphone为代表的智能机让人们随时互联,iot是万物互联。 区块链只是一种“低效”的信息存储方式,深度学习本质是多层矩阵运算与反向求导,元宇宙的基础技术AR、VR看起来不错,但技术很不成熟,真能达到“三体”里的游戏水平,那才称得上元宇宙,这个技术离成熟还有相当的距离。 人类区别于动物最重要的两项技能,一是会制造工具,二是发明了语言。 工具如飞机,高铁,大大提升我们的腿的能力,可以让我们跨越万水千山,不必靠基因进化,自身力量进化出什么样的功能。计算机作为我们大脑的延伸,帮助我们记录,存储很多信息。 语言更加重要,有人语言,文化知识得以传承,知识体系得以构建,人类文明以指数级速度快速发展。 所有的人类知识,都是以语言文字的形式来传承,文字里包含了一切知识,也只有人类需要花数年甚至更久的时间还学会读书、写字。 那么一个问题就来了,如果我们的工具计算机学会了人类的语言会怎么样呢? 学会了语言就可以“构建”出其它“任何”东西,甚至是一切! 古人学会四书五经,会吟诗作对,就是一方才子。 信息爆炸的今天,我们目之所及只是沧海一粟,很多细节细究起来,我们其实一无所知,包括历史,心理,科学。 但是,这些东西都真实地存在于书本里,网页里。 大模型是一个见过非常多文本知识的神经网络,因为足够大,它“学会”了语法、语义——概率上的。但大模型的“涌现”效应,书读百遍,其义自现! 根据你输入的上下文,给定“最大概率”的“续写”。——这是大模型文本生成式。 从技术形式上,把一段文本编码后,去“预测”后续文字的概率。 早年的gpt就是这种续写的“玩具”。 直到gpt3.5横空出世。 你输入任何问题,它会“可控”地给出回答,它不是检索,它会推理,会组织语言。 传统智能问答里的几个难点像意图识别、多轮对话的背景信息保持在大模型面前似乎都完美解决了。 像武侠剧里的江湖百晓生,或者段誉背后的王语嫣——通晓天下武学招式。 人类多数时候都在做决策,做决策依照经验,数据,信息来权衡。而大模型知识丰富,学富五年,无所不知。 这样带来的生产力提升可想而知。 这一次确实不太一样,AI生成式大模型,值得我们持续跟进。 03 kensho智能问答 做量化投研的人都知道kensho。 kensho是一个智能问答,你可以问它“朝鲜试射导弹后,美股哪支股票涨幅最大?”。 当时金融圈也被这个产品吓了一跳,国内也有一众公司跟进。 这里要解决的核心问题,前端的问答引擎,需要识别出意图,这个对于大模型就是天生自带的能力。 kensho后面有大量的结构化的数据,通过对事件的统计相关分析,按一定的推理链条给出结论,最后以人类语言的形式把结果呈现出来。 这三步也是gpt自带的,生成式本身就是做这个的。 中间的数据分析引擎,去查库,上网查资料,做相关分析等,目前还不确定。上网查文本信息这个路径有解决方案,但如何查询特定的数据库、知识图谱等——或者反过来,如何把知识图谱,数据库结构化信息给嵌入到大模型的分析过程中。若可以,就可以利用大模型很好地使用私域数据。 我自己跟踪kensho多年,当初学nlp,很大一部分是受此启发,aigc时代,再次燃起这个念想,真正的智能投研引擎。 后续计划: 1、深度体验chatGPT及国内竞品。 2、搭建自有模型,考虑补充私域数据,prompts模型等,考虑如何接入金融文本数据,金融知识图谱,金融数据库等。 |
|