分享

AIGC行业报告:ChatGPT-百度文心一言畅想

 龙腾236 2023-03-12 发布于福建

报告出品/作者:华西计算机团队、刘泽晶

以下为报告原文节选

------

1.1 ChatGPT为API接口收费,我国需自主可控

ChatGPT,AI的旷世之作,持续引爆市场: 是OpenAI于 2022年11月推出的聊天机器人,由于其功能强大,例如实现文章创作、代码创作、回答问题等功能,我们认为其具有跨时代的意义,例如实现勒“模糊搜索”到“精准推送”的跨越,因此持续引爆市场。


ChatGPT为AI接口收费,我国需自主可控: OpenAI(ChatGPT母公司)的商业模式为API接口收费,客户可以通过接入OpenAI的API接口获取获取相关图像、语言、代码调整服务,我们认为此种商业模式具有“卡脖子”的风险,一旦海外禁止API接口权限,会对我国AIGC生态造成严重影响,因此我国需要发展自主可控的“ChatGPT”。

国产生态正在逐步繁荣,百度打响“ChatGPT”领域“第一枪”:百度是少有预训练模型(大模型)语言训练能力的公司,其在算法、算力、数据、生态、平台五方面皆有储备,根据百度官方公众号,百度计划于2023年3月16日在北京总部召开新闻发布会,围绕国产版ChatGPT文心一言,我们认为此举正式意味着我国自主可控的“ChatGPT”即将问世。

文章图片1

1.2 ChatGPT的竞争本质即大模型储备竞赛

大模型的是人工智能发展的必然趋势: 大模型即“大算力+强算法”结合的产物。大模型通常是在大规模无标注数据上进行训练,学习出一种特征和规则。基于大模型进行应用开发时,将大模型进行微调,如在下游特定任务上的小规模有标注数据进行二次训练,或者不进行微调,就可以完成多个应用场景的任务。


大模型是辅助式人工智能向通用性人工智能转变的坚实底座: 大模型增强了人工智能的泛化性、通用性,生产水平得到质的飞跃,过去分散化模型研发下,单一AI应用场景需要多个模型支撑,每个模型需要算法开发、数据处理、模型训练、参数调优等过程。大模型实现了标准化AI研发范式,即简单方式规模化生产,具有“预训练+精调”等功能,显著降低AI开发门槛,即“低成本”和“高效率”。


数据、平台、算力是打造大模型生态的必备基础: 数据是训练大模型参数的必备,我们认为可以理解成“燃料”;算力是训练大模型的底层动力源泉,一个优秀的算力底座在大模型(AI算法)的训练和推理具备效率优势;平台是大模型和算力之间的“桥梁”,可针对不同的模型和硬件,实现资源的合理分配,达到软硬件的最优组合,从而大幅提升训练模型的效率。

文章图片2

1.3 大模型带来的AI技术与应用变革潜能被广泛验证

大模型带来的AI技术与应用变革潜能被广泛验证,可以分为四类,分别是NLP(自然语言处理)、CV(计算机视觉)、多模态和科学计算。


NLP: 近年来,随着预训练技术(大模型)、算力提升以及NLP海量数据和任务特性,大模型预训练在该领域取得显著突破,2018年,随着BERT(谷歌)的诞生,是利用海量无标注文本的监督学习,已经刷新多个AI权威技术榜单,3亿参数的BERT模型在权威GLUE的11任务刷新纪录,基准值推至80.4%,绝对值提升7.6个点。


CV: 目前,主要以卷积神经网络(CNN)和Transformer为支撑的计算机大模型快速发展,比如,2021年的150亿参数的V-MoE推出,在ImageNET准率高达90.35%,此外,国内厂商也逐渐发力,盘古CV大模型可提供OCR文字识别,并在多个场景落地。


多模态: 大模型技术推动多模态模型不断迭代升级,比如阿里大模型M6,模型参数10万亿级别,持续拓宽大模型应用广度,覆盖电商、智能交互等场景,此外,OpenAI的CLIP(文本图像匹配)以及DALL·E2(文生图)持续落地。


科学计算: AI+科学计算持续引发大变革,比如生物制药、气象预报、地震探查、材料等领域,例如Deep-Mind推出的AlphaFold2能够覆盖98.5%的人类蛋白质组,并对20种其他生物蛋白结构进行预测。

文章图片3

1.4 中美科技巨头厂商开启大模型储备“军备赛”

美国科技巨头公司开启AI大模型 “军备赛” :u 谷歌: 谷歌推出聊天机器人Bard,底层代码为LaMDA,我们认为LaMDA与ChatGPT算法具备一战之力。此外,BERT算法具备库时代的意义。


微软:目前,根据智东西报道,微软推移动版Bing,语音接入、AI群聊等功能。此外,微软本身也有在NLP、CV相关大模型的技术储备。


其他: 例如FaceBook、亚马逊、DeepMind、英伟达等厂商已经加入大模型的“军备赛”,并分别在NLP、CV或多模态方面已有相应的技术储备,应用在语言生成、推理、代码生成、跨模态搜索等领域中。


我国需有自主可控AI大模型,生态正逐渐繁荣:ü 百度: 是少有预训练模型(大模型)语言训练能力的公司,已经经历多次迭代,目前已覆盖众多方向,目前已有近百万开发者使用文心大模型,生态正在逐步繁荣,合作厂商覆盖科技、教育、工业、媒体、金融等诸多产业。


阿里: 根据钛媒体数据,M6模型是中文多模态模型,参数规模高达万亿,已在超40个场景中应用,可以实现剧本创作等功能。


其他: 例如腾讯、京东、科大讯飞、字节跳动、网易等纷纷加入“军备赛”,分别拥有独特技术架构,应用在智慧音效、AI视频创作、AI语音、AI作文、AI搜索等应用场景中。

文章图片4

资料来源:公开资料整理,腾讯《AIGC发展趋势报告2023》,华西证券研究所

2.1 百度文心一言开启国产ChatGPT新征程

百度是少有大模型语言训练能力的公司: 其文心大模型和Open AI的GPT模型类似,在2019年就已经推出,并且已经迭代了多代,从单一的自然语言理解延伸到多模态,包括视觉、文档、文图、语音等多模态多功能,因此“文心一言”所基于的ERNIE系列模型也已经具备较强泛化能力和性能。


我们认为百度作为国产ChatGPT“领军企业”,符合数据、平台、算力、大模型、生态多重要素需求: 算力方面,百度拥有自主生态的算力底座,比如百度智算中心;AI芯片方面,坐拥昆仑芯加速器,实现了核心自主可控,且性能优异;平台方面,百度具备百度百舸 · AI异构计算平台,具有高性能、高弹性等优势;大模型储备方面,百度实现了全生态的布局,其中包括NLP、CV、大模型、生物计算等领域,且在不同场景中已有较多应用。数据方面,根据IDC数据,其拥有5500亿条知识,且已经应用于百度搜索、信息流、智能驾驶、百度地图、小度等产品。

文章图片5

2.2.1 百度文心一言大模型储备齐全: NLP(自然语言处理)

百度文心一言NLP方向算法储备齐全: 其中著名的 ERNIE系列,是基于知识增强的千亿模型,用于智能创作、摘要生成、问答、语义检索、情感分析、信息抽取、文本匹配、文本纠错等各类自然语言理解和生成任务,并且模型已经可应用于医疗、金融、图语言、编程、跨模态、信息抽取等各个方面。此外,PLATO模型,是全球首个超百亿参数规模的中英文对话训练模型,可以让机器人像人一样具有逻辑且自由对话。

百度文心一言NLP功能强大: 例如ERNIE系列,ERNIE3.0基于知识增强的多范式统一预训练框架,深入融合的千亿级知识,具备强大的语言理解能力与小说、摘要、文案创意、歌词、诗歌等文学创作能力。其中与鹏城实验室合作发布了知识增强千亿大模型 “鹏城-百度·文心“。目前文心ERNIE已经刷新93个中文NLP任务基准,并多次登顶SuperGLUE全球榜,已在机器阅读理解、文本分类、语义相似度计算等60多项任务中实际应用。

文章图片6

2.2.2 百度文心一言大模型储备齐全: CV(计算机视觉)

百度文心一言CV具有颠覆性: VIMER-CAE: 为视觉自监督预训练大模型,创新性地提出 “在隐含的编码表征空间完成掩码预测任务”的预训练框架,在图像分类、目标检测、语义分割等经典下游任务上刷新SOTA结果。


VIMER-UFO 2.0: 多任务学习模型,行业最大170亿参数视觉多任务模型,覆盖人脸、人体、车辆、商品、食物细粒度分类等 20+ CV 基础任,具备支持各类任务、各类硬件的灵活部署等优势,可以有效解决大模型参数量大,推理性能差等问题。


OCR -VIMER-StrucTexT 2.0: 为表征学习预训练模型解决了训练数据匮乏和传统 OCR + NLP 链路过长导致的模型表达能力不足、优化效率偏低等问题,能够广泛应用于文档、卡证、票据等图像文字识别和结构化理解,例如泛卡证票据信息抽取应用、政务办公文档还原应用等场景。


VIMER-UMS: 是行业首个统一视觉单模态与多源图文模态表征的商品多模态预训练模型,可实现统一图文表征预训练同时覆盖商品视觉单模态、多模态识别与检索任务,可以显著改善商品视觉检索和商品多模态检索体验。

文章图片7

2.2.3 百度文心一言大模型储备齐全: 跨模态、生物计算

文心跨境大模型优势显著: ERNIE-ViLG2.0是知识增强的 AI 作画大模型,在公开权威评测集MS-COCO上取得了当前该领域的领先效果,在语义可控性、图像清晰度、中国文化理解等方面均展现出了显著优势;跨模态文档智能大模型ERNIE-Layout,基于布局知识增强技术,融合文本、图像、布局等信息进行联合建模,在文档抽取、布局理解等5类11项任务刷新业界SOTA;ERNIE-VIL是首个只是业界首个融合场景图知识的多模态预训练模型。在视觉常识推理、跨模态图像检索、跨模态文本检索等 典型多模态任务中刷新了世界记录。


文心生物计算大模型在全球具有领先优势: HelixFold-Single是秒级别的蛋白结构预测大模型,从近3亿的无标注蛋白质数据中隐式的学习MSA信息,在90% 的单体蛋白场景上预测效果持平AF2,在抗体结构预测场景下,比AlphaFold2预测结果更优;HelixGEM-2为小分子药物研发模型,在量子化学属性预测和虚拟筛选双场景上达到领先效果,其上个版本是业界首个基于几何构象增强的化合物表征模型,引入化合物的三维空间信息,在14个药物属性预测相关的benchmarks上效果达到业界最优;HelixFold模型可以端到端地学习蛋白质结构,在国产DCU环境下训练千万级别蛋白仅需到2.6天,在 GPU 上相同硬件环境配置下,训练性能和部分场景效果显著优 AlphaFold2。

文章图片8

2.3.1 百度底层算力技术实力强劲: 百度智算中心

百度智算中心是数字经济的重要底座: 百度自身具有建设智能算力中心的实力,百度智算中心面向人工智能应用场景,为政府和行业客户提供普惠算力、算法模型和数据服务的人工智能基础设施。可面对人工智能应用场景,支持大规模部署的同时,满足高并发、高弹性、高精度等不同计算需求,可支撑城市大脑、产业金融、自动驾驶等各个垂直化行业。


方案优势强大,具备多重领先优势: 1、技术领先,现有千卡并行环境下实现加速比90%,可支持大规模模型训练场景;2、绿色低碳,数据中PUE可以低至1.08,左到低能耗、高性能运行;3、自主可控,AI芯片、AI框架、开发平台、大模型层面、可以做到全栈自研自主可控;4、开放生态,飞桨已累计凝聚477万开发者等。


目前已在江苏盐城、湖北宜昌等地落地,建设内容包括智算中心、城市级视频中台、数据中台系统、核心物联网通信系统、大规模图谱分析体系,以及超过270类不同人工智能算法模型。

文章图片9

资料来源:百度智能云官网,华西证券研究所

2.3.2 百度底层算力技术实力强劲:百度百舸 · AI异构计算平台

百度AI异构计算平台技术积累浓厚:包含AI计算、AI存储、AI加速、AI容器四大核心套件,具有高性能、高弹性、高速互联、高性价比等特性,其中平台已经充分汲取了百度多年技术积累,具备深度融合推荐、无人驾驶、生命科学、NLP等场景的实践经验,能为AI场景提供软硬一体解决方案,加速AI工程化落地。


百度智能计算平台具备多重优势: 1、高效率,提供AI超级服务器、RDMA网络、大吞吐低延时的并行文件系统,可大幅提升训练速度和推理效率;2、高密度,支持GPU资源共享与隔离、架构感知调度,提升异构资源的容器化部署密度,提升资源利用率;3、良好易用性,支持PaddlePaddle、TensorFlow、Pytorch等多种主流深度学习框架;4、多场景部署,可根据业务需求在不同场景部署落地,公有云、IDC等场景;5、乐高式拼接,AI计算、AI存储、AI容器三大核心产品均可各自独立提供服务。


应用场景广泛: 可用于营销广告、无人驾驶、生物科技、语音语义、计算机视觉等场景中的训练及推理。

文章图片10

2.3.3 百度底层算力技术实力强劲: 昆仑芯云服务器

百度昆仑云服务器服务器专为AI算力而生:昆仑芯云服务器是一种弹性按需、提供高性能通用AI算力的云服务器,应用于AI推理和AI训练加速。昆仑芯云服务器是搭载昆仑芯的云服务器,支持K100和R200型号。其中昆仑芯为自主研发的 AI 通用处理器芯片。其中R200AI芯片采用7nm制成,广泛应用于计算机视觉、自然语言处理、大规模语音识别、大规模推荐等场景。


昆仑芯云服务器技术壁垒浓厚: 1、领先的AI计算能力,基于7nm制程,单卡算力达到128TFLOPS,支持推理和训练;2、生态兼容,支持主流深度学习开发框架,例如Tensorflow、Pytorch、PaddlePaddle等;3、具备硬件虚拟化能力,优化了加速芯片的利用率,在保证延时和吞吐量的情况下支持推理和训练等混合工作负载;4、易开发,支持多种开发组件工具,编译引擎支持C和C++编程。


典型案例: 1、互联网搜索,可支持搜索系统对高并发要求,提高NLP推理的效率;2、超算中心,实现人工智能算力大规模、高密度部署;3、工业质检,利用深度学习技术替代人工质检,大大节省了人力成本,提高整厂的智能化水平,帮助企业降低损耗,提升约10%的良品率;4、智慧城市,全方位支撑智慧政务、综合治理等智慧城市核心板块。

文章图片11

2.3.4 百度底层算力技术实力强劲: 昆仑芯AI芯片

百度自身AI芯片技术实力浓厚: 昆仑芯AI芯片是百度自主研发的芯片,昆仑芯科技前身是百度智能芯片及架构部昆仑芯科技深耕AI加速领域已十余年,是一家在体系结构、芯片实现、软件系统和场景应用均有积累的AI芯片企业。昆仑芯1代是百度自妍的第一一代昆仑芯片,2020年底实现量产;昆仑芯2代也已于2021年8月量产;根据百度集团执行副总裁沈抖透露,昆仑芯3代将于2024年初量产。


昆仑芯2代AI芯片可提供庞大算力支撑,具有性能优势: 采用7nm架构,对比上一代,R200全面提升AI负载的运行效率,巅峰算力可达256 TOPS@INT8,昆仑芯2代具备多重优势,1、创新架构,通用和专用指令集融合,支持训练、推理、虚拟化;2、算力支撑强大,通用计算能力明显增强,可灵活支持AI算法的演进,3、高速互联,高性能分布式AI系统,加速AI数据和模型并行中的数据交换。此外,昆仑芯在著名算法的功耗比已有显著优势。

文章图片12

2.4 百度文心一言生态愈发繁荣

百度模型评估结果属于第一梯队,彰显其强大技术实力: 根据IDC的数据评估先实,百度文心大模型在市场格局中处于第一梯队,产品能力、生态能力达到L4水平,应用能力达到L3水平。产品能力呈现出较强技术实力和平台积累, “文心大模型+深度学习平台”创新了人工智能研发应用范式达到行业前端水平;应用能力方面,百度已在金融、能源、制造、城市、传媒、互联网等行业拥有实际落地的标杆案例,截止目前文心已累计发布11个行业大模型;在生态能力方面,百度文心大模型在社区用户的基础上,可以实现与开发者、行业用户、上下游产业的正向互动,在评估厂商中处于行业领先位置。


百度大模型赋能千行百业,已有落地应用:目前百度文心在能源、金融、航天、制造、传媒、城市、社科以及影视等领域与国网、浦发、吉利、TCL、人民网、哈尔滨、上海辞书出版社等均有案例应用的行业大模型。这些行业大模型作为重要AI底座,在各行业的技术效果突破、产品创新、生产流程变革、降本增效等维度产生价值。

文章图片13

2.4 百度文心一言生态愈发繁荣

百度文心一言场景愈发繁荣,目前已有诸多厂商开展合作,我们认为其商业模式同样为API接口收费,属于SAAS商业模式,合作厂商分别覆盖科技、金融、航天、影视、汽车、电子制造等诸多产业。

文章图片14

2.5 百度文心一言五大要素齐全,开启全新篇章

我们认为大模型成功必备的五要素,分别是数据、算力、平台、模型和生态,而百度作为国产ChatGPT的领头羊,五大要素皆已配备。

海量数据: 即训练大参数模型的“燃料”,根据IDC数据,其拥有5500亿条知识,且已经应用于百度搜索、信息流、智能驾驶、百度地图、小度等产品。

模型储备:百度实现了全生态的布局,其中包括NLP、CV、跨境大模型、生物计算等领域。

NLP领域: ERNIE系列,是基于知识增强的千亿模型,用于智能创作、摘要生成、问答、语义检索、情感分析、信息抽取等能力。PLATO模型,是全球首个超百亿参数规模的中英文对话训练模型,可以让机器人像人一样具有逻辑且自由对话的功能。

CV领域: VIMER-CAE,应用于图像分类、目标检测、语义分割等场景;VIMER-UFO,拥有170亿参数,覆盖人脸、人体、车辆、商品、食物细粒度分类等 20+的视觉多任务模型;OCR -VIMER-StrucTexT广泛应用于文档、卡证、票据等图像文字识别和结构化理解;VIMERUMS业内首发多源图文模态表征的商品多模态预训练模型;

跨境大模型:可实现AI作画、场景融合视觉常识推理、跨模态图像检索、跨模态文本检索等多场景。

生物计算: 应用场景为蛋白结构预测和小分子药物研发等领域。

平台方面: 拥有自主生态的百度百舸 · AI异构计算平台,具备高效率、多密度、高易用性、多场景部署、乐高式拼接等能力。

算力底座:百度自身具有建设智能算力中心的实力,技术领先且自主可控,已有典型落地案例;服务器方面拥有自妍的昆仑芯云服务器,具有AI计算能力领先、生态兼容、兼具硬件虚拟化、易开发等能力;芯片方面,昆仑芯AI芯片是百度自主研发的芯片,2代芯片已量产,具备算力支撑强、高速互联等多重优势。

生态: 百度大模型赋能千行百业,已有落地应用,合作厂商分别覆盖科技、金融、航天、影视、汽车、电子制造等诸多产业。

--------------------------------------------------------------------------

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多