发文章
发文工具
撰写
网文摘手
文档
视频
思维导图
随笔
相册
原创同步助手
其他工具
图片转文字
文件清理
AI助手
留言交流
“微调百川Baichuan-13B保姆式教程,手把手教你训练百亿大模型” 的更多相关文章
极低资源条件下如何微调大模型:LoRA模型思想与BLOOM-LORA代码实现分析
LLMs之InternLM:InternLM/InternLM-7B模型的简介、安装、使用方法之详细攻略
1800亿参数,世界顶级开源大模型Falcon官宣!碾压LLaMA 2,性能直逼GPT-4
用keras_bert实现多输出、参数共享模型
国内开源、可商用、中英双语的AI大模型,百川大模型又升级了!
百川大模型内测,王小川的话比模型更有噱头
王小川大模型首亮相!70亿参数霸榜,清北抢先用|独家专访
重磅!中国AI领域最新突破:11家大模型即将开放,你准备好迎接未来了吗?
笔记侠2023年演讲:未来,只有1%的人是引领者
中国130个大模型,难超越10亿营收的ChatGPT|钛媒体深度
2023年度新锐100、大模型新锐9名单公布
王小川公布最新530亿百川大模型,阿里腾讯等超150家企业已使用
王小川公布最新大模型,号称全球最长上下文,是GPT-4的14倍|钛媒体焦点
从零开始的stable diffusion
效果达OpenAI同规模模型96%,发布即开源!国内团队新发大模型,CEO上阵写代码
AI大模型开发路径
用于NLP的Python:使用Keras进行深度学习文本生成
王炸升级!Google 全新大模型赶超 GPT-4,Bard 全面开放,要把搜索彻底颠覆
计算机行业:海外AI应用落地进展梳理,AIGC商业化浪潮将至(附下载)