在更强大的AI及相关技术的加持下,游戏行业将出现怎样的变革? 4月13日周三,方正证券分析师杨晓峰发表了题为《游戏的AI革命:StableDiffusion到Nerf》的行业研究报告。 在这份报告中,方正证券表示,游戏行业能够根据现有的AI模型——GPT、Stable Diffusion以及Nerf,实现“无中生有做3D”。 GPT文本生成神器的功能已被大众所熟知,这里方正证券着重介绍了Stable Diffusion和NeRF模型。 AI生成2D作画:Stable Diffusion据方正证券介绍,Stable Diffusion是一个文本到图像的潜在扩散模型,可以实现“文生图”功能。不过,当前的输入内容类似于程序代码,具有一定的门槛。 Stable Diffusion提供开源模型,用户可对其进行进一步训练,风格多样化。 同时,使用controlnet插件可以使Stable Diffusion生成多视角图片。 AI推动“2D到3D” :NeRF模型NeRF,全称为Neural Radiance Fields(神经辐射场),是一项利用多视角图像重建三维场景的技术,即利用2D图片搭建3D场景。 当前基于NeRF技术构建的模型主要有谷歌的Mip-NeRF、Block-NeRF、LOLNeRF,英伟达开发的instant NGP。 据方正证券称,instant NGP可以极大的提高NeRF的效率,在某些情况下速度可以提升超过1000倍。 Instant NeRF可在单GPU(RTX3090)环境下实现秒级的3D场景生成。在高清分辨率下,合成甚至真实 场景可以在几秒内训练,幵以 60帧/秒的速度渲染。 另外,3D建模软件服务商Luma AI近期开发了NeRF相关的APP,目前已上线APP Store,极大的降低了NeRF的使用门槛:
2023年3月24日,Luam获2000万美元的A轮融资,英伟达为其投资方之一。 GPT→Stable Diffusion→Nerf:无中生有做3D据介绍,目前由文字到3D模型,存在两种路径。
AI推动降本增效目前,国内常见的游戏美术制作方式有四种,分别是3渲2制作、3D 现世代制作( 传统手绘)、3D 传统次世代制作和3D次世代制作。 但总体来看,当前制作一个3D游戏角色的周期在30-45天左右,需要的步骤较多,参与的人员众多。 使用NeRF可以快速建模,从而提高效率,节省成本。
本文主要观点来自方正证券杨晓峰,原文标题:《游戏的AI革命:StableDiffusion到Nerf》 杨晓峰持证编号S1220522040001
|
|
来自: mrjiangkai > 《我的图书馆》