请问:为何人工智能(AI),需要依靠GPU?在GPU中缓存单元大概占5%,控制单元5%,运算单元90%。 结构组成上的巨大差异说明:CPU的运算能力更加均衡,但是不适合做大量的运算;GPU更适合做大量运算。 它们所采用的具体算法,包括矩阵相乘、卷积、循环层、梯度运算等,分解为大量并行任务,可以有效缩短任务完成的时间。 目前,编写AI程序代码时,Python是一个不错的编程语言,里面可以调用很多的AI框架或AI库函数。 编写完一套完整的AI代码后,在执行的时候一定是从CPU去执行,当执行到你的AI框架程序的时候, AI框架的程序需要运算的代码,就会去丢给GPU去执行,这时候 GPU就可以帮你做这一类的运算,完成后它就会把资料再传回来,然后CPU在接到这些资料之后再继续其他的程序,就是这样一直的循环,通过CPU跟GPU两边的配合,渐渐完成AI的学习过程。 GPU本身擅长的就是海量数据的快速处理,人们就利用GPU来训练这些深度神经网络。GPU的能力越强,即使所使用的训练集多,所耗费的时间也会大幅度缩短,占用的数据中心基础设施也少得多,在耗费功率更低,在占用基础设施更少的情况下能够支持远比从前更大的数据量和吞吐量。 GPU凭借自身强悍的并行计算能力以及内存带宽,可以很好地应对训练和推理任务,已经成为业界在人工智能领域的首选解决方案。 随着AI的普及,带有AI算力的GPU将有巨大的发展前景。近年来,国内涌现出一大批创业公司,包括天数智芯、芯动科技、摩尔线程、沐曦、壁仞等。 免责申明 本号聚焦相关芯片等技术分享,内容观点不代表本号立场,可追溯内容均注明来源。发布文章若存在版权等问题,请留言联系删除,谢谢。 行业交流 |
|
来自: imnobody2001 > 《GPU》