分享

【干货】为何AI计算依靠GPU?

 imnobody2001 2024-01-29 发布于广东

图片

各位看官,小生三体智人,这厢有礼了,是一名新生代IT民工。

请问:为何人工智能(AI),需要依靠GPU?

GPU是一类专门的图形处理芯片的统称,此类芯片主要是做图形渲染、数值分析、密码破解,以及其他数学计算与几何运算的。
GPU和CPU都是运算的处理器,在架构组成上都包括3个部分:运算单元ALU、控制单元Control和缓存单元Cache。但是,三者的组成比例却相差很大。
在CPU中缓存单元大概占50%,控制单元25%,运算单元25%;

在GPU中缓存单元大概占5%,控制单元5%,运算单元90%。

图片

结构组成上的巨大差异说明:CPU的运算能力更加均衡,但是不适合做大量的运算;GPU更适合做大量运算

CPU是一个通用处理器,是计算机的核心部件,处理的任务非常复杂,既要应对不同类型的数据计算,还要响应人机交互,因此CPU的强项是管理和调度。

GPU是一类专用处理器,图形处理而生,任务非常明确。图形是由海量像素点组成的属于类型高度统一、相互无依赖的大规模数据,GPU需要在最短的时间里,完成大量同质化数据的并行运算。而所谓调度和协调的任务较少。

Al计算是人工智能计算的简称,是一种针对机器学习、深度学习、分析挖掘、自然语言处理等算法模型计算的数学密集型流程。

因此,AI计算大多数情况可以理解为学习机器(Machine Learning)。而Machine Learning是基于神经网络
图片

神经网络是一种典型的并行结构每个节点的计算并不复杂。但是节点很多,各自独立,这种结构与GPU的结构非常相似

AI计算的基本原理是将大量的相关数据输入到计算机中,利用算法进行数据分析和深度学习,通过模拟人类智慧的思维能力,来实现更加准确的预测和判断

图片

它们所采用的具体算法,包括矩阵相乘、卷积、循环层、梯度运算等,分解为大量并行任务,可以有效缩短任务完成的时间。

图片

目前,编写AI程序代码时,Python是一个不错的编程语言,里面可以调用很多的AI框架或AI库函数。

图片

编写完一套完整的AI代码后,在执行的时候一定是从CPU去执行,当执行到你的AI框架程序的时候, AI框架的程序需要运算的代码,就会去丢给GPU去执行,这时候 GPU就可以帮你做这一类的运算,完成后它就会把资料再传回来,然后CPU在接到这些资料之后再继续其他的程序,就是这样一直的循环,通过CPU跟GPU两边的配合,渐渐完成AI的学习过程。

图片

GPU本身擅长的就是海量数据的快速处理,人们就利用GPU来训练这些深度神经网络。GPU的能力越强,即使所使用的训练集多,所耗费的时间也会大幅度缩短,占用的数据中心基础设施也少得多,在耗费功率更低,在占用基础设施更少的情况下能够支持远比从前更大的数据量和吞吐量。

图片


GPU凭借自身强悍的并行计算能力以及内存带宽,可以很好地应对训练和推理任务,已经成为业界在人工智能领域的首选解决方案

目前,大部分企业的AI训练,采用的是GPU并行计算集群方案如果进行合理优化,一块GPU卡,可以提供相当于数十其至上百台CPU服务器的算力
图片

随着AI的普及,带有AI算力的GPU将有巨大的发展前景。近年来,国内涌现出一大批创业公司,包括天数智芯、芯动科技、摩尔线程、沐曦、壁仞等。

图片

从此,国产AI算力赛道,正式全面拉开了帷幕!

免责申明

本号聚焦相关芯片等技术分享,内容观点不代表本号立场,可追溯内容均注明来源。发布文章若存在版权等问题,请留言联系删除,谢谢。


行业交流

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多