为什么AI大模型需要显卡的GPU,用CPU不行吗?

刘波

发明显卡的人真是个天才,不仅让游戏画面变得流畅,还是 AI 人工智能的算力担当。那为什么 AI 需要显卡的 GPU 芯片,而不用 CPU 呢?

GPU 和 CPU 类似,是一块由上千亿个晶体管组成的芯片,它最初设计的目的是图像和视频的渲染。注意看这个 3D 游戏画面中的火车,看起来非常复杂,但其实它是由 762,000 个平面三角形组成,总共包含了 38.2 万个顶点。在 3D 世界里,每一个顶点都包含了 x、y、z 三个坐标值,但显示器是平面的,如何把这些三维坐标值对应到二维平面呢?类似投影的原理,我们只需要通过矩阵运算,把这些 3D 坐标值转换成 2D 坐标,就可以得到它在显示器上的位置。现在,只要把这 38.2 万个顶点都搬到显示器上,就可以组成火车的轮廓了。

矩阵运算看起来复杂,其实都是一些基本的加减乘除,GPU 就是为这种简单运算而生的。它有几千甚至上万个核心,可以同时工作,把几十万个三角形快速搬到屏幕上,简直就是三角形搬运小能手。你看这是全球 GPU 王者英伟达的总部,这外形就是 GPU 能力的高度概括。

为什么AI大模型需要显卡的GPU,用CPU不行吗?

这么简单的运算,为什么不用 CPU 来做呢?CPU 的核心非常强大,可以处理更复杂的逻辑,但数量少,通常不超过 64 个;GPU 核心简单,但数量多,可以多达上万个。做个简单的比喻,CPU 的核心就像博士生,能力强、数量少;GPU 的核心就像小学生,能力一般,但数量多。

最早 GPU 只是老老实实的搬运三角形,直到 2017 年,英伟达推出了 code 框架,它可以让程序员直接访问 GPU 的虚拟指令集,进行高强度的并行计算。code 推出早期并没什么水花,直到 AI 人工智能时代的来临。

AI 大模型本质是线性代数方程和矩阵数学运算,现在流行的 Transformer 大模型,无论是训练阶段还是使用阶段,都需要大量的并行运算。知名的 GPT 4 参数个数达到了 1.8 万亿个,GPU 的潜力被彻底激发。这就好比同时有 1 万道小数算术题,想要快速算出结果,是找 4 个博士生去算,还是 1 万个小学生呢?答案显而易见。GPU 还可以组成集群,让几亿个核心在一起工作,想想都兴奋。

依靠着 GPU 的强大并行算力,AI 大模型展现出超强的实力,不仅可以实时生成文字答案,还可以生成图片和视频。在国内,已经有公司实现了用 AI 生成数字分身,比如外星播报,可以根据语音实时生成人物的表情动作,而且支持多国语言,胖虎测试了一下,简直是惟妙惟肖。

在 AI 时代,GPU 是妥妥的 c 位,从生成式 AI 到自动驾驶、物流、风力发电,都有它的身影。

文章版权声明:除非注明,否则均为刘波博客原创文章,转载或复制请以超链接形式并注明出处。

发表评论

快捷回复: 表情:
AddoilApplauseBadlaughBombCoffeeFabulousFacepalmFecesFrownHeyhaInsidiousKeepFightingNoProbPigHeadShockedSinistersmileSlapSocialSweatTolaughWatermelonWittyWowYeahYellowdog
验证码
评论列表 (暂无评论,11人围观)

还没有评论,来说两句吧...