( J" o2 k! g5 {, W# x, ^GPU(图形处理单元)最初设计用于加速图像、2D 和 3D 图形的渲染。然而,由于它们能够执行许多并行操作,因此它们的实用性超出了深度学习等应用程序。 $ o# W b3 \$ {7 D7 |3 M) Q7 g( }. a2 p* @; x
GPU 在深度学习模型中的使用始于 2000 年代中后期,并在 2012 年左右随着 AlexNet 的出现而变得非常流行。 AlexNet 是由 Alex Krizhevsky、Ilya Sutskever 和 Geoffrey Hinton 设计的卷积神经网络,于 2012 年赢得了 ImageNet 大规模视觉识别挑战赛 (ILSVRC)。这一胜利标志着一个里程碑,因为它证明了深度神经网络在图像分类和识别方面的有效性。使用 GPU 训练大型模型。5 k4 F7 n& k G
- S9 Y7 H Z9 ]$ A8 Q2 n这一突破之后,使用 GPU 进行深度学习模型变得越来越流行,这促成了 PyTorch 和 TensorFlow 等框架的创建。 3 x. I5 c' v4 u, ^, B 9 {, [5 @! C E' x4 F) J/ x+ }现在,我们只是在 PyTorch 中编写 .to(“cuda”) 来将数据发送到 GPU,并期望加速训练。但深度学习算法在实践中如何利用 GPU 的计算性能呢?让我们来看看吧! 3 E: S- E2 e0 f* ] I! m$ N& ~& S3 I6 M4 A神经网络、CNN、RNN 和 Transformer 等深度学习架构基本上都是使用矩阵加法、矩阵乘法和将函数应用于矩阵等数学运算来构建的。因此,如果我们找到一种方法来优化这些操作,我们就可以提高深度学习模型的性能。 " ?! p: j+ b! E/ ]4 C正如您所注意到的,计算机必须迭代向量,在每次迭代中按顺序添加每对元素。但这些操作是相互独立的。第 i 对元素的添加不依赖于任何其他对。那么,如果我们可以同时执行这些操作,并行添加所有元素对呢?0 I9 b6 }% w" Q; }& F
; k k C0 Y2 h& F: m: t7 U4 w) Z: D一种简单的方法是使用 CPU 多线程来并行运行所有计算。然而,当涉及深度学习模型时,我们正在处理包含数百万个元素的大量向量。一个普通的CPU只能同时处理大约十几个线程。这就是 GPU 发挥作用的时候!现代 GPU 可以同时运行数百万个线程,从而增强了海量向量上的数学运算的性能。. H6 f' R p7 ]1 e( ^5 k8 r+ X
! b9 w% R. C+ D2 y% A5 D$ HGPU 与 CPU 比较( y i. ]$ X ~' Q1 C# `1 F
尽管对于单个操作,CPU 计算可能比 GPU 更快,但 GPU 的优势依赖于其并行化能力。其原因是它们的设计目标不同。 CPU 的设计目的是尽可能快地执行一系列操作(线程)(并且只能同时执行数十个操作),而 GPU 的设计目的是并行执行数百万个操作(同时牺牲单个线程的速度)。 % `" F* O$ ~6 v- H ; R- v, I1 l6 r为了说明这一点,可以将 CPU 想象成一辆法拉利,将 GPU 想象成总线。如果您的任务是运送一个人,那么法拉利(CPU)是更好的选择。然而,如果您要运送几个人,即使法拉利(CPU)每次行程更快,公共汽车(GPU)也可以一次性运送所有人,比法拉利多次运送路线更快。因此,CPU 更适合处理顺序操作,GPU 更适合处理并行操作; m3 ]( g3 F2 R
————————————————" b& B" l; S2 v/ H( S; z
/ q2 k( |4 z" \
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。 , x) p d* R2 L" @/ z ' V! m" |/ W! T3 @% |6 L3 r原文链接:https://blog.csdn.net/weixin_42010722/article/details/138213121 8 p @' c3 D) G z" a i3 Q8 d7 o' X! R/ G6 d( S' ^+ T
5 l* h& N, M: l/ x! y