2511| 0
|
[官方资料] NVIDIA Jetson Nano 2GB 系列文章(4):体验并行计算性能 |
本帖最后由 jetson小助理 于 2021-7-6 10:27 编辑 在本系列上一篇文章里,我们介绍了如何进行网络设置及添加 SWAPFile 虚拟内存。在本篇文章中,我们将会带领大家体验并行计算性能。 当我们在 Jetson Nano 2GB 上安装好 JetPack 系统后,就可以开始运行一些范例。借助范例来体验,是最直接的方式。 好多开发者问 Jetson Nano 2GB 真的可以支持 CUDA 么?本篇我们教大家跑几个经典 CUDA Sample,带领大家逐步执行,熟悉 Ubuntu 的指令,因为未来在 Jetson Nano 2GB 上的实验,全部都需要在文字终端中输入指令。 注意:在绝大部分 Linux 操作系统中,因为大量工作都是在文字终端中操作,因此需要为文字指令提供更方便的协助:
CUDA 范例体验性能CUDA(Compute Unified Device Architecture,统一计算架构)是 NVIDIA 过去十多年异军突起的最重要核心技术,也是近年来并行计算领域中最被称颂的技术。不过 CUDA 这项技术比较偏地底层的加速应用,需要有足够的 C/C++ 等编程基础与并行计算概念才好上手,本系列文章专注于“轻松上手”的任务,因此并不占用篇幅去讲解 CUDA 的原理。 接下来我们先以几个 CUDA 经典范例,让大家感受一下并行计算所带来的惊人威力,这是 Jetson 嵌入式设备执行 AI 深度学习应用的一个最关键动力来源。 编译 CUDA SamplesJetPack 系统将 CUDA 环境安装在 /usr/local/cuda 下面,请使用以下指令进入: 说明:有人可能发现在 /usr/local 下面有 <cuda> 目录与 <cuda-10.2> 目录,两者的内容完全一样。事实上 <cuda> 这个目录是一种类似 Windows 捷径的软链接方式,实际的内容指向 <cuda-10.2> 这个目录。因为 JetPack 以后会更新 CUDA 版本,所有 <cuda-10.2> 可能会改变,于是就使用 <cuda> 软连接来确保一致性。 进入到这个目录之后,指向“ls”指令,看看里面有什么内容:
每个范例执行之前,都需要经过“编译”的工作,编译的执行有两种选择:
海洋模拟实验-oceanFFT我们来执行一个海洋模拟实验,这个执行的范例在<5_Simulations/oceanFFT>,就可以执行以下指令: # 确认现在的位置在 /usr/local/cuda/samples 说明:
执行上述指令后,会看到以下截屏的讯息,没有出现任何错误,表示编译成功。 接下来检查一下编译的结果,这里使用 “ls -l”指令来查看,会比较清楚。 会看到如下面截屏的信息。最左边一栏代表每个文件的属性,这里不多做解释,接下来的一栏“root root”表示该文件的拥有者,然后是占用空间、生成日期/时间,最右边则是文件名。 在这里的讯息中,可以看到“oecanFFT”、“oecanFFT_kernel.o”、“oecanFFT.o”这三个文件的生成日期与其他文件不同,就是这次编译过程中所产生的。其中两个 .o 的文件属于“中间文件”,而我们所需要的文件就是“oecanFFT”这个执行文件。 再查看“oecanFFT”最左边的的属性中有“x”,表示是“可执行”文件。接下来就试试看它的执行结果如何? 有些初学者一开始会执行以下指令,看看会出现什么结果: 结果出现以下的错误信息: 这个问题就是前面所说到的“拥有者权限”问题,因此解决方法就是在指令前面加上“sudo”就行,然后就能看到下面截屏的动态海洋模拟效果。 这样就完成了第一个 CUDA 范例的执行,请根据上图左边提示,利用鼠标与一些简单的热键来操作 oceanFFT 模拟效果。 烟雾粒子模拟- smokeParticles这个范例也在 /usr/local/cuda/samples/5_Simulations 里面,可以在前面一个范例的位置(oceanFFT)执行以下指令进入: 也可以在任何位置执行以下指令进入: 进到 <smokeParticles> 目录后,同样执行编译动作 可能会发现这个范例的编译时间,比前面的 oceanFFT 更久,大约需要 3 分钟 20 秒的时间,因为复杂度变高了。编译完成后,同样执行以下指令去启动这个范例: 这个实验除了模拟(256x256=65,536)个烟雾粒子的运动变化,还有光影处理的部分,可以看到在截屏右上角有个光点,这是作为模拟光源的位置,然后烟雾粒子运动时,还要计算影子的动态,所以计算量相对比较大。 执行 nbody 粒子碰撞模拟前面两个范例都只有 GPU 的执行,没办法体会 GPU 并行计算与 CPU 计算的性能差异,这个 nbody 范例提供 GPU 与 CPU 的执行,可以让大家更清楚两者之间的性能差距。 Nbody 范例也在 /usr/local/cuda/samples/5_Simulations 下面,如果你还在前面一个范例的位置,可以执行以下指令进入 nbody。
进到 <nbody> 目录后,同样执行编译动作 编译是速度挺快,大约一分钟的时间。接着同样执行 nbody 执行文件: 执行结果会出现如下方视窗的动态模拟状况。
执行的终端里会出现如下截屏的信息,有很多参数可以设定,包括粒子数量可以用“-numbodies=<N>”这个参数去改变。 这个范例能支持多个 GPU 同时计算,不过 Jetson Nano 2GB 只有一个 GPU,因此“-device=<d>”变量在这里起不了作用。此外,Jetson Nano 2GB 不支持双精度计算,所以“-fp64”这个变量也没有用处。 接下去使用“-cpu”这个参数,来指定由 CPU 执行 nbody 这个范例,指令如下: 一开始执行,相信您就能感受到性能的差距。下面截屏是 CPU 执行的结果: 将视窗头部的性能数据与前一个在 GPU 上执行的结果进行比较,可以发现各项指标大约有 10 倍左右的差距,这效果就非常显而易见了。 左边是在 GPU 上运行,右边是在 CPU 上运行 以上为 Jetson Nano 2GB 上的 CUDA Sample 中三个范例的执行,在 CUDA Sample 中总共有数十个范例,您都可以按照前面所说的步骤去编译、执行,多尝试一些范例会更加感受到 Jetson Nano 2GB 的性能优势。 |
© 2013-2025 Comsenz Inc. Powered by Discuz! X3.4 Licensed