1455| 0
|
[官方资料] NVIDIA Jetson Nano 2GB 系列文章(50):智能避障之模型训练 |
这原本应该是任何深度学习应用的第一个步骤,包括采集所需要的图像数据以及用框架工具进行模型训练,但这个过程比较枯燥乏味,因此在上一篇文章先让大家体验一下避撞的效果,但最终还是得回头将这个步骤补上,才能让这个项目更加完整,并且适合于更多使用场景。 Jetbot 使用深度学习最基础的图像分类功能,模拟人类真实的视觉感知能力来实现避撞的应用,基本的原理在前一篇文章里已经详细说明,原厂提供的 best_model.pth 模型文件所采用的数据集,肯定于您的现场环境不尽相同,如果在您的场地所显示的效果不够好,那最根本的解决办法,就是重新收集数据并且训练模型。 这个部分没有什么技术或原理需要说明,主要是以下几个细节需要多加注意就行: 1. 摄像头规格一致性: 采集数据使用的摄像头与 live_demo 是同一个型号,包括镜头的广角度,如果使用同一个是最好的。任何人不能期望用 160 度广角摄像头采集数据所训练的模型,能在平光摄像头下很精准地识别,反之亦然。 同样地,也不要期望用手机或其他设备去采集图像所训练的模型,能在 Jetbot 上非常顺畅地执行推理,也不要指望在 Jetbot 上执行很顺畅的模型,能在其他种类摄像头下获得精准的推理结果,当然我们不会阻止您去尝试的。 摄像头的匹配是深度学习应用的基础关键,如果忽略这个基本点,则其他工作的努力也可能都是白费。 2. 图像收集与分类的细节: 项目里提供的 data_collection.ipynb 脚本,就是配合 Jetbot 小车使用 CSI 摄像头拍摄图像并且进行分类。 这个脚本的内容非常简单,主要功能就是启动摄像头、创建 “add free” 与 “add blocked” 按钮,将画面捕捉的图像分别添加到 “free” 与 “blocked” 文件夹中,然后提供给训练代码执行模型训练,请自行调整输出成下面状态,便于后面的操作。 这个环节是最繁琐但又至关重要的部分,很多疏忽之处都是在这里发生,因为大部分初学者都不知道这个数据分类步骤所造成的影响,特别是对“距离感”的分类问题,这是影响避撞效果。下图左是 Jetbot 与标的物距离 20 厘米时,下图右则是会拍摄到的图像。 这时候要将这张图归类为“free”还是“blocked”?这就看每个人不同的习惯,保守的人可能归类到“free”而激进的人可能归类到“blocked”,这个归类就影响 Jetbot 小车“看到”怎样的图像就决定转向。 如果您想让小车在距离标的物 10 厘米时才转向,那么在上一张图时选择“free”分类,然后在下一张“距离 10 厘米”时所拍的图像归类为“blocked”,否则 Jetbot 可能大老远看到这个标的物时就判断为“blocked”。 最好先定好安全距离,然后在面对不同标的物时都采取相同的标准,如此用 Jetbot 摄像头为“free”类与“blocked”类各收集 200 张左右图片,也就是我们得为在控制电脑上运行 data_collection.ipynb 脚本,执行 400+ 次的图像采集与分类的工作。 在https://www.youtube.com/watch?v=Pn84HPMnApI有一段关于这个数据收集与分类的视频,上图是这个视频的部分截屏,其实想象一下就知道有多繁琐,虽然过程并不困难,但考验的是大家的耐心与细心。 事实上,例如单纯的障碍物体放到 Jetbot 前面,可以根据不同距离选择分类,还是比较轻松的。比较辛苦的部分是“路况图像”的采集与分类,例如在办公室地面会遇到的“桌椅脚”、“墙角”、“不平坦”等路况,就必须让 Jetbot 到现场去采集,这才是整个环节中最耗费劳动力的部分。 这样的问题是否有辅助的方法?我们在本系列第 9 篇文章“用键盘与摇杆控制基本走动”的内容中,讲解过用 basic_motion.ipynb 能创建如下图右下角的控制板,去控制 Jetbot 小车的移动,现在就开启这个脚本,一路执行到这个控制板控制功能,然后同样将这个控制板的 Output View 与 data_collection.ipynb 的输出,集成如下图状态。 现在就可以将 Jetbot 置于地上,我们坐在桌上操作控制台 PC,透过右下角按钮指挥 Jetbot 移动,然后透过摄像头回传的画面,将图像进行分类,这样就不用拎着笔记电脑、趴在地上去用手挪动 Jetbot 去获取图像。 3. 选择训练设备: 在 data_collection.ipynb 最后一个步骤是将收集分类的数据集进行压缩,目的是要在其他计算性能较好的设备上进行模型训练,可以在 Jetson AGX Xavier、Xavier NX 或者装有 CUDA GPU 卡的 x86 PC 上,但还需要配置相应的开发环境,包括 CUDA、CUDNN、TensorRT 等库,以及 TensorFlow、PyTorch、torchvision 这些框架,这里面还牵涉到非常多的版本对应问题,其实是相当复杂的一项任务。 事实上,面对这样 400 张 224x224 尺寸的图像集,计算数据量并不大,用 Jetbot 的 Jetson Nano(含2GB)是足以胜任的,顶多就是一两个小时的模型训练时间,但与重新达一个训练环境相比,这个就简单太多了。 因此这里推荐就是使用 Jetbot 的设备进行训练就行,这样收集完数据之后也不需要进行文件压缩的步骤。 4. 神经网络的一致性: 在项目中提供 3 个 train_model_xxx.ipynb,其中 train_model.ipynb 使用最经典的 AlexNet 神经网络进行训练,其对应的演示脚本就是前一篇文章的 live_demo.ipynb,这是针对 AlexNet 神经网络的推理应用。 如果在这里选择使用改良过的 ResNet18 神经网络(train_model_resnet18.ipynb 脚本),则演示的时候就得使用相同神经网络的 live_demo_resnet18.ipynb,这些对应不能有错。 至于还有两个与 trt 相关的演示脚本,也都是基于 ResNet18 神经网络的延伸功能,先用 live_demo_resnet18_build_trt.ipynb 脚本将 best_model.pth 转换成 TensorRT 加速引擎的 best_model_trt.pth 再用 live_demo_resnet18_trt.ipynb 调用进行演示,这会在推理过程使用更少的计算资源。 另外还有个 train_model_plot.ipynb 训练脚本,则是在 AlexNet 神经网络基础上添加“可视化”的检视功能,对于模型训练并没有什么影响。 训练脚本里面的绝大部分参数都是经过优化处理的,除非您对这个神经网络相当熟悉,否则就不需要去改动,除了以下 3 个可以进行调整:
5. 检验结果: 这里唯一的检验方式,就是执行 live_demo 让 Jetbot 跑动起来,看看是否如预期般地避开障碍物与坑洞,如果最终识别效果不够好,通常最可能出现问题的部分如下:
好了,这个数据收集与模型训练的阶段并不存在什么技术问题,虽然极度无聊而且繁琐,但却又不能跳过去,好好耐心并细心的处理。 |
© 2013-2024 Comsenz Inc. Powered by Discuz! X3.4 Licensed