| 本帖最后由 云天 于 2025-9-20 08:30 编辑 
 【项目背景】
 2025年9月,DFRobot正式发布HuskyLens 2 AI视觉传感器,在教育部《中小学人工智能通识教育指南》落地实施的第一学期,为“AI进课堂”提供了与课程标准同步的硬件载体。与第一代相比,HuskyLens 2在算力、存储、交互和算法层面完成全面革新:
 
 在此背景下,本项目率先将HuskyLens 2引入中小学AI通识课堂,通过“人体即遥控器”的四驱车任务,把抽象的坐标系、条件判断、电机差速控制等知识点转化为可观察、可体验、可迭代的项目式学习活动。学生仅需图形化拖拽积木编程(AI感知→逻辑判断→运动控制),就能在10分钟内完成“手势→小车动作”的完整闭环,大幅降低AI入门门槛,6 TOPS高算力 + 1 GB内存 + 8 GB存储,可在本地流畅运行YOLOv8-Mobile、Pose-Net等复杂模型,将姿态识别帧率提升至30 fps,延迟<50 ms;2.4英寸IPS电容触摸屏,支持“所见即所得”的即时标定,学生无需PC即可完成模型学习、参数调节与结果显示;全金属机身与主动散热,保证全天候教学场景下的稳定性;出厂内置“人体姿态识别”算法,直接输出14个关键点三维坐标,省去训练、量化、部署环节,真正实现“开机即用”。
 
 【项目设计】
 用于控制行空板K10主控板,结合Huskylens 2 AI摄像头实现人体姿态识别来控制四驱车运动。基于人体姿态识别的AI四驱车控制程序,通过识别人体关键点(如眼睛、肩膀、手腕)的相对位置来判断动作,并控制小车前进、后退、左转、右转、停止。
 
 
 【项目硬件】硬件方面:选用国产开源硬件行空板K10作为主控,集成电机驱动、TF卡存储、I2C总线等接口,体积小、功耗低、扩展性强;搭配专为教育场景设计的Huskylens 2 AI视觉传感器,内置人体姿态识别算法,无需复杂模型训练即可直接输出关键点数据,大幅降低中小学生的使用门槛。软件方面:采用图形化编程平台,学生像拼积木一样把“AI感知→逻辑判断→运动控制”三大环节拼接起来,在10分钟内就能完成“手势→小车动作”的闭环,实现“人体即遥控器”的科幻体验。
 1.HuskyLens 2 AI视觉传感器
 
 2.行空板k10
 
 3.micro bit电机驱动扩展板
 
 【硬件组装】
 
 
 
 
 【Mind+扩展】
 1.加载行空板k10主控
 
 2.micro bit电机驱动扩展板、HuskyLens 2 AI视觉传感器
 
 【程序代码】
 
 
 
 1. 初始化部分
 
 复制代码行空板K10主程序开始
定义前进
缓存显示TF卡图片 Logojpg 在x 
将缓存内容显示/显示更新
以200)速度
Huskylens 2 初始化I2C通讯直到成功
Huskylens 2 切换算法到姿态识别
 2. 主循环逻辑启动主程序,显示LOGO图片。初始化Huskylens 2,设置为人体姿态识别模式。设置电机速度为200(可能是PWM值)。
 复制代码盾环执行
请求一次人体姿态数据存入结果
签,检测到人体?那么执行
 3. 动作判断逻辑(核心)进入主循环,不断读取Huskylens识别到的人体姿态数据。如果检测到人体,才继续执行后续判断。
 程序通过比较人体关键点的Y坐标(垂直方向)来判断动作:
 
 
 注:程序中用了“绝对值 < 20”来判断两个Y坐标是否“接近”,即误差范围内认为动作匹配。复制代码|          条件          |   动作     |            逻辑说明                  |
| ---------------- | --------- | ----------------------------- |
| `左眼Y > 左腕Y` | **前进** | 左手举起与眼睛平齐 → 前进 |
| `右眼Y > 右腕Y` | **右转** | 右手举起与眼睛平齐 → 右转 |
| `左腕Y ≈ 左肩Y` | **左转** | 左手平举 → 左转                  |
| `右腕Y ≈ 右肩Y` | **右转** | 右手平举 → 右转                  |
| 无匹配               | **停止** | 无动作 → 停止                     |
 4. 电机控制
 【演示视频】使用M1、M2、M3、M4四个电机。通过正转/反转实现方向控制:
 前进:所有电机正转前进:所有电机反转左转:M1、M2正转,M3、M4反转(差动转向)右转:M1、M2反转,M3、M4正转停止:所有电机停止
 
 
 
 
 
 
 
 
 
 
 
 |