
具身复合机器人系统设计实训平台 RAI-M4
具身智能可以拆解为任务规划、感知决策、操作执行三个环节,每个环节都可引入AI提升交互、决策与操作的泛化能力。RAI-M4在任务规划阶段引入DeepSeek与通义千问,实现随机对话语义理解与自然语言指令到任务流程的转换;在感知决策端结合通义千问的多模态识别能力,无需预训练即可探索更丰富的感知场景。硬件层面,RAI-M4采用麦克纳姆轮全向底盘,实现全向移动;串联机械臂末端负载可达300g、抓取范围260mm,并配套夹爪。感知单元包含深度相机、激光雷达、陀螺仪、呼吸灯等模块,覆盖常见交互与定位所需的传感器。主控架构为上下位机双主控:上位机负责任务规划、视觉感知决策、导航规划、底盘与机械臂运动学等复杂算法;下立机负责电机PID控制、交互模块驱动,并承载与上位机的通信中继。
适配人群/场景
支持移动机器人技术与大模型部署应用、移动机器人运动控制、机器人学、机器视觉、机器人操作系统、移动机器人导航与定位等课程实训。
核心亮点
- 全向移动底盘 + 四轴机械臂的复合机器人形态
- 通义千问 + DeepSeek 等大模型深度接入
- 覆盖移动机器人与大模型部署的体系化课程
产品特点
AI 大模型深度接入
在 ASR 环节集成通义千问,在 LLM 环节引入 DeepSeek,让机器人具备自然语言任务规划能力;在视觉环节依托通义千问多模态,降低场景识别门槛。
体系化实验项目设计
结合专业课程递进式设计实训模块,可按需选择机器视觉、大模型部署、机器人学、移动机器人导航定位等模块,灵活适配教学计划。
移动 + 操作复合平台
麦克纳姆轮全向底盘与串联机械臂协同工作,可在狭小空间完成移动与操作任务,结合任务规划与感知决策形成泛化作业流程。
样机案例
从多角度展示 RAI-M4 的整机布局、模块分布与感知单元,便于课程部署与场景规划。
多角度外观展示
系统配置
传感器配置
面向移动作业与感知交互配置完整传感器组合,满足定位、导航与交互需求。
- 高清摄像头(可选配深度相机,实现三维感知)
- 360° 激光雷达(测距 0.12-8m)
- IMU / 陀螺仪传感器(姿态估计与里程修正)
- 呼吸灯与交互指示模块
- 扩展接口:支持触摸屏、额外传感器接入
控制器配置
采用上下位机双主控架构:上位机承担任务规划、视觉感知与导航算法,下位机负责电机 PID、机械臂伺服与互动模块控制,并作为与上位机通信的中继节点。
软件配置
预装 Ubuntu + ROS2、MoveIt、YOLO 推理环境及通义千问 / DeepSeek API 示例,可快速进入移动机器人与大模型联合实验。
支持 Python / C++、ROS2、MoveIt、OpenCV、YOLO、通义千问 SDK、DeepSeek API 等主流框架,便于扩展课程与科研项目。
实验项目
实验体系覆盖机器视觉、大模型部署与应用、机器人本体控制、ROS 操作与移动机器人导航等模块,支持按课程需求灵活组合。
机器视觉模块
构建从基础图像处理到深度学习、多模态识别的完整实践路径。
- OpenCV 视觉:HSV 颜色识别;视觉形状识别;二维码识别;条码识别;色环检测(综合+滤波)
- AI 视觉 - YOLO:YOLO 视觉部署;数据集标注;模型训练与部署;工件数据收集与检测;人脸检测;人脸追踪
- AI 视觉 - 通义千问多模态:通义千问多模态接口部署;物体检测与标记
大模型部署与应用模块
聚焦语音交互、多模态识别与机器人执行的全链路大模型实践。
- 语音对话交互:语音转文字 ASR 部署(通义千问);语义理解 LLM 部署(DeepSeek);文字转语音 TTS 部署(火山引擎);完整语音对话;语音对话计算器;语音对话音乐播放
- 多模态视觉检测:通义千问多模态接口部署;物体检测与标记
- 结合机器人应用:基于 MCP 的识别抓取任务规划;基于 MCP 的导航任务规划
机器人本体控制模块
面向底盘与机械臂的运动学与控制策略实践。
- 底盘本体控制:编码电机 PID 控制;全向底盘运动学控制;全向底盘里程控制(含陀螺仪校准)
- 机械臂本体控制:舵机位置控制;机械臂运动学控制;机械臂插补运动控制
机器人操作系统模块
培养 ROS 话题、服务、参数以及 MoveIt 规划等核心技能。
- ROS 基本操作:通过话题 / 服务 / 参数控制仿真小乌龟运动;新增小乌龟实例;功能包移植与运行(键盘控制小乌龟)
- MoveIt 机械臂规划:配置机械臂 URDF;MoveIt 配置机械臂运动学模型;Rviz 实现机械臂运动规划
移动机器人导航与定位模块
涵盖系统接口、建图与导航的完整流程,支持多坐标导航实践。
- 系统接口配置:键盘控制底盘运动;键盘控制机械臂运动;获取激光雷达数据
- 地图构建:配置建图工程文件;制作 launch 文件;构建新地图
- 地图导航:配置 Navigation 工程文件;设置机器人碰撞边界;指定点导航;自主避障导航;多坐标导航
知识库
获取更多关于该产品的技术文档、使用教程及常见问题解答。
关键问题
问题 3:文档中哪些产品支持大模型集成应用,具体可实现哪些大模型相关功能?具身复合机器人系统设计实训平台 RAI-M4具身智能任务规划实训平台 RAI-P4具身视觉感知决策实训平台 RAI-Q2
答案:支持大模型集成应用的产品有 3 款:
RAI-P4(3.4 万元):集成通义千问、Deepseek、火山引擎;可实现 ASR(通义千问)、LLM(Deepseek)、TTS(火山引擎)、Function-call(如语音对话计算器、音乐播放、云台 / 机械臂任务规划),并支持与 YOLO / 人脸追踪、机械臂控制的集成应用。
RAI-M4(2.4 万元):接入 Deepseek(LLM)、通义千问(ASR + 多模态);可实现自然语言转机器人任务流程(语音指令控制底盘 / 机械臂)、多模态物体检测(通义千问),结合麦轮底盘与 4 轴机械臂实现泛化操作。
RAI-Q2(3.2 万元):调用通义千问 VLM;可实现多模态视觉检测(水果检测与标记、未知物体识别),结合深度相机和高精度转台,适配机器视觉与大模型部署课程。

