集群搜寻围捕与空地协同目标抓取系统
——无人机集群 + 无人车 + 机械臂的智能空地一体化解决方案
在复杂环境下快速发现目标、稳定跟踪并安全抓取,是公共安全、应急救援、工业巡检等场景共同面临的挑战。基于自主可控的软硬件平台,我们打造了三机集群搜寻围捕与空地协同目标抓取系统,实现从空中搜寻—智能围捕—地面抓取的一体化闭环。
一、系统总体架构
该系统整体由三部分组成:空中集群层、地面执行层、指挥与协同层,三者通过无线通信与统一坐标系紧密耦合,形成闭环任务执行能力。
1. 空中集群层:多机协同飞行与目标搜寻
空中部分采用3架基于JCV-600平台的四旋翼无人机作为集群基础单元:
- 600mm轴距中型机架,平台化设计,结构稳固、扩展接口丰富;
- 单机自重(含电池)约 2.4 kg,最大起飞重量 4 kg,最大载重 1.5 kg;
- 理想环境下空载续航约 70 min(2.4kg+空载) ,负载续航约 35 min(2.4kg+1.5kg负载);
- 最大飞行速度约 45 km/h(Position 模式)与 80 km/h(Sport 模式);
- 悬停精度:垂直约 ±0.5 m,水平约 ±1.5 m;
- 抗风能力:最大抗风等级约 15 m/s。
- 电池配置:6S 10000mAh 锂聚合物电池组
- 外接接口配置:A3UART接口 B.1CAN接口 C.1 电池电压供电 XT30 D.1 RC接口 E.8*PWM接口
- 可拓展传感器模块:RTK/UWB/全相视觉避障/边缘计算计算机/激光雷达等

每架无人机可挂载图数传通信模块、RTK 定位模块、机载边缘计算机和变焦云台相机,实现对目标区域的快速覆盖、连续观测与本地智能处理,为集群协同与空地协同提供统一基础。
2. 地面执行层:无人车+六轴机械臂
地面执行层由 RANGER MINI 2.0 无人车底盘与 RM65-B 六轴机械臂构成,承担目标附近区域的机动、接近和最终抓取任务。
RANGER MINI 2.0 无人车底盘
- 搭载 4 个轮毂伺服电机,可实现原地自转、蛇形行驶与阿克曼转向;
- 最高行驶速度约 2.6 m/s,自重约 135 kg,载重能力约 150 kg;
- 最大越障高度约 100 mm,最大爬坡能力约 10°;
- 典型续航时间约 7 h,充电时间约 1.5 h;
支持选配固态激光雷达、深度相机、IMU 等多种传感器。

RM65-B六轴机械臂
- 本体重量约 7.2 kg,有效负载 5 kg;
- 最大工作半径约 610 mm;
- 重复定位精度可达 ±0.05 mm;
- 防护等级 IP54;
- 支持图形化编程界面和离线仿真,可接入 ROS / MoveIt 等开源软件栈。

无人车负责在全局坐标系下完成导航与路径跟踪,机械臂在局部坐标系内完成精细操作,两者通过车载计算机统一调度。
3. 指挥与协同层:地面站与集群管控
地面站作为系统的任务中枢,主要功能包括:
- 实时监控无人机、无人车的定位、姿态、电量与工作状态;
- 显示多机航迹、作业区域与关键任务点信息;
- 支持单机及集群级控制,包括起降、航线下发与任务参数调整;
- 提供异常告警与安全策略管理。
二、关键模块与软硬件能力
1. 通信与定位:高带宽图数传 + 厘米级 RTK
为实现空地一体与多机协同,系统在通信与定位层面配置了专用模块:
LQ 图数传通信模块
- 工作于 2.4 GHz 频段,支持 IEEE 802.11n WLAN 协议;
- 最大带宽约 40 Mbps,最小链路时延小于 3 ms;
- 理想环境下传输距离可达 3 km 级;
- 模块尺寸小、重量轻,采用 Web 界面配置,部署维护简便。

辰星 M15 RTK 定位模块
- 支持 BDS / GPS / GLONASS / QZSS 多星座 RTK 高精度定位;
- 平面定位精度可达 10 mm + 1 ppm,高程精度可达 15 mm + 1 ppm;
- 数据更新率最高可达 20 Hz;
- 内置多语言 Web GUI,可查看状态、设置参数并进行远程升级。
在统一的 RTK 坐标系与高带宽、低时延通信保障下,多架无人机与地面平台可实现高精度协同。
2. 多模态视觉感知:变焦云台相机 + 深度相机
系统联合使用变焦云台相机与双目深度相机,实现从远距离发现到近距离三维定位的多层次感知:
GX40 三轴云台变焦相机
- 三轴云台结构(非正交),抗干扰能力强,姿态控制精度高;
- 搭载 829 万像素相机,10× 光学变焦,配合数字变焦最高约 40×;
- 支持最高 4K@30 FPS 网络视频输出;
- 内置激光照明模块,可在完全无光环境中获取清晰图像。

Intel RealSense D435i 深度相机 - 采用全局快门,视场角大、测量距离可达约 10 m;
- 深度分辨率最高 1280×720 @ 90 FPS;
- RGB 分辨率最高 1280×1080 @ 30 FPS;
- 适用于机器人视觉测量与视觉导航等典型任务。
3. 边缘 AI 计算:AllSpark2-Orin NX
空中与地面平台均可搭载 AllSpark2-Orin NX 边缘计算单元,作为前端 AI 计算核心:
- 内置 NVIDIA Jetson Orin NX 模块,AI 运算性能最高可达 100 TOPS;
- 集成 1024 核 Ampere 架构 GPU 与 8 核 Cortex-A78AE CPU;
- 支持 M.2 NVMe SSD 固态盘,提供大容量本地数据存储;
- 提供丰富接口:CSI 摄像头、千兆以太网、USB、CAN、UART、I²C 等。

依托该计算平台,系统可在前端完成目标检测、姿态估计、轨迹预测、路径规划与局部避障等复杂算法,减轻后端通信负担,提高整体实时性与可靠性。
三、任务流程:从搜寻到抓取的闭环协同
1. 集群区域搜寻
在任务开始前,操作人员通过地面站在地图上对目标区域进行矩形框选:
- 地面站将区域信息及相关参数下发给无人机集群;
- 各无人机基于区域划分和自身状态,按分布式策略规划并执行搜索航线;
- 搜索过程中,搭载的视觉与 AI 模块持续对画面进行检测与识别;
- 集群间通过通信链路共享状态与局部信息,在规划与控制层面叠加机间避撞逻辑,提升覆盖效率与安全性。
2. 目标识别与围捕协同
在集群搜寻过程中,系统提供一套完整的目标识别流程(数据标注—模型训练—识别测试),支持基于自有数据集训练特定目标检测模型。识别阶段可输出:
- 图像宽度、高度与帧率;
- 相机水平/垂直视场角;
- 每个目标的中心像素坐标与类别信息;
- 目标中心点的水平/垂直视线角;
- 目标估算的三维位置等数据。
无人机在发现目标后,将对目标进行持续锁定并记录轨迹。在积累一定轨迹数据后,系统对轨迹进行拟合与预测,估计目标未来可能路径,并向集群中其他无人机广播。其他无人机据此规划自身飞行路径与围捕位置,形成多机协同的合围态势。
3. 空地协同目标抓取
在空中集群完成对目标的发现和围捕后,目标的经纬度信息及相关状态将下发至地面无人车:
- 无人车根据目标位置执行导航,通过激光雷达、视觉等传感器获取环境信息,实现路径规划与避障;
- 抵达目标区域附近后,车载深度相机与机械臂末端视觉模块对目标进行精确识别与三维定位;
- 结合机械臂运动学与障碍约束计算抓取位姿;
- 机械臂执行抓取动作,完成目标的稳定拾取与处理。
四、应用价值与扩展方向
依托成熟的无人机平台、无人车平台与机械臂硬件基础,结合高带宽通信、厘米级 RTK、高性能边缘计算与多模态视觉感知,该系统提供了一个集“集群控制、空地协同、智能感知与精准操作”于一体的综合平台,具有以下特点:
- 架构完整:从空中搜寻、轨迹预测到地面抓取,覆盖完整任务链路,便于系统级方案验证与对比研究;
- 模块清晰:无人机、无人车、机械臂、通信链路、RTK 定位与计算单元等均为可替换、可扩展模块,利于二次开发;
- 算法友好:适合作为集群协同控制、路径规划、目标识别与跟踪、空地协同控制等算法的实验与验证平台;
- 场景适配强:可根据需求调整无人机数量、传感器配置与软件栈,支持从基础教学实验到复杂场景验证的多层次应用。
通过该系统,用户可以在统一平台上完成从底层感知、通信与控制,到上层任务规划与协同决策的一体化研发与教学实践,为后续在更多行业场景中构建空地协同无人系统打下扎实基础。


