把吊舱视觉降落和端到端避障,先交给ProSim仿真
在无人机系统研发中,环境复杂、试错成本高、联调周期长几乎是所有团队的共同痛点。
PrometheusSim(ProSim)此次升级,把吊舱视觉降落与端到端避障装进仿真里,结合Windows一键部署、UE4高保真场景、多传感器与编队/任务链路,ProSim 支撑从算法开发、仿真验证到真机迁移的完整闭环。帮助你把更多的风险与时间成本搬到屏幕上解决,真机尽量只做“最后一公里”的验证。
ProSim安装包和wiki使用说明现已开放,获取方式见文末;同时欢迎加入ProSim学习交流群,与开发者们交流实践经验。
吊舱视觉降落
三轴吊舱二维码点击降落
工业级精准定位:通过三轴云台(俯仰/横滚/偏航)的协同控制,无人机可动态调整姿态保持目标锁定。
亚米级降落精度:结合视觉识别与飞控融合算法,实现降落定位误差<5cm。
一键触发操作:通过视频流点击目标即可自动完成识别、跟踪、降落全流程。
单轴吊舱二维码点击降落
轻量化解决方案:仅需偏航轴控制的低成本方案。
一键触发操作:通过地面站点击目标即可自动完成识别、跟踪、降落全流程。
偏航跟踪:通过视觉估计,实现目标偏航跟踪。
优势:
1. 吊舱系统采用Prometheus视觉-惯性联合定位,即使目标短暂遮挡仍能保持航向记忆。
2. 降落板大小无要求,视觉目标识别估计无需标定。
3. 优化控制算法,适应目标识别抖动场景。
4. 融合估计目标位置、三轴/单轴吊舱控制、降落引导。
5. 视觉跟踪降落逻辑更贴切工程实际场景。
端到端避障
仿生视觉决策模型
类人决策机制:基于YOPO(You Only Plan Once)算法,实现”感知到决策”的端到端避障。
动态场景适应:在未建图的树林/工地等复杂环境拥有较高的避障成功率。
毫秒级响应:模型推理延迟<3ms。
全流程仿真训练体系
- 多模态采集:
在PrometheusSim中构建多样化障碍场景(树林/建筑等)同步采集全局雷达点云+深度图像数据。
- 规模化数据:
生成数万组标注数据集:15000+场景样本,涵盖不同天气条件。
极致性能推理引擎
- TensorRT 加速部署:
1.Prometheus仓库提供一键转换脚本:
yopo_trt_transfer.py
2.支持FP16量化:模型体积缩小50%,推理速度提升3倍
开箱即用的模型库
- 预转换模型路径:
/home/amov/Prometheus/Modules/YOPO/run/yopo_trt.pth
真机无缝迁移
- 仿真验证模型可直接部署实体无人机
持续扩展的仿真生态
ProSim构建了覆盖无人机研发全周期的仿真能力,以模块化、统一接口为基础,便于在同一仿真域内持续接入新场景、传感器与算法。除了此次扩展的吊舱视觉降落和YOPO端到端避障功能外,还支持以下核心功能:
集群协同
智能编队系统:领航-跟随架构;预设队形含一字型、三角编队
群体避障算法:支持多机深度相机与多机雷达点云的联合避障规划
环境感知
多传感器规划:
Livox Mid-360激光雷达避障建图
Intel D435i深度相机避障
二维激光雷达避障
动态目标跟踪:
YOLOv5人体识别跟踪
二维码识别与锁定
核心飞行控制
多模式起降控制:
一键起飞/降落/返航
精准悬停(定位精度±0.1m)
全姿态飞行:
机体坐标系控制(前/后/左/右/升降)
惯性坐标系控制(全局XYZ位置)
经纬高控制(GPS定位模式)
自主轨迹跟踪:
预设轨迹:圆形、8字形
航点任务:兼容Prometheus地面站可视化规划
资源速递
关注公众号,后台私信ProSim获取安装包和wiki链接
扫码添加小助手,进ProSim学习交流群

往期ProSim介绍文章:
PrometheusSim仿真平台上线!| 秒建UE4超真试飞场
如果您有感兴趣的技术话题,请在留言区告诉我们!关注阿木实验室,更多技术干货不断更新!
开发遇到棘手难题可以上阿木官方论坛:
bbs.amovlab.com
有工程师亲自解答
10000+无人机开发者和你共同进步!