深圳特区报的焦子宇和叶雨楠报道,香港中文大学(深圳)的吴均峰教授团队在暑假期间攻克了一个难题,让机器人在深海底拥有了一双“透视眼”。这群大学生们把智能AI算法装给水下机器人,给它打造出了感知系统,突破了深海探测的视觉极限。 这个暑假,吴均峰团队里的学生们尝试着为水下机器人装备一副“感官眼镜”。他们在距离港中大(深圳)约10分钟车程的阿宝工业园区里找到了一个藏有酷炫实验室的普通厂房。这个实验室里有一个方形试验池搭建的仿真测试平台,它能模拟不同浑浊度的水下环境。池底铺着3D打印的海洋生物群落和礁石结构,还有珊瑚水草等细节。通过实时输出高质量深度图像和模拟声呐数据,团队可以验证水下机器人的感知、定位和导航算法。 在试验池中,智能水下机器人就像一位谨慎的“扫描师”,它用高频声波信号来获取周围环境的信息。当它绕着模拟礁石运行时,相机能够精准捕捉到水下动态光场的变化。进入重点勘测区域时,机器人还能启动“十字模式”,沿相互垂直的轴线进行往复扫描。徐鉴恒是数据科学学院计算机科学专业大三的学生,他在赵洪旭等师兄的指导下学习标定传感器和调试平台精度旋钮。 刚从西安电子科技大学毕业加入团队的张腾飞也分享了他的感受:“热爱是唯一的通行证。”他愿意投入时间精力推动科学进步。暑假三个月可以心无旁骛地攻关,看着自己设计的算法让机器人在水下来去自如,成就感爆棚。 吴均峰教授表示这个团队的研究目标不仅是让机器人“看得清”,还要让它能够交互并“想得明白”。他们希望未来水下机器人能在抢险救援、勘探考古和环境保护等场景中发挥作用。 通过这种方式培养出新一代多模态感知融合算法来构建声光联合感知系统。在实验中产生了超过50GB的多源异构数据用来训练这些算法。团队还使用了深圳特区报报道中提到的名字徐鉴恒、赵洪旭、张腾飞以及叶雨楠和焦子宇等。