机器视觉革命:让机器能像人眼一样看懂这个世界

机器视觉这一块,一直是让自动驾驶、安防还有工业机器人头疼的地方。车子一出隧道,摄像头动不动就短暂“失明”;强光下拍出来的画面一片惨白;车间里灯光一闪,机器人就把零件认错了。说到底,就是这些机器的“眼睛”没法像人眼那样实时调节光线,只能靠算法事后去修修补补。人眼早就进化出了一个聪明的办法——瞳孔会随着环境自动收缩或者扩张。现在,工程师们把这个本事搬到了实验室里,用液态金属做出了真正的“人工瞳孔”。 北卡罗来纳大学教堂山分校的梁坤团队做了个实验:把液态金属共晶镓铟合金(EGaIn)注入聚二甲基硅氧烷(PDMS)微通道,在瞳孔开口周围布置了八个独立可控的致动器单元。这就好比把一块肌肉放进了一个封闭的通道里,靠电化学信号驱动它变形。当环境变亮的时候,仿生视网膜捕获信号并变成脉冲电流,把EGaIn推出去盖住一部分开口,挡住多余的光线;光线暗了,这个过程就反过来,瞳孔重新打开。整个过程都在硬件层完成了,完全不用图像处理算法帮忙。 这个系统不光有瞳孔,还有一个半球形的视网膜。研究人员用氧化铟和Y6材料做了一个64像素的光电探测器阵列,做成曲面后视场角达到了108度,比普通的平面传感器宽多了。而且它还能接收从紫外到近红外的光线。这就好比生物眼不光是被动拍照,还会主动调整姿态来保护自己或者提高清晰度。 这套系统最酷的地方在于它能变出各种形状的瞳孔。通过控制八个致动器的不同组合,研究者可以把瞳孔变成猫的竖缝、羊的横缝、鱿鱼的W形甚至青蛙的形状。不同的形状对应着不同的光学策略:猫缝在强光下控制景深好;羊缝看水平方向远;鱿鱼缝适合扫描大面积地形。未来的机器人可以根据任务随时切换瞳孔形状,不再被固定的光圈限制住。 为了验证效果,团队做了个极限光照测试:让人工眼一会儿面对强光一会儿面对暗光。激活了自适应瞳孔反射之后,输出的画面明显变清晰了,识别准确率也跟着上去了。这可不是靠软件后期加亮或者增强的效果,而是硬件直接处理好光线后带来的好处。 现在的原型响应速度还达不到高速自动驾驶的实时要求。下一步计划是用微加工缩小致动器和探测器的尺寸,加入低功耗无线模块,让系统变得更轻便实用。长远的目标是把多光谱成像加进来,把视觉和触觉还有运动传感融合在一起。甚至还要为脉冲信号设计专门的神经网络算法——让机器真的能像人眼一样看懂这个世界。 大自然用了上亿年时间进化出来的视觉智慧正在被一点一点解码并装进机器里。下一场视觉革命或许就从这颗会呼吸、会变形的液态金属瞳孔开始了。