虚拟现实产业正在转向,未来的设备可能会变得更轻巧

虚拟现实这个行业现在正经历着大转变,从大家只想着怎么搞出更酷炫的硬件,慢慢变成了怎么让设备用起来更顺手。像Meta这样的大公司,这次就把操作系统搞了个大升级。Horizon OS的最新版本v83就是例子,它里面加了个叫“Hands 2.4”的新架构,把手部动作捕捉的频率提高了40%。特别是手指关节怎么弯、手掌怎么转,现在识别得特别准。之所以这么厉害,是因为这个系统不光是靠摄像头看画面,还在底层用神经网络过滤掉噪音,再用预测算法补上延迟,这样一套流程下来,感觉就像手上真的有东西在动一样。 这个升级带来的好处不仅仅是玩家玩得更爽。开发者那边也省事了,Meta给了他们一堆经过百万次测试的手势库,像传送、攀爬这种动作直接就能调用。这让做游戏或者搞培训的团队开发周期一下子缩短了60%,门槛变低了。有机构预测,像健身和教育这些领域的应用数量两年内就能翻一倍。 既然系统变好了,设备本身肯定也要跟着变。Meta早就开始研发下一代的“Quest Air”,本来打算明年就出,但因为要兼容新系统又给推迟到了2025年。还有那个原本暂停的第三方合作计划也没继续,说明大家都在憋着劲堆技术壁垒。不光是硬件在动,软件方面《Beat Saber》和《Supernatural》这些热门游戏也都要跟进新手势系统。甚至连做医疗培训的Osso VR都打算开发不需要手柄就能做手术模拟的模块。 美国专利局那边的数据也能说明问题,2023年全球关于虚拟现实的专利申请量多了210%,光是手势识别就占了37%。这一切都在告诉我们一个道理:虚拟现实产业正在转向。大家以前都是拼硬件参数有多高,现在更看重生态做得好不好;以前的开发模式是自己关起门来做,现在开始搞模块化共享了;以前要靠各种外设来操作,现在慢慢变成了直接用手就能感知。 有了5G-A网络和边缘计算的帮忙,未来的设备可能会变得更轻巧。虽然看着没多大变化,但它能通过云端的算力做到毫米级的动作预测。当视觉沉浸还只是初级阶段的时候,触觉交互才是重头戏。这次发生在毫米空间里的技术革命不只是数字的变化,更是让人感觉不到技术存在的存在。当你动动手指就能触发一连串反应的时候,人类感知的边界也会不知不觉被拓宽。这既考验工程的智慧,也是对以人为本理念的一种回归。