体验过好VR头盔的人都会觉得十分震撼,但头上接着根线总觉得十分别扭。特别是对于HTC Vive和VR体验馆来说,两者都强调用户能够在空间中自由行走,然而有线成了一种羁绊。 、 看看各大科技媒体的评价也很容易发现他们都有这个共同的抱怨: 瘾科技: 事实上在游玩的走动时我自己是会去闪避避免被线绊倒,但在游玩到最后一项游戏的时候,会发现还是有可能因为动作过于剧烈的关系让线组从信号盒上脱落造成信号出状况。必须说有线的设计还是一个比较大的游玩限制。 Venture Beat: 在体验HTC Vive的原型机时,我为了不被绊倒特意系了条皮带——现在回想起来,Valve肯定有人跟在我后面确保我不会被那些线绊倒。 PC MAG: 因为是能够自由走动的一种互动体验,你得把房间里的家具清理开来,并且还得注意不要被头盔后面拖着的线绊倒了。 看得出来这已经成为影响VR体验的一大因素了,所以很多做VR硬件的公司都在尝试解决这个问题。 解决方案一:PC串流 这是比较容易想到的一个方法,也就是用无线传输替代有线传输,画面在PC上渲染完后通过WiFi串流到头盔上(类似Steamlink这种将PC游戏串流到电视的功能)。这里面的问题在于延迟,在VR当中,画面显示的延迟需要很低,通常20毫秒被业内认为是个分水岭。 现在的视频串流技术可以将延迟降到1毫秒以下,这很不错。不幸的是,一段未压缩的1440p 90hz视频流的数据量高达8Gb每秒。而目前即便是高端的千兆路由器也满足不了这样的带宽需求。为此,图像必须在压缩之后再进行传输。然而压缩和解压的过程会增加80毫秒左右的延迟,足以让你戴一会儿就吐。 这个问题有几个解决办法: 提高带宽 有一个显而易见的方法是提高带宽,先说远一点的,5G网络未来可以达到1Tbit每秒,介时8K分辨率的头显也能不用压缩地使用无线传输,只是这大概还要5 年才能实现;近一点是Li-Fi,这种技术能够实现10 GBps的低延时传输,而且可能在未来几年就能商用;而最让人充满期待的可能是新一代无线网络标准802.11ad,也就是WiGig。802.11ad 协议的最高传输速度在7Gb/s,而且延迟很低。而且莱迪思半导体旗下的SiBEAM称,目前自己已能使用标准CMOS技术制造60GHz 芯片配合Snap技术,传输速度可达12Gb/s。 本地图像变换(Local Image Warping) 一种更复杂的办法是接受这80毫秒的延迟,然后尝试在事后解决问题,方法是将旧的图像转换到新的头部位置。这仍然会产生一些输入延迟,但不是让你想吐的那种头部运动。 本地图像变换的标准做法是异步时间扭曲(Asynchronous Timewarp,ATW,一种生成中间帧的技术),从PC端接收数据,然后用头显端一个小的GPU对其进行转换,从而以一个新视角来显示旧图像,使得尽管有高延迟,图像更新也是流畅的。 乍看起来,这个办法相当不错,但其实还是有一些问题。比如,由于ATW产生的图像只初始图像转换而来,它并不知道物体的运动轨迹,所以图像失真仍然会出现,表现出来就是运动物体出现重影的情况(见下图)。Oculus的研究人员Michael Antonov在这篇帖子中对此进行了详细解释。 解决方案二:本地渲染 另一个完全不同的解决办法是忘掉PC,把渲染的工作交给头盔,也就是业内常说的“一体机”。微软的HoloLens和三星的Gear VR都是这么做的。 关于HoloLens目前知道的还不是很详细,但Gear VR的局限则很明显。移动GPU仅能支撑最基本水平的VR体验,还需要强优化才行。散热也是一大问题,导致帧率上不去,另外头盔也缺少位置追踪。不过随着移动技术的进步,摩尔定率发挥作用,这些问题可能会有所改善。 当然,Gear VR并不是真正的一体机,它用的是手机,而手机并不是专门为VR设计的。如果从头开始开发一款移动VR设备,能做的改变有很多。比如你可以用两块高端移动GPU,高刷新率的屏幕以及一块更大的电池。各个部件可以不用集成在一起,让头盔的重量分布更加均衡,同时也改善散热。最终的产品形态可能和索尼PS VR很像。 目前高端PC要达到1080p人眼水平逼真的游戏体验还需要5个翻倍(摩尔定率,PC性能每18个月翻一倍)。对于VR来说,3D效果还需要翻倍,而去掉网格效应的8K每眼分辨率需要再翻3倍。另外,移动平台还需要翻4倍才能赶上PC。 把这些倍数加起来再乘以18个月,结果是大约20年。到那时,人眼便看不出移动VR和PC VR渲染的画面之间的区别了。 在此之前,有线和无线的PC VR可能都会一直存在。 声明:晶品映像《gpimg.cn》所发布的内容均来源于互联网,目的在于传递信息,但不代表本站赞同其观点及立场,版权归 属原作者,如有侵权请联系删除。 |