当手环和眼镜要「在一起」了,个人计算平台会不会变天?
严格来说,视频并不是一个交互媒介,因为观众只是接收讯息,并不能跟视频里的画面实时互动。但是麻省理工学院(MIT)正在改变这一现实:该校计算机科学与人工智能实验室(CSAIL)研发了一项新技术,让观众可以伸出手“触碰”并操控影像里的物体,就像在真实世界里一样。
谷歌指派了四名员工(包括两名工程师和两名设计师)花费 30 个星期设计了 60 款测试应用,并在每个周一邀请公司内部的志愿者进行测试。现在,Daydream 团队对外分享了他们在设计过程中吸取的经验教训,VR 次元独家整理报道。
此前,为了适应 VR 内容的创作,出现了Maya 的 Oculus 插件,Unreal Engine 和 Unity 也相继宣布把编辑器 VR 化,三维开发中,三位建模和场景编辑都将 VR 化,唯独编程似乎还没 VR 化。
在今年的东京电玩展上,索尼公司发布了两款PlayStation虚拟现实游戏,在表面上看,两款游戏没啥关系。一个是惊悚的游戏场景,把玩家放置在一个阴森可怕的环境之中;另一个则把玩家带到了一个美丽的海边,而且还有一个热辣的年轻姑娘。
今天 HN 上又出了一个VR编程的视频,搭配 Oculus Rift、Firefox WebVR、JS 和 Three.js,实现在三维虚拟现实空间中实时编程的效果。
【外评】电脑从哪里获取时间?
【外评】为什么 Stack Overflow 正在消失?
有时
【外评】哪些开源项目被广泛使用,但仅由少数人维护?
【外评】好的重构与不好的重构
【外评】代码审查反模式
【外评】Linux 桌面市场份额升至 4.45
【外评】作为全栈开发人员如何跟上 AI/ML 的发展?
数据类型简明指导
第三颗原子弹