斯皮尔伯格发起的大型裸眼立体设备项目——实时反馈的Automultiscopic Projector Array

发表于2016-02-25
评论1 1k浏览

 

大型项目Automultiscopic Projector Array

 

近期为大家介绍了很多VR主题公园以及他们自研的VR设备和大型体感设施,VR虚拟现实用于游戏、影视等娱乐用途确实非常多见,不过今天要介绍给大家的却是一款用于博物馆(保留人声和形体)资料展示用的大型设备Automultiscopic Projector Array,这套设备由南加利佛尼亚大学的長野光希团队开发,而这项研究计划的发起人则是大名鼎鼎、曾拍摄《辛德勒名单》的大导演史蒂文·斯皮尔伯格。

 

项目实施人長野光希

 

Holocaust Museum&Education Center大屠杀博物馆位于美国伊利诺伊州,主要收集、保存了二战时德国纳粹进行大屠杀的大量证物,而其中最宝贵的则是一些70年后犹太幸存者的影像资料,这些幸存者都已年过80,为了将他们对那个年代的残酷记忆和亲身经历记录并流传后世,旨在使用裸眼观看1比1真实比例的大型3D投影设备Automultiscopic Projector Array计划正式展开。

 

各个角度看到的Pinchas Gutter立体影像

 

这项计划得到了大屠杀幸存者Pinchas Gutter的协助,在Automultiscopic Projector Array设备研究过程中同时得到了Pinchas Gutter累计长达30个小时的采访资料,为了用于之后的虚拟现实设备,采访时使用了30台松下X900MK摄像机,成半环形排列每隔6度摆放一个进行拍摄。录制的工作结束后,接下来才用到改良型立体显示设备Automultiscopic Projector Array,电脑可以将录制的影像进行重新编辑,放大10倍后以0.625度的误差最后可以转换成216视点的影像,并拆分成2000个影音资料,然后分给交互技术团队和影像技术团队进行后期开发。

 

216个Vivitek的LED光源投影输出系统

 

交互技术团队由南加利佛尼亚机械系研究室负责,使用自研的语言引擎对资料中的问题和回答进行重新构筑,以确保博物馆的来访者在提问时,都能得到实时反馈式的回答,就像以往的科幻电影中的3D视频电话一样进行实时交互。其中的声音、文字转换系统得到了Google提供的Google Speech API系统的协助支持,在加入学习型机械AI技术后,就可以达到除了关键字搜索之外的实时问答反馈效果了。

 

Luiminit的特殊屏幕

 

长野团队则负责影像技术的合成和投影,使用216个Vivitek的LED光源投影仪(分辨率1280×800),将光源打在Luiminit制造的特殊半透明屏幕上,影像向垂直方向60度扩散而仅向水平方向1度进行扩散,水平方向1度的扩散效果达到了裸眼立体显示器的功能,使体验者在任何角度都能看到一个真实比例的Gutter本尊。

 

图解多画面的输出合成原理:

 

 

 

 

 

216台投影设备由搭载Radeon HD 7870的6台PC进行输出,每台PC输出12个画面,每个画面的分辨率为3840×800,最后组合的图像效果让体验者能够看到人物的表情、身体各部分动作。

 

实时交互仿佛与本人在聊天一样

 

这套Automultiscopic Projector Array项目非常适合进行博物馆、展览馆的人声保存,笔者在撰写这篇文章时首先想到的就是我国的抗战老兵,如果能用设备记录下他们在抗战时的回忆,对我们和后代来说都是一笔难以估量的财富。


如社区发表内容存在侵权行为,您可以点击这里查看侵权投诉指引