【译】动漫世界在VR中再现,SCEJA和SATELIGHT公司推荐的新型VR内容制作方法

发表于2016-03-20
评论0 1.1k浏览

翻译原文章链接:http://www.4gamer.net/games/251/G025118/20150907065/(侵权删)


对开发了PlayStation4(以下,PS4)用的虚拟现实对应的头戴显示器(以下,VR HMD“Project Morpheus”(以下,Morpheus)的索尼公司来说,无论如何虚拟现实(以下,VR)的主要内容还是VR游戏。话虽这样说,若将VR视为PC娱乐的新媒体,那么其内容当然和游戏是不同的。

为如此游戏以外的VR内容,索尼和动画工作室SATELIGHT合作开发了“‘AKB0048’X‘大天使多次元特别LIVE”(以下特别LIVE”)的VR内容,曾经在2014年东京电玩展有过展示。

如图是2014东京电玩展展示的特别LIVE”的图像。体验者穿戴Morpheus,在眼前体验战斗

 

CEDEC 2015“Project Morpheus实现新型动画形式-动画业界和游戏业界相互融合的未来演讲中,介绍了前面提到的特别LIVE”开发时所得见解,并阐述了今后其推广的说明。本文将有很多意味深远的话的演讲进行概要总结。

担任演讲的是索尼娱乐公司的秋山贤成。

对于360度全周图像来说,需要与电视不同的视线诱导技术

秋山君最初说明了以电视画面为前提的内容和VR HMD这样的全范围视界画面内容的制作方法的不同。

在电视画面中,所有的播放画面也就仅仅是一个矩形的画面,因为所有画面都在矩形区域进行最合适的构图和表演,视频的制作已有一套基本规则,游戏也与此相同。

无论游戏还是动画,均以电视屏幕为前提画面

 

然而在VR中,画面变成了360度的全范围图像,用户观看图像的哪里由用户决定。但是如果这样,从以故事为主要乐趣的游戏/动画内容的性质来看,要使剧情进行,必须限定全周图像的特定方向或特定区域才行。 也就是说在必要的时候必须让用户观看特定方向,要将此实现则VR内容特有的表演和视线诱导技术必不可少的。

VR和狭小的矩形画面不同,必须讨论VR特有的空间演示方式

话虽这样说,既然是全周图像的VR内容,用户总是只往一个方向观看的话就没什么意思了。但就算这样,使用FPS这样的自由晃动镜头的内容的话,又必须考虑到3D眩晕和VR眩晕的问题。

VR内容的主要特征就是能观看不同方向的图像。不过在虚拟世界中自由游走的话,会产生眩晕问题

 

在此秋山君通过在剧情脚本和表现上下了工夫,并提供了视线诱导和行动预测的提示,通过提供让人想向某个方向观看或想向某个方向移动的一些要素,也就是让用户感觉是按用户的意志来向某个方向移动或观察的,阐述了提高用户的沉浸感的必要性。

希望能够明确让人观看剧情和故事的进行的VR内容,限制用户的行动自由是必要的

 

不仅如此,制作特别LIVE”,需要用到Epic Games的游戏引擎“Unreal Engine 4”。使用UE4是因为PS4Morpheus本身就与UE4相适配,还有UE4上搭载了电影业界的开发者也能方便使用的镜头编辑器“Matinee”和可以使用在各种影视内容中通用的文件格式FBX为重要原因。以上要素,是CG影视使用的游戏以外的内容,这是使用UE4的重要理由。

在日本,因在游戏以外使用UE4的例子不断增加,特别LIVE”的制作也如此。其它VR内容制作采用UE4的例子也变多了

 

特别LIVE”中采用的技术经过慎重的检讨从理论到在演示中实用

 

接下来环节,将仔细说明在和SATELIGHT共同制作特别LIVE”时,将动画内容实现为VR内容的见解。从图像的矩形画面生成的作品,请看视频

 

https://www.youtube.com/watch?v=HCtoyb0JEXg&feature=youtu.be&hd=1

 

最先说明的是360度的全周图像中使用到的让用户向哪儿看的视线诱导技术。

特别LIVE”中,这个场景是敌方大天使从天空飞舞降下。在制作时,希望用户向敌方大天使登场场景处观看。在此,在敌方大天使下降之前,将从天空向地上降下的光线的场景按稍稍时间上有余的状态插入。并且,加入什么东西要从上面过来了!的台词,产生声音的视线诱导。

为让用户向上观看,加入故意要做什么的视线诱导表演是必要的

 

如果,就算用户并没有专注到视线诱导演出,也不能就这样将用户至于作品内任意行动。特别是在特别LIVE中以夜晚都市上空为舞台,美少女角色们在立体的轨道周围飞行,用户有可能把角色们跟丢,让用户不知道应该往哪里看才对。

特别LIVE”中,当少女们乘上飞行板飞行的时候,通过在其飞行轨迹上留下类似于飞行云的光点,从而达到无论用户向视线朝向哪边都可以清楚地明白少女们的飞行目的地。

 

就算视线跟丢了角色,使用飞行轨迹就可以清楚地明白她们在哪里,大量使用可以让用户尽早把视线              面向剧情进行的方向的技巧

 

由于登场的敌方机器人体型很巨大,有时候会出现用户的视线范围内只能看见敌方机器人的脚的状况。虽然这样也能体现出敌方机器人的宏大感,但后面的战斗剧情将在敌方机器人的胸部以上的空间展开,所以必须将用户的视线向上进行诱导。

但是突然向上仰望的动作在戴上VR HMD的状态下不是十分好做,也可能出现没有我在这要向上看这样的想法的用户。在此,在类似如此的场景中,当敌方机器人从空中落下的时候,加入了自动将视线向上运动的操作。

如果不是按用户意识进行视线操作的话,容易成为VR眩晕的原因。但在这里进行视线向上的操作,并不会影响有向上观看意识的用户,这样就不会产生眩晕的问题。

 

在突然向上仰望的场景中,强制的将视线向上移动,使用户容易将头部向上仰望

 

尝试使用在动画业界被称为画面震动的将画面全体进行震动的表现,秋山氏表示在尝试期间遇到了试行错误。

要加入表现当大型重物着地时产生的冲击或当遭受攻击时的反冲力的突然的画面震动,但按VR内容制作的基本原理这又是不应该使用的表现方式,可不加入这个又不能表现出令人激动的战斗场景的冲击力。在此,经过对画面震动的时机和速度、时间等的斟酌,在找到到这个地步的话应该没什么问题吧的妥协点的基础上,最终将其采用。

按秋山氏所说如果晃动太大的话是会容易眩晕,如果产生一定以上的晃动,也可能产生没有晃动的感觉,如果做如此巨大的晃动,画面是什么玩意可能都会搞不清楚。大概由于场景的动向也是其一大依赖要素,最适合的画面震动幅度,需要根据场景case by case进行慎重考虑。

虽然画面震动是电视动画的常用技巧,但在VR中是否采用就需要好好讨论了

最终在几个场景采用了画面震动

 

验证画面震动的程度的样本视频已经公开,下面的链接是youtube的样本视频。通过这个视频,应该可以清楚地感受到添加适当画面震动后的最终效果。

 

https://www.youtube.com/embed/EwFVQqbIIFs?rel=0&hd=1

 

和画面震动同样,需要慎重讨论之后采用的要素还有,roll·pitchロール・ビッチ)方向的观察点操作。虽然很多人一看就知道,但暂且还是说明一下。rollロール)是指头在向前观看的状态下左右倾斜,即对前后方向的坐标轴进行旋转。同样pitchビッチ)是指将头上下倾斜,即观察点上下旋转。

由于这样的观察点操作会使用户看到的视界全体移动,这样的话现实世界的静止状态和假想世界的动作产生了违和感,应该避免这样的摄像机动作产生的眩晕感。

地平线倾斜和roll·pitch方向的观察点动作,从VR眩晕的观点来看是应该避免的。

 

可是特别LIVE”中,因为需要表现里面叫做无限拳头的像鞭子一样的拳头攻击在用户视界里大范围冲击飞行的迫力,尽管只有很短的时间,还是加入了roll·pitch的观察点操作。

秋山氏提醒道:虽然制作方认为这种程度不构成问题,但也自知这不是应该经常使用的表演技巧。和画面震动一样,导入的时候应该经过慎重的判断。

特别LIVE中,以迫力优先进行了短时间导入。不过和画面震动一样应慎重决定。

特别LIVE制作时得到的反思点

 

如此制作的特别LIVE虽然在TGS 2014进行了公开,但其制作时间仅仅只有一个半月。秋山氏多次表示时间完全不够。因此,没能够将所有想添加的VR表演实际加入使用,秋山氏举出了现在才能这样说的以下几个积累留下的要素和反思点。

第一点是:“假想空间中登场的物体的规模感和现实稍微有些不同。本来应按照现实世界对物体的规模感,对物体的大小进行调整。

本作品中,由于人类角色相对建筑物稍微制作地有些小,当用户从这样建筑物旁边通过时,会察觉3D立体视角中的规模感假假的。尽管电视画面中难以发觉,但在VR中却是应该关注的一个重点。

第二点是:各种各样的音响效果和效果音仅仅只是单纯地被立体声混合这一点。

本来的话,应该使用3D位置音效技术,随着用户的朝向和对应位置关系进行音量和声音定位控制,在本作品中将其省略了。UE4本身的话可以对应3D位置音效制作VR内容,但没有制作单纯是因为制作时间不够。

第三点是:没有更多地加入互动要素。

特别LIVE”是不能够让用户进行什么操作的VR内容,但用户的位置和头的朝向信息是系统能够获取的。也就是说在技术上能够让角色们对用户注视视线,但由于制作时间不足而没有加入这一要素。

TGS 2014公开版本中,虽然角色的视线是固定的,但如果用户不从基准位置偏离,视线可以自然地对上。

没有在特别LIVE中加入的要素

 

秋山氏还说明了由于在动画业界和游戏业界之间CG内容制作的过程和系统不同,花费了很多努力。今后可能会不断增加利用游戏引擎制作具有互动的VR动画内容的工程。

首先一点就是,动画表现的数据结构的问题。

动画业界在制作离线渲染的CG动画时,为了表现自然而且复杂的动作往往有将刚体(リグ)的构造往复杂的方向制作的倾向。但以实时渲染为前提的UE4中,与刚体构造相关的细节规格有所不同,利用“Maya”为基础的3DCG制作工具制作的数据结构是不能够直接在UE4中直接使用。

按秋山氏所说,本作品的制作时原以为可以将模型对UE4进行格式转换,可是在实际使用时模型有些部分并没有按想定的样子变换。将3D模型和刚体结构正式加入制作之前,应在开始阶段先在实机(这里用的是PS4Morpheus)上进行动作确认测试。

就算能够变换,也不能保证能正常使用。秋山氏强调应该在前期在实机上测试

 

第二点是:设计好的材质和观看效果是否成功按预计显示应在开发前期检查。

这可以说是以离线渲染CG为中心的动画业界和以实时渲染CG为中心的游戏业界两者间文化性的不同而产生的问题点吧。

材质(shader)和位置设定这些流程,在离线渲染CG和实时渲染CG中制作有些微妙的不同。为此离线渲染CG制作的内容应在开发初期进行设计使得这些内容尽可能地在实时渲染中能以管线流程为基本进行绘制。

 

第三点就比较单纯了即性能方面的最优化十分必要。

由于离线渲染CG中的世界基本没有考虑过实时绘制,将数据包直接在实机上使用的话,虽说动是可以动不过会出现帧数不足或不稳定这些计算机负荷问题。如果将所有素材做好后再进行性能优化的话不仅浪费时间而且作业困难度也十分高。为此秋山氏提出在制作素材之前先对计算机处理负荷进行预测,在制作初期阶段有意识地考虑到性能面进行制作。

 

特别LIVE”的样本中发出叫做无限拳的必杀技,拳头像鞭子一样到处延伸的场景。本作在制作开始,拳头的关节一块就有三万左右个多边形,这就成了实时绘制的屏障。在制作游戏时如果同时出现大量几何体一般都使用LOD。当初虽然没有用LOD,但最终在公开版中还是使用了300个多边形的模型,才使运算负荷改善。

制作素材是还是要有意识地考虑计算机处理负荷,最好别把性能优化放到后面在解决。

 

以大天使为主题的面向Morpheus的新VR内容正在制作中

 

演讲的后半段,特别LIVE”的实质的SATELIGHT制作担当制作人畑 秀明和导演畑山勇太登场展示了现在正在制作中的新作VR作品。当前制作的新作是SATELIGHT上手的大天使系列主题作。

此次的新作将加入在“特别LIVE”中没有加入的互动性和3D位置音效,制作初期有意识的以实时VR为要求,并将UE4拥有的图像表现尽最大程度加入作品。

SCEJAサテライトヒストリア 3大公司联合制作VR新作

 

开发中的新作Demo。屏幕上是用户观看的视角,右下角的体验者双手手持PS Move进行互动

 

前作特别LIVE”是只有观察点操作的被动VR体验,这次的新作大天使VRDemo可以利用左右手持PS Move操控巨大机器人的手脚。

还有一看点就是插入的辅助女性角色们。这些角色交互并非3DCG,而是由SATELIGHT公司制作的2D动画。挑战了一下将2D动画和VR体检进行融合,可以说很好的表现了本作沉浸动画世界的理念。

 

新作演示视频:http://www.youtube.com/embed/6jtb4CIQaGs?rel=0&hd=1

 

SATELIGHT通过一系列的VR动画内容制作项目,感受到VR这一巨大的可能性。畑氏他们表示就算不是完成的游戏,但觉得能做出十分有趣的VR作品的感觉是最大的收获,这也是不断挑战VR内容制作的一大欲望。

特别是长年以来积攒下来的表现和故事技巧手法,前作表明这些在VR内容中也能有效的使用。这些确信和自信,给了SATELIGHT继续挑战的欲望。无论如何SCEJASATELIGHT亲自着手的VR内容,是以动画为基础制作,可以感受到和游戏不一样的VR内容的可能性。

如社区发表内容存在侵权行为,您可以点击这里查看侵权投诉指引