其实早在2016年的时候,跟大家分享过一篇类似的技术。当时也是UE4联合的几家业界顶级的实时技术企业一起搞的。其实感觉要比这次真实。只是这次很多技术更加的强大了。Demo中同样使用了3Lateral的面部捕捉技术,渲染用的UE4,同样还是将真人演员变成实时的数字化角色。
这个项目是几家大牛公司一起搞出来的,其中有Vicon,面部捕捉专家3Lateral和Cubic Motion还有QQ,不不不,是腾讯!

过程是这样的,在Rig Logic提供的实时面部绑定的基础上,3Lateral对演员脸部进行3D和4D的扫描。接下来由Cubic Motion处理面部表演捕捉,跟踪,解算和动画。然后全身表演动捕使用的是Vicon的Vantage光学动作捕捉系统进行录制,并使用Shōgun 1.2 软件和UE4的实时链接功能进行流媒体播放。就是最后我们看到的视频中的效果了。
要想塑造写实人物其中重要的几点是眼睛,皮肤和头发的塑造,这在单帧离线渲染都是需要不断调试的。然而我们从这次的演示中可以看到,实时渲染的眼睛,皮肤和头发效果是相当的惊人,这其中的改进包括双叶镜面反射,后向散射和屏幕空间辐照度。
这个CG角色是用时了3Lateral的Meta Human架构进行的体积捕捉,面部重建和数据压缩创建。数据在在流传输过程中清除,系统会自动估算肌肉收缩曲线。这些曲线也可以手动补偿。
3Lateral还展示了Serkis的面部表演重新定位到其他CG角色的展示,是一个面部比例截然不同角色。这里我们可以看到这个角色的效果要比第一个视频的效果要好一些,但这不是输出的原因,而是因为我们的大脑对于人类的真实性的察觉更加敏感。