几张手机照片就能打造3D写实角色建模?AI建模软件迎来井喷式更新!网友:跟不上节奏了...
73072 0
实名

通过了实名认证的内容创造者

发布于 2023-4-28 16:45:40

您需要 登录 才可以下载或查看,没有账号?注册

x


ggac.com
只需几张手机照片就能打造3D写实角色建模?
这是扎克伯格刚刚发布的1款演示快来康康👇👇👇
[micxp_wxonkey]wxv_2616783885431095296[/micxp_wxonkey]Codec Avatars 2.0部分功能演示
视频中Meta展示了最新全身编码器化身Codec Avatars 2.0用户只需使用手机简单扫描即可轻松创建更加细节、高质量逼真的虚拟化身
今日凌晨1点一年一度的Connect大会正式拉开序幕扎克伯格除了展示新产品Meta Quest Pro之外

512a8b67a7afbac718a5f22ddb0c8b39.png

还在之后的技术演示中
展示了Codec Avatars 2.0的最新进展
不仅化身的面部表情更加真实、生动便于社交时通过微表情和语气理解彼此甚至还能控制光照

0734565b595f43bc194d1af83cf20891.gif





而利用正在开发的Instant Codec Avatars
只需用智能手机从不同角度扫描人脸再进行各种表情的扫描
几个小时就能生成这样精细的虚拟化身据悉,未来这个时间还会进一步缩短







以前可能需要一个VR头显才能实现的景象Meta现在说不用带这东西了,有个iPhone就行了!
只要一台带正面深度传感器的智能手机直接扫一扫你,就能生成逼真的虚拟人头像
那么这到底是个什么事物他是怎么产生的呢让我们一起来看看官方是怎么设计的

# Codec Avatars 的由来 #

官方于 2019 年 3 月首次展示了“Codec Avatars”的工作第一代数字人是利用多重神经网络用 132 个摄像头的专用捕获装置生成的


Codec Avatars1.0版本演示
一旦生成在VR头显设备上的5个摄像头每只眼部提供两个内部视角脸部以下提供三个外部视角
↓就像下面这样↓

Codec Avatars官方演示
从那时起,研究人员一直致力于更新功能比如只需麦克风和眼球追踪技术就可以获得更逼真的形象
最终在2020年8月进化为Codec Avatar 2.0版这次更新的最大进步在于
摄像头不再需要扫描跟踪人脸而是只要跟踪眼球的运动就行了


Codec Avatars官方演示
新的神经网络将VR头显的眼动追踪数据与麦克风的音频推送相融合推断佩戴者可能的面部表情
将声音模型和眼动模型数据反馈至混合模型再经过融合模型计算处理由渲染器输出Avatar形象


Codec Avatars官方演示
今年5月,团队更进一步宣布2.0版本彻底达成了“完全逼真”的效果
让我们根据官方示例进行对比a为真人照片,e为最终渲染生成的虚拟人


Codec Avatars官方演示
上面这是实验中的比对结果实际上应用场景下目前Meta虚拟人的形象是这样的


Codec Avatars官方演示
有网友对此表示此技术的不断发展有可能冲击到现有行业
AI技术的发展在近1个月便开始逐步深入到建模相关行业中除了本次公布的技术外让我们看看还有哪些热度较高的新应用

# 一块GPU每秒生成20个模型 #

近日,英伟达发布了最新的GET3D模型能快速生成虚拟世界的对象而且只需要一块GPU每秒就能产出大约20个模型
[micxp_wxonkey]wxv_2591683399644626945[/micxp_wxonkey]
来自NVIDIA的AI研究人员介绍了GET3D这是一种新的生成模型GET3D通过一系列2D图像训练后可生成具有高保真纹理和复杂几何细节的 3D 形状



GET3D之所以得名是因为它能够生成显式纹理3D网格它创建的形状是三角形网格的形式就像纸模型一样,上面覆盖着纹理材质
而且这个模型可以生成多类型且高质量的模型
汽车的车轮、灯和车窗摩托车的后视镜、车轮胎上的纹理都能办到





研究团队仅用2天时间就使用A100 GPU在大约100万张图像上训练了模型





随后研究人员又进行了广泛的实验来评估该模型如下图所示,在每一行中展示了由相同的几何隐藏代码生成的形状同时更改了纹理代码
在每一列中展示了由相同的纹理隐藏代码生成的形状同时更改了几何代码



研究人员在每一行中相同的纹理隐藏代码生成的形状从左到右插入几何隐藏代码
并由相同的几何隐藏代码生成的形状同时从上到下插入纹理代码结果显示,每个插值对生成模型都是有意义的



而且在每一行中可以添加一个小噪声来局部扰乱隐藏代码通过这种方式GET3D能够在局部生成外观相似但略有差异的形状



不仅如此,结合英伟达的另一个AI工具StyleGAN-NADA开发人员可以使用文本提示为图像添加特定的风格







英伟达人工智能研究副总裁Sanja Fidler表示”GET3D让我们离人工智能驱动的3D内容创作大众化又近了一步“
“它即时生成带纹理3D形状的能力可能会改变开发人员的游戏规则帮助他们用各种有趣的对象快速填充虚拟世界”

# 文本直接生成3D模型 #

今年9月底,Google研究员另辟蹊径提出一个新模型DreamFusion先使用一个预训练2D扩散模型基于文本提示生成一张二维图像



[micxp_wxonkey]wxv_2601053441410760705[/micxp_wxonkey]
然后引入一个基于概率密度蒸馏的损失函数通过梯度下降法优化一个随机初始化的神经辐射场NeRF模型
训练后的模型可以在任意角度、任意光照条件、任意三维环境中基于给定的文本提示生成模型
整个过程既不需要3D训练数据也无需修改图像扩散模型完全依赖预训练扩散模型作为先验
[micxp_wxonkey]wxv_2601054612410105857[/micxp_wxonkey]
目前 Dreamfusion 还未完全做到工具开源不过项目网站上也提供了生成的词条组合比如说下面这样
[micxp_wxonkey]wxv_2601055246555316224[/micxp_wxonkey]
项目地址在下方
dreamfusion3d.github.io感兴趣的小伙伴可以前往尝试下哦
微博评论区下的网友也感到十分震惊感叹AI发展速度快的同时也对是否会引起部分行业冲击感到担忧






评论区网友的想法
大家觉得扎克伯格此次的演示效果如何?3D建模行业也会受到AI的影响吗?欢迎在评论区留言分享

评分

参与人数 6元素币 +42 活跃度 +18 展开 理由
Ap1600 + 7 + 4 元素帖子强,满满正能量。
zhoujielun + 7 + 3 精彩的内容
wstracy + 7 + 3 【点赞】这很有大网气质!
末颜mo + 8 + 3 压箱底的宝贝吧这是
Maditer + 4 + 1 看好楼主
ayanamiasu... + 9 + 4 想要成大触,天天上元素。

查看全部评分

GGAC旗下CG行业全媒体矩阵,日推游戏/动漫美术
使用道具 <
您需要登录后才可以回帖 登录 | 注册

本版积分规则

快速回复 返回顶部 返回列表