AI要砸Photoshop饭碗了?可直接拖拽调整图像的AI来了
13963 0
实名

通过了实名认证的内容创造者

发布于 2023-5-25 11:23:56

您需要 登录 才可以下载或查看,没有账号?注册

x
本帖最后由 CG世界 于 2023-5-25 11:30 编辑

不好意思,今天我还得给大家介绍有关AI的内容。之前,或者说去年,更具体说今年一月份之前,大家怎么也不会想到AI迭代到这种程度。而且越来越离谱了。合成满足用户需求的图像内容通常需要对生成对象的姿势、形状、表情和布局进行灵活而精确的控制。现有方法通过手动注释的训练数据或先前的3D模型来获得生成对抗性网络(GAN)的可控性,这通常缺乏灵活性、准确性和通用性。为此,一个研究小组开发了一种功能强大,而需要较少的控制GANs的方法,用户只需要以交互拖拽图像上的点,即可精确达到目标效果。比如一只狗狗,你可以通过拖拽直接修改狗狗嘴的大小,是否站立还是趴着,腿的长短等等。
475e58f2b5243282bd2e3d0eced447bb.gif
这个新的AI技术叫DragGAN,是一种处理生成图像的创新技术。这种方法可以让用户在图像上设置点然后拖动交互地调整,实现目标点的精确定位,来实现想要的结果。
这种方法包括两个主要的组成部分。第一个组件是基于特征的运动管理,它引导手柄点向所需位置移动。第二部分涉及一种新颖的点跟踪方法,利用判别性GAN特征来连续定位处理点的位置。
使用DragGAN可以灵活地变形图像,同时保持对像素位置的完全控制。这样的话就可以随意对各种类别的图像进行改动,如动物、汽车、人类、风景等等,可以调整姿势、形状、表情和布局。
66132e39a079709ec540670782028c5b.gif



由于这些操作是在GAN的学习生成图像流上执行的,即使在具有挑战性的场景中,如产生被遮挡的内容和始终遵循物体刚性的变形形状,也可以产生写实的输出效果。定性和定量比较都证明了DragGAN在图像处理和点跟踪任务中优于现有方法。


目前开发者没有公布代码,从论文发布的介绍得知,预计将会在6六月份公布代码。虽然不能上手一试,但是看看官方的演示,感觉也很丝滑和舒坦,下面小编把官方演示的一些案例截取动图放在这里,让大家过过眼瘾。Emmm,先上视频吧。














论文地址:
https://huggingface.co/papers/2305.10973
end

公众号链接:https://mp.weixin.qq.com/s/VfxSC4c-V1XG43LQ4FB6fA
内容主要涵盖影视特效,CG动国,前沿CG技术,作品欣賞
使用道具 <
您需要登录后才可以回帖 登录 | 注册

本版积分规则

快速回复 返回顶部 返回列表