AI 搞视频生成,现已进化到这个程度了?!
对着一张相片顺手一刷,就能让被选中的目标动起来!
明明是一辆停止的货车,一刷就跑了起来,连光影都完美复原:
原本只是一张火灾相片,现在顺手一刷就能让火焰直冲天边,热度扑面而来:
这样下去,哪还分得清相片和实拍视频!
本来,这是 Runway 给 AI 视频软件 Gen-2 打造的新功用,一涂一刷就能让图画中的物体动起来,逼真程度不亚于神笔马良。
虽然只是个功用预热,不过作用一出就在网上爆火:
看得网友一个个变身急急国王,直呼 “等不及想要尝试一波”:
Runway 同时还放出了更多功用预热作用,一起来看看。
这个 Runway 新出的功用,叫做运动笔刷(Motion Brush)。
顾名思义,只需要用这个笔刷对着画面中的任意对象 “涂” 一下,就能让他们动起来。
不仅能够是停止的人,连裙摆和头部的动作都很自然:
还能够是流动的液体如瀑布,连雾气都能复原:
或者是一根还没熄灭的烟:
一团正在世人面前燃烧的篝火:
更大块的布景也能做成动态的,乃至改变画面的光影作用,例如正在飞速移动的乌云:
当然,上面这些都仍是 Runway“亮明牌”,自动告诉你他们对相片 “做了四肢”。
下面这些没有涂抹痕迹的视频,更是几乎彻底看不出有 AI 润饰的成分在里面:
一连串作用炸出,也导致功用还没正式放出来,网友现已迫不及待了。
不少人企图了解这个功用究竟是怎么实现的。也有网友更重视功用啥时候出,希望到时候直接 321 上链接(手动狗头)
的确能够期待一波了。
不过,不止是 Runway 推出的这个 Motion Brush 新功用。
最近一连串的 AI 生成进展似乎都在标明,视频生成范畴似乎真要迎来技能大爆发了。
就像在这几天,还有网友开发了很火的文生动画软件 Animatediff 的新玩法。
只需要结合最新的研讨 LCM-LORA,生成 16 帧的动画视频只需要 7 秒钟的时间。
LCM-LORA 是清华大学和 Hugging Face 新出的一个 AI 图片生成技能,能够让 Stable Diffusion 的图片生成速度大幅提升。
其间,LCM(Latent Consistency Models)是基于今年早些时候 OpenAI 的 “一致性模型” 提出来的一种图画生成新方法,能快速生成 768768 的高分辨率图片。
但 LCM 不兼容现有模型,因此清华和抱抱脸的成员又新出了一版 LCM-LORA 模型,能够兼容一切 Stable Diffusion 模型,加速出图速度。
结合 Animatediff 软件,生成一个这样的动画只需要 7 秒钟左右:
现在 LCM-LORA 现已在抱抱脸上开源。
你感觉最近的 AI 视频生成进展怎么,距离可用上还有多远?
参考链接:
[1]twitter.com/runwayml/st…
[2]twitter.com/op7418/stat…
版权一切,未经授权不得以任何方式转载及使用,违者必究。