RunwayML发布Multi-Motion Brush功能,Pixverse推出3D动画生成

本周,Runway Gen-2面向高级用户推出了Multi-Motion Brush功能。该功能支持在图像中选择5个不同的区域,设置不同的运动方向。

例如,我们可以控制人物五官的移动方向,或者控制图像中不同物体的运动方式。使用笔刷工具,选中任意人物,设定移动方向,即可生成对应的视频。Multi-Motion的笔刷分为五种颜色,可以自定义图像中任意区域的移动方向。

上传一张机器人的图像,设置头部和手臂的移动方向,也可以实现对应的效果。即使是较为复杂的图像,也能使用,设置不同区域的运动方式,生成炫酷的短视频。

此外,还有用户使用Multi-Motion Brush,控制油画中人物面部和孔雀的局部移动,效果非常不错。目前,该功能还处于Beta测试,部分高级用户可以抢先体验。普通用户仅能使用单一的motion brush功能。

作为近期最热门的视频生成平台,Pixverse也在本周推出了全新的3D动画生成模型:Login (pixverse.ai)。Pixverse不但免费,还支持4K高清分辨率输出。结合最新发布的3D动画模型,可以轻松制作媲美迪斯尼的3D风格动画。现在访问Pixverse的官网,即可尝试该功能。

首先,选择一张3D风格的图像,选择Image to video模式,设置好Motion值,开始生成视频。从生成的结果可以看出,整体效果还是不错的。然后,测试一下文本转视频功能,输入一段简单的提示,Style选择3D animation,点击生成视频。

从生成的结果可以看出,PixVerse可以根据我们的提示词,输出逼真的人物形象和动态背景,移动也很平顺。目前,PixVerse没有任何限制,我们可以一次生成四段短视频。处理速度也非常快。输入详细的描述和负面提示词,方可获得最佳的效果。通过多组测试,3D Animation模型可以生成高质量的动画,值得大家尝试。如果对结果不满意,还可以点击下方的retry,重新生成视频。

选择一段喜欢的视频,点击下方的upscale选项,完成分辨率和画质增强。现在,大家可以看一下最终输出的结果,无论是画质还是细节,都达到了电影级的水平。此外PixVerse还具备很强的图像文本生成视频能力,大家可以尝试。

本周,Mootion也推出一项重磅的功能,可以提取视频中人物的动作,并根据参考图生成相同动作的视频。效果非常不错。点击链接:Discord,访问Mootion的Discord服务器。

选择任意的房间,输入/capture命令,上传一段科目三舞蹈的视频。然后,选择Akari角色,inplace设置为true,即可生成一段视频。我们可以看到,输出的动画基本还原了视频中人物的舞蹈动作。

尽管动作还有些僵硬,整体效果还是不错的。选择机器人角色,也可以模拟街霸游戏中的人物动作。除了提取参考视频动作,我们还可以输入文本,据此生成例如Playing with toy,Touch Face的动作,或者生成亲吻和翻滚的动作。效果非常不错。

Mootion的capture功能进一步简化了动作提取的流程,即使是一些复杂的动作,也能轻松捕捉。

发表回复