ExVideo 是一项视频生成模型的后训练技术,旨在通过后训练增强模型的生成能力。我们在 Stable Video Diffusio 的基础上进行了扩展,使其能够生成 128 帧长视频。 这是我们公开的第一个模型,由于计算资源限制,这个模型仅在约 4 万视频上使用 8 x A100 训练了一周左右,因此模型有时会生成不符合现实规律的内容,还请期待我们后续的模型发布。 请参考 DiffSyth 获取更多信息。 |||||
|-|-|-|-|
|ExVideo
使用方式
from diffsyth import save_video, ModelMaager, SVDVideoPipelie
import torch, requests
from PIL import Image
# Load models
model_maager = ModelMaager(torch_dtype=torch.float16, device="cuda",
model_id_list=["stable-video-diffusio-img2vid-xt", "ExVideo-SVD-128f-v1"])
pipe = SVDVideoPipelie.from_model_maager(model_maager)
# Geerate a video
torch.maual_seed(0)
image = Image.ope(requests.get("https://www.modelscope.c/api/v1/studio/ECNU-CILab/ExVideo-SVD-128f-v1/repo?Revisio=master&FilePath=images%2F0.pg", stream=True).raw)
image.save("image.pg")
video = pipe(
iput_image=image.resize((512, 512)),
um_frames=128, fps=30, height=512, width=512,
motio_bucket_id=127,
um_iferece_steps=50,
mi_cfg_scale=2, max_cfg_scale=2, cotrast_ehace_scale=1.2
)
save_video(video, "video.mp4", fps=30)
样例展示
|
|
|
|
|
|
|
|
|
|
|
|
|
|
点击空白处退出提示
评论