您的位置:首页 >要闻 >正文

Stability AI在研究预览上推出生成视频模型

摘要 该公司表示,图像到视频模型仅用于研究目的,能够生成高质量的短片。新工具能够以 576 × 1024 分辨率、每秒 3 至 30 帧的速...

该公司表示,图像到视频模型仅用于研究目的,能够生成高质量的短片。

新工具能够以 576 × 1024 分辨率、每秒 3 至 30 帧的速度生成 14 至 25 帧。

稳定视频支持每帧的多视图合成,可以轻松地从其数据集进行调整。

这家人工智能公司表示,结果“超越了用户偏好研究中领先的封闭模型”、文本转视频平台 Runway 和 PikaLabs。

如何实现稳定的视频扩散

稳定视频扩散仍然无法用于实际和商业应用,使该模型处于“研究预览”状态。

然而,人们仍然可以尝试注册候补名单,以访问“即将推出的具有文本到视频界面的网络体验”。

Stable Diffusion 的创作者表示,选定的参与者必须同意某些使用条款,并且该模型仅适用于教育、创意和艺术目的。

稳定视频扩散不能用于“人物或事件的事实或真实再现”。

用于稳定视频的模型是在“图像和视频数据集的混合”上进行训练的,这些数据集在线公开提供。

版权声明:本文由用户上传,如有侵权请联系删除!