stable-diffusion-videos AI视频

eye 2023年11月29日 102次浏览

stable-diffusion-videos

我们发布了稳定视频扩散,这是我们第一个基于图像模型稳定扩散的生成视频基础模型。

这种最先进的生成式 AI 视频模型现已提供研究预览版,它代表了我们为各种类型的每个人创建模型的旅程中迈出的重要一步。

通过此研究版本,我们在GitHub 存储库上提供了稳定视频扩散的代码,并且可以在我们的Hugging Face 页面上找到本地运行模型所需的权重。有关该模型技术能力的更多详细信息可以在我们的研究论文中找到。

适用于多种视频应用

我们的视频模型可以轻松适应各种下游任务,包括通过对多视图数据集进行微调从单个图像进行多视图合成。我们正在计划建立和扩展这个基础的各种模型,类似于围绕稳定扩散建立的生态系统。

具有竞争力的性能

稳定视频扩散以两种图像到视频模型的形式发布,能够以每秒 3 到 30 帧之间的可定制帧速率生成 14 和 25 帧。在以基础形式发布时,通过外部评估,我们发现这些模型超越了用户偏好研究中领先的封闭模型。