(相关资料图)
IT之家 4 月 20 日消息,英伟达和康奈尔大学的研究团队合作,近日推出了名为 VideoLDM 模型,可以根据文本描述,自动生成最高分辨率 2048*1280、24 帧、最长 4.7 秒的视频。
英伟达表示该模型配有 41 亿个参数,其中 27 亿个经过视频训练,这符合现代生成式 AI 的标准。IT之家从博文中获悉,英伟达表示通过高效的潜在扩散模型(LDM),能够创建多样化、高质量、高清晰度的视频。
该模型还能创建驾驶场景的视频,视频分辨率为 1024 × 512 像素,最长 5 分钟。英伟达表示目前该项目处于研究阶段,暂时不会向公众开放。
详细报告可以访问:https://research.nvidia.com/labs/toronto-ai/VideoLDM/
标签: