标签:视频生成

媲美Sora,最长2分钟!快手发布文生视频大模型-可灵

快手AI团队发布了一款名为“可灵”的文生视频大模型,专注于AIGC领域的发展和应用落地。可灵模型能够通过文本生成2分钟、1080P、每秒30帧的超长视频,其在色彩...

文生视频平台Pika,获8000万美元B轮融资

Pika视频平台,专注于AIGC领域,近日宣布获得8000万美元的B轮融资,投资者包括Greycroft、Lightspeed、Neo、Makers Fund以及Jared Leto和Craig Kallman。至此...

Sora是世界模拟器吗?全球首篇综述全面解析通用世界模型

步骤2:撰写摘要近日,北京极佳视界科技有限公司(极佳科技)联合多家单位发布了全球首篇通用世界模型综述。该综述通过260余篇文献,全面探索了世界模型在视...

Open-Sora全面开源升级:支持16s视频生成和720p分辨率

Open-Sora,一个开源的文本到视频生成项目,最近进行了一次悄无声息的更新,带来了一系列令人兴奋的新功能。现在,它能够支持长达16秒的视频生成,分辨率最高...

Sora之后,OpenAI Lilian Weng亲自撰文教你从头设计视频生成扩散模型

步骤2:撰写摘要Lilian Weng在其博客中探讨了视频生成的扩散模型,这是图像合成领域的一个更复杂的任务。视频生成需要在不同帧之间保持时间一致性,并且收集...

攻陷短视频后,Sora将需要72万块H100 GPU

文章主要讨论了 OpenAI 推出的 Sora 模型,这是一个建立在扩散 Transformers(DiT)之上的扩散模型,用于生成逼真的视频内容。Sora 证明了扩大视频模型的有效...

全日程发布|Sora之后的视频生成技术与应用

论坛将邀请行业内知名专家和一线技术负责人进行演讲,如张俊林、朱思语、曾妍、陈石、杨欢、高一钊、王耀晖、卞正达和童同。他们将分享视频生成领域的技术突...

文本直接生成2分钟视频,即将开源模型StreamingT2V

AIGC领域的新突破: 研究人员来自Picsart人工智能研究所、德克萨斯大学和SHI实验室联合推出了StreamingT2V视频模型,该模型能够通过文本直接生成不同时间长度...

详解Latte:去年底上线的全球首个开源文生视频DiT

摘要:Latte模型是一个开源的文生视频DiT模型,由上海人工智能实验室的研究团队联合其他机构开发。该模型旨在解决将DiT模型扩展到视频生成领域的挑战。文章详...

复刻Sora的通用视频生成能力,开源多智能体框架Mora来了

摘要:Mora 是一个由理海大学和微软研究院提出的多智能体框架,旨在复制 OpenAI 的 Sora 视频生成模型的能力。Mora 通过整合多个视觉 AI 智能体,成功模仿了 ...
1234