本站 9 月 24 日消息,火山引擎正式发布了豆包视频生成-pixeldance、豆包视频生成-seaweed 两款大模型,面向企业市场开启邀测,这也意味着字b c ` w ;节跳动正式宣告进军 ai 视频生成。本站注:新款豆包视l D u ;频生成模型目前正在即梦 ai 内测版小范围测试。该模型支持高效的 dit 融合计算单* L n A p ^ : u元、全新设计的扩散模型训练方法和深度优化的 transformer 结构,可以实现更充分地压缩编码视频与文本,支持一致性多镜W N _ * F e头生成,能够大幅B a f H提升视频生成的泛化能力。官方介绍称,无论e [ d H \ l ! Z是语义理解能力,多个主体运动的h + w 2复杂交互画面,还是多镜头切换的内容一致性,豆包视频生成大模型均达到业界y f R Z z ) z先进水平。
1. 火山引擎总裁谭待表示,t t D t“视_ M T , – w频生成有很多难关亟待突破。豆包两款模型会持续演进,在解决9 R Y L ) 4 4关键问题上探索更多可能性,加速拓展 AI 视频的创作空间和应用落地。”
- 谭待表示,豆包视频生成q . R } ~ t u大模型支持多风格多比例的一致性多镜头生成,可应用在电商营销、动画教育、城市文旅、微剧本等领域。
- 此外,谭待表示,豆包大模型发布以来使用量爆发式增长。截至 9 月,豆包语言模型的日均 tokens 使用量超过 1.3 万亿,相比 5 月首次发布时猛增十倍,多模态数据处理量也分别达到每天 5000 万张图片和 85 万小时语音。
此前视频生成模型大多只能完成简单指令,豆包视频生成模型则能实现自然连贯的多拍动作与多主体复杂交互。有创作者在抢鲜体验豆包视频生成模型时发现,其生成的视频不仅能够遵循复杂指令,让不同人物完成多个动作指令的互动,人物样貌、服装细节甚至头饰在不同运镜下也Q T d 2保持一致,接近实拍效果。
据火山引擎介绍,豆包视频生成模型基于 DiT 架构,通过高效的 DiT 融合计算单元,让视频在大动态与运镜中自由切@ ` T e @换,拥有变焦、环绕、平摇、缩放、目标跟随等多镜头语言能力。豆包视频生成模型具备专业级光影布局和色彩调和,画面视觉极具美感和真实感。
深度优化的 Transformer 结构,则大幅提升了豆包视频生成模型生成的泛化能力,支持 3D 动画、2D 动3 g E Z T : 1画、国画、黑白、厚涂等多种风格,适配电影、电视、D 9 # v s电脑、手机等各种设备的比例,不仅适用于! $ P ~ t D L E电商营销、动画教育e 5 x } 1 =、城市文旅、微剧本等企业场景E } I,也能为专业创作者和艺术家们提供创作x & Q C ! [ O辅助。
以上就是字节4 ; F {跳动豆包视频生成大模型发+ z m F D A =布:首次突破多主体互动难关,支持多风e S W O c W k T格多比例的一致性多镜头生成的详细内容!