字节跳动发布Seedance 2.0多模态视频生成模型并开放入口
字节跳动在2月12日通过Seed团队的说明与产品页面介绍Seedance 2.0视频生成模型,并在对外发布中强调其对提示词的跟随能力与复杂场景生成质量。Seedance 2.0支持将文字、图片、视频与音频组合成同一次生成的输入,用户可在一次任务里同时提供多模态素材用于约束画面元素与节奏;说明写明最多可追加9张图片、3段视频片段与3段音频片段,用于对角色、场景、风格、声音氛围等进行细化。模型输出方面,发布信息写明可生成最长15秒的带音频片段,并把镜头运动、视觉特效与运动轨迹作为生成目标的一部分,适用于需要指定运镜、转场与动作连贯性的短视频片段。字节跳动在示例中展示了双人花样滑冰等多主体动作场景,并配合文字描述说明动作序列包含同步起跳、空中旋转与落冰等细节;发布信息还提到可参考基于文字的分镜脚本进行生成,用于把分镜描述转成连续镜头。可用性方面,Seedance 2.0当前通过Dreamina平台与豆包入口提供,发布信息未给出更广泛渠道的上线时间表,也未在同一页面披露版权保护或内容标识机制的具体规则。同一发布页面还把近期同类产品作为并列背景,提到Google Veo 3加入生成带音频片段的能力、OpenAI推出Sora 2与配套应用,以及Runway发布新版本视频模型等行业动向,用于说明短视频生成工具在近一年内持续迭代。围绕Seedance 2.0的演示内容,页面列举社交平台上出现的多种风格样片,包括动漫风、卡通风与偏电影质感的科幻镜头等;同时也指出网上可检索到包含《龙珠Z》《恶搞之家》《宝可梦》等角色形象的示例片段,页面没有在同一处给出Seedance 2.0对这类素材的权利校验与拦截策略。
支持率>95%