当前位置:首页 >探索 >谷歌开源 3D 舞蹈生成模型 FACT 涵盖了 10 种舞蹈流派

谷歌开源 3D 舞蹈生成模型 FACT 涵盖了 10 种舞蹈流派

2024-06-30 19:16:09 [百科] 来源:避面尹邢网

谷歌开源 3D 舞蹈生成模型 FACT

作者:御坂弟弟 开源 谷歌开源了其基于 AIST++ 的谷歌 3D 舞蹈生成模型 FACT。该模型不仅可以学习音乐-运动对应关系,开源还可以生成以音乐为基础的蹈生 3D 运动序列。

谷歌开源了其基于 AIST++ 的成模 3D 舞蹈生成模型 FACT。该模型不仅可以学习音乐-运动对应关系,谷歌还可以生成以音乐为基础的开源 3D 运动序列。

[[423754]]

谷歌开源 3D 舞蹈生成模型 FACT 涵盖了 10  种舞蹈流派

此前,蹈生谷歌层发布了大规模的成模多模态 3D 舞蹈动作数据集 AIST++,它包含了 1408 个序列中 5.2 小时的谷歌 3D 舞蹈动作,涵盖了 10 种舞蹈流派,开源每个序列都包括已知相机姿势的蹈生多视角视频。而 FACT 模型则可以使用使用这些数据从音乐生成 3D 舞蹈,成模甚至可以帮助增强一个人的谷歌编舞能力。

谷歌开源 3D 舞蹈生成模型 FACT 涵盖了 10  种舞蹈流派

根据谷歌描述,开源该模型首先使用单独的蹈生运动和音频转换器对种子运动和音频输入进行编码,然后将嵌入连接起来并发送到跨模态转换器,该转换器学习两种模态之间的对应关系并生成 N 个未来的运动序列,然后使用这些序列以自我监督的方式训练模型。在测试时,将此模型应用于自回归框架,其中预测的运动作为下一代步骤的输入,从而使 FACT 模型能够逐帧生成长距离舞蹈动作。

谷歌开源 3D 舞蹈生成模型 FACT 涵盖了 10  种舞蹈流派

此外,谷歌还解释了 FACT 涉及的三个关键设计选择,这些选择对于从音乐中产生逼真的 3D 舞蹈动作至关重要,包括所有转换器都使用全注意掩码、训练模型会预测当前输入之外的 N 个未来而不仅仅是下一个动作以及采用了一个深度的12层跨模式转换模块。最终,FACT 表现出了较好的运动质量、生成多样性、以及节拍对齐分数。

目前,用于训练的数据 AIST++、FACT 模型代码以及一个经过训练的模型均已发布。

本文转自OSCHINA

本文标题:谷歌开源 3D 舞蹈生成模型 FACT

本文地址:https://www.oschina.net/news/160132/google-publish-fact

责任编辑:未丽燕 来源: 开源中国 谷歌3D舞蹈生成模型FACT

(责任编辑:休闲)

    推荐文章
    热点阅读