从个人到集体,迈向更多元的3D人体动作生成技术

发布时间:2024-06-27 13:09:22 浏览量:99次

近期关注的3D人体动作生成技术受到越来越多的关注,探索更加全面且多样化的动作生成方法。新技术基于GAN和Transformer框架,不仅支持单人动作生成,还能轻松拓展到多人动作生成。通过构建GTA Combat数据集,填补了现有复杂场景交互数据集的不足。

ActFormer框架支持多种类型的人体动作表征,实现单人/多人动作生成

点击咨询

简介

3D人体动作生成是计算机视觉和图形学中的热门话题,特别是近期的文本描述生成人体动作研究更受关注。现有工作局限于某些人体表征,忽略多人动作生成,因此需要更通用的框架支持多种人体动作表征和单人/多人动作生成。

具体方法

Actformer框架图

Actformer可以生成含有多个个体的人体动作序列,支持骨架坐标或SMPL参数模型表示。单人动作生成需要考虑时序连贯性,采用高斯过程隐式先验和Transformer生成网络。

多人动作生成通过交互Transformer和时序Transformer结构实现,共享隐式表征,保证生成结果同步。

生成过程采用生成对抗训练,通过条件Wasserstein GAN损失函数训练。实验中,考虑了人的全局位移并应用了数据增强方案。

GTA Combat数据集

为弥补多人交互数据集的缺乏,基于GTA-V游戏引擎合成了多人打架数据集,保证交互真实感和丰富随机性。

GTA Combat数据集概况

实验

在多个数据集上进行实验,证明了算法的有效性和泛化性。评测使用动作识别准确率和FID分数作为量化指标,结果表明算法效果优异。

单人动作生成结果对比

多人动作生成结果对比

NTU-1P上的网络模块消融实验

NTU-2P上的网络模块消融实验

多人交互编码消融实验

可视化结果

点击咨询

结论

继续关注3D人体动作生成领域的发展,新技术展示了巨大的潜力。欢迎加入我们共同探索人体动作/交互的理解与生成领域。

参考文献:
- Guo, Chuan, et al. “Action2motion: Conditioned generation of 3d human motions.” Proceedings of the 28th ACM International Conference on Multimedia. 2020.
- Petrovich, Mathis, Michael J. Black, and Gül Varol. “Action-conditioned 3D human motion synthesis with transformer VAE.” Proceedings of the IEEE/CVF International Conference on Computer Vision. 2021.
- Yan, Sijie, et al. “Convolutional sequence generation for skeleton-based action synthesis.” Proceedings of the IEEE/CVF International Conference on Computer Vision. 2019.
- Yan, Sijie, Yuanjun Xiong, and Dahua Lin. “Spatial temporal graph convolutional networks for skeleton-based action recognition.” Proceedings of the AAAI conference on artificial intelligence. Vol. 32. No. 1. 2018.
- Loper, Matthew, et al. “SMPL: A skinned multi-person linear model.” ACM transactions on graphics (TOG) 34.6 (2015): 1-16.

点击咨询

热门课程推荐

热门资讯

请绑定手机号

x

微信扫码在线答疑

扫码领福利1V1在线答疑

点击咨询
添加老师微信,马上领取免费课程资源

1. 打开微信扫一扫,扫描左侧二维码

2. 添加老师微信,马上领取免费课程资源

同学您好!

您已成功报名0元试学活动,老师会在第一时间与您取得联系,请保持电话畅通!
确定