研究员用AI为虚拟角色生成栩栩如生行为动作
根据高级命令生成精确的高质量动画并实现各种复杂的行为
(映维网 2019年11月06日)为了帮助虚拟角色实现更自然的移动,爱丁堡大学和Adobe的研究团队开发了一种利用深度学习来辅助角色实时奔跑,跳跃,避开障碍物,拾取对象的角色控制系统。
研究人员在论文中指出:“我们的神经架构从各种任务中学习不同的动作和过渡,从而获取了用于角色控制的状态机。我们的神经网络学会了根据高级命令生成精确的高质量动画并实现各种复杂的行为,如走向椅子并坐下,在离开房间之前首先开门,以及从桌上或桌子下搬离箱子。”
相关论文:AI4Animation
这项研究与众不同的地方在于,用户可以通过简单的控制命令来实时无缝地控制角色。
团队利用了使用英伟达 GeForce GPU和cuDNN-accelerated TensorFlow深度学习框架,并以16GB的数据训练模型。整个训练过程耗费了70 epoch,单个GPU 大约20个小时。经过训练,网络体积减小到250MB左右。
模型架构的主要组件是选通网络和运动预测网络。
选通网络将当前状态的参数和目标动作向量的子集作为输入,然后输出混合系数并将其用于生成运动预测网络。运动预测网络将前一帧的姿态,轨迹控制变量和目标参数作为输入,并预测当前帧的相关变量。
当然,研究人员承认,尽管系统能够相当出色地处理训练期间所熟悉的椅子等对象,但尚无法支持其他不同的几何形状。为了适应更大范围的3D对象,研究小组计划增加训练规模。
研究人员解释说,这项研究可以用于的诸如游戏和虚拟现实系统等实时应用。
实际上,这是团队2017年研究的后续研究。据悉,他们将在本月举行的SIGGRAPH Asia大会展示这份新论文。