研究员用AI为虚拟角色生成栩栩如生行为动作

查看引用/信息源请点击:映维网

根据高级命令生成精确的高质量动画并实现各种复杂的行为

映维网 2019年11月06日)为了帮助虚拟角色实现更自然的移动,爱丁堡大学和Adobe的研究团队开发了一种利用深度学习来辅助角色实时奔跑,跳跃,避开障碍物,拾取对象的角色控制系统。

研究人员在论文中指出:“我们的神经架构从各种任务中学习不同的动作和过渡,从而获取了用于角色控制的状态机。我们的神经网络学会了根据高级命令生成精确的高质量动画并实现各种复杂的行为,如走向椅子并坐下,在离开房间之前首先开门,以及从桌上或桌子下搬离箱子。”

相关论文AI4Animation

这项研究与众不同的地方在于,用户可以通过简单的控制命令来实时无缝地控制角色。

团队利用了使用英伟达 GeForce GPU和cuDNN-accelerated TensorFlow深度学习框架,并以16GB的数据训练模型。整个训练过程耗费了70 epoch,单个GPU 大约20个小时。经过训练,网络体积减小到250MB左右。

......(全文 577 字,剩余 248 字)


请微信扫码通过小程序阅读完整文章
或者登入网站阅读完整文章
映维网会员可直接登入网站阅读
PICO员工可联系映维网免费获取权限

本文链接https://news.nweon.com/68307
转载须知:转载摘编需注明来源映维网并保留本文链接
素材版权:除额外说明,文章所用图片、视频均来自文章关联个人、企业实体等提供
QQ交流群苹果Vision  |  Meta Quest  |  微软HoloLens  |  AR/VR开发者  |  映维粉丝读者

您可能还喜欢...

资讯