上海交通大学在读博士杨理欣:基于图像的手物交互重建与虚拟人手生成 | AI新青年讲座

「AI新青年讲座」将邀请世界顶尖AI研究机构和大学的科研新青年,主讲他们在计算机视觉、机器学习等人工智能领域的最新重要研究成果。

AI新青年是加速人工智能前沿研究的新生力量。AI新青年的视频讲解和直播答疑,将可以帮助大家增进对人工智能前沿研究的理解,相应领域的专业知识也能够得以积累加深。同时,通过与AI新青年的直接交流,大家在AI学习和应用AI的过程中遇到的问题,也能够尽快解决。

有兴趣分享学术成果的朋友,可以与智东西公开课教研团队进行邮件(class@zhidx.com)联系。

对于“元宇宙(Metaverse)”的想象上限,可能就是2018年的电影《头号玩家》了。而事实上在那部电影里的角色,在进入“绿洲世界”看到自己的虚拟人物时,下意识都会通过动动双手来判断自己与这一虚拟世界的拟真度与交互尺度,但主角其实是并没有用任何手柄的。

基于视觉的手势交互,用户无需穿戴设备,具有交互方便、自然和表达丰富的优点,符合人机自然交互的大趋势,适用范围广。基于视觉的手势交互作为人机交互的重要组成部分,对实现人与VR虚拟环境自然交互具有重要意义,有广泛的应用前景。

而与单体的手势姿态估计任务不同,理解 3D 空间中的手与物体(多体)交互更具挑战性,因为它包含高自由度的关节空间、受到自身或相互之间遮挡的影响、以及需要满足复杂的物理约束。

上海交通大学机器视觉与人工智能实验室在读博士杨理欣等人发现接触可以为重建手物交互提供丰富的线索,而手在解剖学上的关节约束可以帮助我们在重建与生成时控制手部运动。在他们的一系列工作中,将接触建模为一对牵引手和物体表面顶点的“弹簧”,以及描述该接触置信度的“弹性系数”。

那么如何利用接触和关节约束生成不同的交互姿势,并迁移同类物体的不同交互呢?7月4日,「AI新青年讲座」第133讲,上海交通大学机器视觉与人工智能实验室在读博士杨理欣将主讲《基于图像的手物交互重建与虚拟人手生成》。

讲者

杨理欣,上海交通大学机器视觉与人工智能实验室在读博士,研究内容包括计算机视觉、3D 视觉、V-SLAM 和机器人导航;目前专注于建模与模仿手和物体之间的交互过程,并在ICCV、CVPR、BMVC会议上发表一作论文4篇;2019年开始,接受卢策吾教授的指导,在上海交大机器视觉与人工智能实验室(MVIG)工作与学习;在此之前,于上海交大智能机器人实验室获得了硕士学位,导师为曹其新教授。

讲座介绍

主题

《基于图像的手物交互重建与虚拟人手生成》

1、基于图像的的手物交互重建
2、利用接触和关节约束优化手部重建
3、虚拟人手的生成与训练
4、手部操作经验的迁移实践

课程信息

直播时间:7月4日18:00
直播地点:智东西公开课知识店铺

论文成果

ArtiBoost/OakInk:《ArtiBoost: Boosting Articulated 3D Hand-Object Pose Estimation via Online Exploration and Synthesis》
《OakInk: A Large-scale Knowledge Repository for Understanding Hand-Object Interaction》

论文链接:https://arxiv.org/abs/2109.05488.pdf
https://arxiv.org/abs/2203.15709.pdf

开源地址:https://github.com/lixiny/ArtiBoost
https://oakink.net