得益于CG和AI等技术的推动,虚拟数字人逐步进入成熟期,其核心技术为建模、驱动、渲染技术,其中驱动技术是至关重要的一步,它给数字人注入了灵魂,实现从“静”到“动”的效果。目前根据驱动方式的不同可以分为AI智能驱动和真人驱动。 真人驱动型虚拟人需要动作捕捉系统采集演员(中之人)的动作、表情,并将其呈现在虚拟数字人上,从而实现与用户的实时交互。由于真人驱动型数字人为真人操作,它在动作灵活度、互动效果等方面都有着明显的优势,然而若实时性得不到保证,在实际应用中的效果也会大打折扣。 想要实现良好的动作捕捉效果,除了演员生动的表演外,还需要选择合适的动捕设备,保证动捕的实时性。通常动作捕捉系统都包括传感器、信号采集装置、数据传输装置和数据处理装置这四部分。 传感器用来采集人体的运动信息,并将其提供给计算机,再通过信号采集装置捕捉人体的位置,之后通过数据传输装置将大量的运动数据从信号采集装置快速准确地传输到计算机系统进行处理,最后再使用数据处理装置将捕捉到的数据进行修正等,使虚拟数字人自然地运动起来。 12月19日,青瞳视觉联合创始人祖厚超将以《面向虚拟数字人的实时动捕技术》为主题带来「虚拟数字人动捕技术系列直播课」最后一讲的的直播讲解。 青瞳视觉是国内一流光学动作捕捉系统生产商,其自主研发红外光学动作捕捉系列产品,系统服务于虚拟现实主题乐园、影视、游戏等泛娱乐文化产业和医疗、运动、工程、生物等诸多领域。 在这一讲中,祖厚超老师首先介绍实时对于虚拟数字人的重要性,之后会重点介绍实时动作捕捉的实现难点与组成部分。最后他还会简述虚拟数字人动捕技术的未来发展趋势。 「虚拟数字人动捕技术系列直播课」每一讲都将以视频直播形式在智东西公开课知识店铺进行。每一讲由40分钟主讲与20分钟问答组成。 主 题 《面向虚拟数字人的实时动捕技术》 提 纲 1、实时对于虚拟数字人的重要性 2、实时动作捕捉实现难点 3、实时动捕技术的组成部分 4、虚拟数字人动捕技术发展趋势 主讲人 祖厚超,上海青瞳视觉科技有限公司联合创始人,聚焦MOCAP/数字人领域,参与国产光学动作捕捉全流程开发与应用,参与并主导面部捕捉系统头盔设计和全息式裸眼立体显示系统开发与应用。 直播信息 直播时间:12月19日19:00 直播地点:智东西公开课知识店铺