在完结26场超级公开课NVIDIA专场之后,自7月起,智东西公开课联合NVIDIA研究院推出了NVIDIA研究院系列,共计四讲。

第一讲是生成式对抗网络GAN公开课,于7月25日开讲,由NVIDIA研究院首席研究科学家刘洺堉老师在美国远程主讲,主题为《如何利用生成式对抗网络GAN实现“AI神笔马良”GauGAN的神奇效果》,让我们了解到了生成式对抗网络GAN在图像合成中的神奇效果。

生成图像建模是刘洺堉老师近年来的研究重点,工作包括pix2pixHD,vid2vid,GauGAN / SPADE,UNIT,MUNIT和FUNIT。

8月20日13点,刘洺堉老师将继续带来第二讲——无监督学习公开课。他将解析无监督学习在图像转换领域的创新和应用,主题为《如何利用少样本无监督学习实现高质量图像转换》,内容包括无监督学习的发展现状、无监督学习在图像转换领域的的应用和创新、少样本无监督图像转换FUNIT(Few-Shot Unsupervised Image-to-Image Translation)模型的实现和应用。

图像到图像转换方法可以应用在很多计算机视觉任务中,比如图像分割、图像修复、图像着色、图像超分辨率、图像风格(场景)变换等都属于图像到图像转换的应用范畴。那到底什么是图像到图像的转换呢?

如何利用少样本无监督学习实现高质量图像转换 | 公开课预告

我们看到一只站着的老虎时,自然很容易就能想象出它躺着的样子,这就是图像到图像的转换,即将一个场景的可能表示转换成另一个场景。然而我们能够想像出来是因为我们拥有联想的能力,可以根据其他动物平躺的姿势想像出老虎平躺的样子,然而对于机器来说就不那么简单了。

如何利用少样本无监督学习实现高质量图像转换 | 公开课预告

现有的基于无监督学习方法的图像到图像转换模型,依赖于大量的训练数据,并且模型转换的对象必须是训练数据中已有的对象类型,达不到想像创造的能力。2019年5月,NVIDIA研究院提出了一种基于少量样本的无监督学习图像到图像转换模型,仅通过少量样本的训练,即可实现图像到图像的转换,并且可以生成训练数据中不存在的类别,达到"一图生万物"的效果。

如何利用少样本无监督学习实现高质量图像转换 | 公开课预告

课程信息

主题:如何利用少样本无监督学习实现高质量图像转换
时间:8月20日13点
地点:智东西公开课直播间

课程内容

主题:如何利用少样本无监督学习实现高质量图像转换
讲师:NVIDIA研究院首席研究科学家刘洺堉

提纲
1.无监督学习发展现状
2.少样本无监督图像转换模型FUNIT解析
3.少样本无监督图像转换的应用前景和挑战

讲师介绍

刘洺堉,NVIDIA研究院首席研究科学家,曾任三菱电机研究实验院(MERL)首席研究科学家。2012年获得马里兰大学电气和计算机工程系博士学位。 2014年,刘洺堉因机器人视觉工作获得了R&D 100奖,他的街景理解论文是2015年机器人科学与系统(RSS)会议中最佳论文决赛入围者。在2018年的CVPR中,在语义分段竞赛的领域适应和光流估计竞赛中获得了第一名。近年来,他的研究重点是生成图像建模,工作包括pix2pixHD,vid2vid,GauGAN / SPADE,UNIT,MUNIT和FUNIT。他的生成模型作品已被包括纽约时报在内的各种媒体报导,研究目标是使机器具有类似人类想像力的能力。

入群路径

每一期课程,我们都会邀请主讲导师加入智一社群,需要继续交流的朋友,可以扫描上方海报底部二维码添加智东西公开课小助理大越(ID:xdxaxx)申请,添加时请备注姓名-公司-职位或者姓名-学校-专业。

社群规则

1、智东西社群坚持实名学习、交流和合作,入群后需要修改群昵称为:姓名-公司-所在领域,违者踢群;
2、禁止在群内广告和发送二维码等无关信息,违者踢群。