一文读懂GAN, pix2pix, CycleGAN和pix2pixHD
人员信息 主讲嘉宾 姓名 : 朱俊彦 (Jun-Yan Zhu) 现状 :麻省理工学院博士后(PostDoc at MIT),计算机科学与人工智能实验室(Computer Science and Artificial Intelligence Laboratory, CSAIL) 个人主页 : http://people.csail.mit.edu/junyanz/ 图形学中的尝试:趁手的武器 or 白费功夫? 在传统的图形学管线(pipeline)中,输出图像需要经过建模、材质贴图、光照、渲染等一系列繁琐的步骤(见下图)。 现在大家看到了Deep Learning的潜力,那我们自然的就有个想法:有没有可能使用Deep Learning简化计算机图形学(Computer Graphics)的研究呢? 一个直接的想法是把DNN“倒过来用”。之前的DNN可能是输入一幅图像,输出一个标签(比如说猫),那我们能不能输入“猫”这个字,输出一张猫的照片呢? 很遗憾,答案是No!因为这种任务实在太复杂啦!我们很难让DNN凭空输出图像这样的 高维数据(High dimensional data) (这里的“高维”可以理解成数据量大)。实际上,在很长一段时间里,DNN只能输出数字这种简单的、低分别率的小图像,就像下面这样: 而想要生成想游戏场景这类的图片,这种方法根本没用。所以