两年一度的国际计算机视觉大会 (International Conference on Computer Vision,澳门金沙官网;ICCV) 将于 2019 年 10 月 27 日 - 11 月 2 日在韩国首尔举行,近日论文收录名单揭晓,腾讯优图共有13篇论文入选,居业界实验室前列,此中3篇中选做口头陈诉(Oral),该类论文仅占总投稿数的4.3%(200/4323)。 ICCV被誉为计算机视觉领域三大顶级会议之一(别的两个为CVPR、ECCV),任命率十分低,其论文集代表了计算机视觉领域最新的开展标的目的和程度。本届ICCV共收到4323篇论文投稿,此中1075篇被任命,录取率25%。 本次入选的论文波及2D图像多视图天生、人脸照片的图像转换等,提出了诸多亮点。 下面将对腾讯优图入选的两篇论文停止重点解析。 1、基于视角无关特性的多视图匹敌天生框架 View Independent Generative Adversarial Network for Novel View Synthesis 本论文与香港中文大学合作完成。 2D图像的多视图天生任务,指的是基于单张2D图像,天生其差别视角下的图像信息。此类方法能够在不波及复杂的三维重建的根底上,实现多个视角下的信息的合成不都雅察。比方下图中给定特定视角的2D图像,能够天生其他各个视角的图像信息: 该论文提出了一种实用于此类任务的匹敌天生框架,旨在通过连系图像对应的相机参数信息,实现对于多类物体均实用的多视角转换框架。久远来看,这项手艺的应用有望让通俗的2D视频也能实现3D不都雅感,就像在片子院不都雅看的3D片子一样。 现有的多视图天生使射中,当前基于天生模型的方法将预先提取输入图像中与视角信息无关的特性,而后将视角信息相干的参数作用于此特性,进而得到天生的结果。该论文中,作者利用此种思路,独特以多种损失函数的设置,使用相机参数加上图像信息来得到与视角无关的特性。比拟于现有的方法,该方法实用于一连相机参数下的多视图天生,并不限定于数个固定的视角。 除了合成视图与监视信息之间的损失函数之外,本文提出利用一种基于轮回天生的重建损失函数,来提拔合成视图的精确性;同时借鉴目前的匹敌天生手艺,从图像本人的天生散布,与图像的姿势精确性保证两方面出发,提出两个差别作用的匹敌学习损失,以提拔天生图像的质量和合成视图的姿势精确度。 该框架能够实用于差别类另外物体。 起首是人脸在预先设定的有限数目的视角之间的转换结果。最左边是输入的2D图像,箭头右侧均为天生的,差别视角下的结果。 应对其他一般的物体。通过在Shape-Net这个数据集上的多个类别物体作为数据,得到以下结果: 通过在多个类另外物体上停止多视图天生任务,使用多个定量定性指标来停止评价,证明该方法具有通用性,且在多个类别任务上表示良好。 本文入选ICCV 2019口头陈诉(Oral),该类论文录取率约4.3%。 论文地址: 2、基于属性自光流域的非监视图像转换算法 Attribute-Driven Spontaneous Motion in Unpaired Image Translation 微笑心情转换结果图。从左到右挨次为:输入、StarGAN结果、该论文结果 本论文与香港中文大学、哈工大深圳钻研院合作完成。 人脸照片随着社交软件的普及被大幅度地应用于各种社交应用中,而人脸照片的自动化编纂一方面作为社交软件的娱乐应用促进了社交用户的交流,另一方面也帮手用户对人脸照片停止快速的自动化编纂。因为深度学习的鼓起,基于深度神经搜集的图像转换(Image translation)手艺常常被应用于图像编纂任务上。 现有的图像变更算法主要基于天生匹敌神经搜集,这些算法只管能天生较高分辨率的图像,但因为它们较少思考图像之间的几何变形关系,转换后的图像往往包罗许多瑕疵和失真,尤其是在原图像域和宗旨图像域几何构造纷歧致的环境下。 本论文提出了SPM(自光流模块),希望通过学习差别图像域间的光流处理图像的几何变更问题。其框架以传统的天生器-判别器作为根底,此中,天生器用于天生更好的图像,而判别器用于判别天生器天生图像的质量好坏,此外,他们在天生器的根底搜集构造上做出扩展以顺应图像转换之中的几何变更。扩展后的天生器包罗两个主要模块,自光流模块SPM和微调模块R。此外,该论文还引入了从低分辨率图像到高分辨率的天生计划。 整体框架图 本文提出的自光流模块,通过输入原图像和宗旨属性,自光流域模块旨在预测光流,并使用光流对原图像采用变形操作得到中间结果图像。该论文使用一个编码-解码搜集作为该模块的主要构造,此中他们主要思考了搜集构造、域分类器、微调模块、残差构造、留神力掩码几方面的设计。 同时,为了产生更高分辨率的图像,该论文采用了一种新鲜的粗到细的神经搜集训练策略。 在训练好低分辨的神经搜集后会有许多中间结果的低分辨率体现。详细地,低分辨率的自光流域w残差r以及留神力掩码m是已知的。为了得到它们的高分辨率体现,起首对它们停止双线性插值上采样到分辨率更高的w, r以及m。但是通过双线性插值的上采样所得到的结果往往是含糊的,因而对于这三个变量他们引入了三个小的加强神经搜集对上采样的结果停止微调。使用微调后的高分辨率中间结果,我们即可对高分辨率的输入图像停止解决和转换,并最后得到响应的高分辨转换结果。 RaFD数据集上的图像转换结果,从左到右挨次为:输入、愤恨、惊慌、开心(后三个为算法天生结果) 本论文通过提出自光流模块,将图像域间的几何变更显式地引入到了图像转换框架中。算法主要在CelebA-HQ和RaFD数据集上停止验证,其结果比拟于现有算法都有必然的提拔。其各局部的实验充分证了然该框架的有效性,而且获得了很好的图像转换效果。这一框架也给处理图像转换中的几何变更问题提供了新的处理思路。 论文地址: (责任编辑:) |