2019-12-03 04:32:31
作者 | 涂逸
编辑 | 唐里
基于美学的图像裁剪(aesthetic image cropping)的目标是在一张图片中找到具有最高美学评价的子图。
在本篇论文中,我们提出了一个新颖的图像裁剪模型来解决这个问题。对于每张图片,我们使用一个全卷积网络来生成一个同时对照片构图(photo composition)和物体显著性(object saliency)敏感的美学评分图(aesthetic score map),并让其所有候选子图都使用其进行美学评分。
该美学评分图可以用来定位图像中具有较高美学价值的区域,并帮助分析模型所学习到的构图规则。因此,我们的模型可以揭示美学评价的内在机理,具有良好的可解释性。我们在多个数据集上证明了本模型的优越性能,并展示了它的广泛应用场景。
本文已被AAAI20接收(https://arxiv.org/abs/1911.10492)。
模型概述
为了找到最佳子图,图像裁剪模型一般会先生成大量的候选子图,然后对每张子图逐个进行美学评分,最终确定评分最高的子图。因此,一般来说,图像裁剪模型通常由候选子图生成模型和美学评分模型两个部分组成。早期的研究通过利用一些摄影知识来实现美学评分,比如使用人类总结的构图规则,像是三分法和中心法则。它们通过定义并抽取相应的特征来衡量子图的构图优劣。
随着深度学习技术的发展,很多人开始以数据驱动的方式研究这个问题,收集并标注了许多美学数据集来学习人类的审美偏好。他们直接通过深度学习模型来学习并预测美学评分,并取得了不错的进展,但这类方法往往缺乏对美学评分机理的揭示与阐述。
我们认为,一个好的图像裁剪需要两步:首先是选定图片中最重要的内容,然后是把它放在一个构图最优的位置。所以本问题所需的知识可以分为两部分,即对内容的偏好(content preference)和对构图的偏好(composition preference)。因此,一个好的图像裁剪模型应该能够在从标注数据中同时学习这两种知识,并且能够在推荐最佳子图时利用它们。
为此,我们设计出了一个新颖的图像裁剪模型,ASM-Net。给定一张图片,ASM-Net首先会生成一张美学评分图(aesthetic score map)。这张图能够通过池化的方式来对任意子图给出一个对应美学评分。在训练时时,我们将标注过的子图的评分预测排序作为监督信息,用排序损失(ranking loss)训练模型;在测试时,我们对所有候选子图分别计算美学评分,将最高分子图作为最终剪裁结果。菜外,我们还利用了视觉显著性(visual saliency)对模型进行了约束,使得它会更关注显著区域的构图效果。
Composition-Aware Aesthetic Score Map
受到Class Activation Map 模型的启发,我们首先使用全卷积玩过对每张图片生成一个等大小的美学评分图。我们期望评分图上每一处的分值能够反映图片对应区域的美学重要性,进而能够把子图的平均分当作其美学评分。然而我们发现,因为美学评分问题本身的复杂性,这种设计并不能满足我们的需要。为此,我们需要让美学评分图具有更多的变化,比如对构图敏感。
受摄影构图规则的启发,我们认识到一个被拍摄物体在图片内的相对位置对其图片的美学评分很重要。比如,在中心法则中,我们总是将被拍摄物体放在中心位置,以实现一种对称和平衡的美感。因此,被拍摄物体位于一个子图中心时的美学评分应该大于它偏离中心时的评分。因此,我们认识到图片中每个区域在美学评分图上的审美分数应该随着其在不同子图中的相对位置发生变化。
为了实现这个目标,我们首先预设一些构图模板(composition pattern)。每个构图模板都能够将一个子图划分若干不重叠的相对位置,称之为构图分区(composition partition)。
给定一个构图模板,图片中每个部分的美学评分就要由它在每个子图中的相对位置,即构图分区决定。假设我们有九个构图分区,那么图片中每个部分的美学评分就一共有九种取值,取决于它在不同子图中所处的构图分区是否合适。这样,图片的每个区域不再由单个美学评分而是对构图分区敏感的一组评分表示。因此,我们的模型在学习标注数据的时候,不仅能够学习到图片中每个区域的总体审美偏好,还能够学习到它们出现在不同子图、处在不同构图分区时的审美偏好。
Saliency-Aware Aesthetic Score Map
视觉显著性是一种使物体吸引更多人类注意力的感知特性。一般来说,一张图片中具有较高视觉显著性的区域与图片中最重要的内容有很大的关联。因此,在图像裁剪问题中,我们可以利用视觉显著性来保护最要的重要内容不被剪裁掉。一些以前的方法已经在这个方向上做过一些尝试,它们的假设是:视觉显著性最高的区域或者显著物体(salient object),就是对应着图片中最重要的内容。在这个假设的前提下,它们生成的候选子图都一定会覆盖显著物体,这样最终预测的最佳子图就一定不会裁减掉重要内容。
然而,我们认为这样的假设有几个局限性。首先,许多现实世界的图像,比如一张聚会照片,可能有多个显著的区域,我们不能只关注最显著的一个。其次,一些照片,比如风景照,可能没有任何显著的物体,这可能导致上述方法失效。第三,显著的物体也可能是一个干扰物体,应该排除而不是包含在最优子图中。因此,在我们的方法中,我们采用了一个更合理的假设:图片中的显著区域应该对其构图分区更敏感的。这是因为显著的区域会吸引更多的注意力,所以它们的构图分区更加影响人们对子图的美学评价。为此,为了实现这一假设,我们设计了一种基于显著性损失函数。它通过让我们的模型对显著区域对美学评分更加敏感,使得模型在学习过程中更加关注显著物体应该放在子图的哪个构图分区。
实验与可视化结果
我们的模型在三个基准数据集上做了大量的实验,并使用了多种指标对结果进行了比较。实验我们模型的性能优于最先进的方法,并具有良好的通用性。除了定量结果,我们也提供了大量的可视化结果。
首先我们对比来自训练集中同一张图片的三个不同子图的美学评分。黑色数字表示其的标注评分,红色数字表明了其预测评分。可以看到,子图的预测评分的相对大小关系与标注评分是一致的,这表明了模型通过使用ranking loss学习到了训练数据集中的美学评分偏好。进一步,预测评分下的热力图表明了子图中每个区域的预测评分,而预测评分则是整个热力图的均值。前两个子图中有重叠的区域,然而其预测评分却不一样,这是因为重叠区域在两个子图中的构图分区不一样。第三个图的预测评分很低,这是因为它没有捕捉到整个图片中最显著的物体,信号灯。上述结果表明了我们的模型确实是同时考虑了构图分区和物体显著性的。
其次,我们对三类图片展示最优裁剪结果: 有一个显著的物体、有多个显著物体和没有显著物体。对于每一类,我们展示两张图片在五个长宽比(9:16、3:4、1:1、4:3和16:9)下的最优剪裁结果。在第三类没有显著物体的图片中,之前的基于显著性的方法可能会失效,因为它们依赖于显著物体的检测结果;然而我们的模型仍然可以达到令人满意的结果。这表明了我们模型的泛用性。
最后,我们还发现我们的模型可以用于对任意形状的子图进行美学评分。这里,我们尝试将矩形的图像裁剪任务扩展为圆形的裁剪,因为它有一些实际应用场景,比如生成圆形的用户头像。在上图中,圆形的剪裁结果也表明了我们模型的拓展性,也证明我们的模型学习到了可以在不同形状的子图之间通用的美学评价知识。更多结果可见http://bcmi.sjtu.edu.cn/home/niuli/paper/AIC_Supplementary.pdf。
总结
在本文中,我们提出了一个全新的图像裁剪模型。对于每一张待剪裁图片,我们的模型可以生成一个对构图分区和视觉显著性都很敏感的美学评分图。我们的模型可以学会将重要的的图片内容放在最恰当的子图位置,以剪裁得到美学评分最高的子图。我们的模型在大量实验上证明了其拥有最好的性能,并在实际应用中表现出良好的通用性和拓展性。我们的研究方法也对揭开美学评价的内在机理做出了贡献。
<li class="tool-item tool-active is-like "><a href="javascript:;"><svg class="icon" aria-hidden="true">
<use xlink:href="#csdnc-thumbsup"></use>
</svg><span class="name">点赞</span>
<span class="count">1</span>
</a></li>
<li class="tool-item tool-active is-collection "><a href="javascript:;" data-report-click="{"mod":"popu_824"}"><svg class="icon" aria-hidden="true">
<use xlink:href="#icon-csdnc-Collection-G"></use>
</svg><span class="name">收藏</span></a></li>
<li class="tool-item tool-active is-share"><a href="javascript:;"><svg class="icon" aria-hidden="true">
<use xlink:href="#icon-csdnc-fenxiang"></use>
</svg>分享</a></li>
<!--打赏开始-->
<!--打赏结束-->
<li class="tool-item tool-more">
<a>
<svg t="1575545411852" class="icon" viewBox="0 0 1024 1024" version="1.1" xmlns="http://www.w3.org/2000/svg" p-id="5717" xmlns:xlink="http://www.w3.org/1999/xlink" width="200" height="200"><defs><style type="text/css"></style></defs><path d="M179.176 499.222m-113.245 0a113.245 113.245 0 1 0 226.49 0 113.245 113.245 0 1 0-226.49 0Z" p-id="5718"></path><path d="M509.684 499.222m-113.245 0a113.245 113.245 0 1 0 226.49 0 113.245 113.245 0 1 0-226.49 0Z" p-id="5719"></path><path d="M846.175 499.222m-113.245 0a113.245 113.245 0 1 0 226.49 0 113.245 113.245 0 1 0-226.49 0Z" p-id="5720"></path></svg>
</a>
<ul class="more-box">
<li class="item"><a class="article-report">文章举报</a></li>
</ul>
</li>
</ul>
</div>
</div>
<div class="person-messagebox">
<div class="left-message"><a href="https://blog.csdn.net/weixin_42137700">
<img src="https://profile.csdnimg.cn/2/3/F/3_weixin_42137700" class="avatar_pic" username="weixin_42137700">
<img src="https://g.csdnimg.cn/static/user-reg-year/1x/2.png" class="user-years">
</a></div>
<div class="middle-message">
<div class="title"><span class="tit"><a href="https://blog.csdn.net/weixin_42137700" data-report-click="{"mod":"popu_379"}" target="_blank">喜欢打酱油的老鸟</a></span>
</div>
<div class="text"><span>发布了405 篇原创文章</span> · <span>获赞 614</span> · <span>访问量 123万+</span></div>
</div>
<div class="right-message">
<a href="https://bbs.csdn.net/forums/p-weixin_42137700" target="_blank" class="btn btn-sm btn-red-hollow bt-button personal-messageboard">他的留言板
</a>
<a class="btn btn-sm bt-button personal-watch" data-report-click="{"mod":"popu_379"}">关注</a>
</div>
</div>
</div>
2019-12-03 04:32:31
来源:CSDN
作者:樨潮
链接:https://blog.csdn.net/weixin_43489950/article/details/103549087