时间: 2021年10月28日(本周四) 09 : 30
地点:望江校区基础教学楼B座318实验室
研读成员:朱佳旻 杨勇
Part1
研读成员:朱佳旻
分享内容:
[1]Wu A, Wang Y, Zhou M, et al. MultiVision: Designing Analytical Dashboards with Deep Learning Based Recommendation [J]. IEEE Transactions on Visualization and Computer Graphics, 2021.
[2]Zhou M, Tao W, Ji P, et al. Table2Analysis: Modeling and Recommendation of Common Analysis Patterns for Multi-Dimensional Data[C]. Proceedings of the AAAI Conference on Artificial Intelligence, 2020.
论文简介:
[1] 我们提供了一种基于深度学习的方法,帮助设计用于分析数据表的分析仪表板。给定一个数据表,数据工作者通常需要经历一个乏味而耗时的过程来选择有意义的数据列组合来创建图表。由于需要创建由多个视图组成的显示不同数据视角的仪表板,这一过程变得更加复杂。现有的推荐多视图可视化的自动化方法主要建立在手工制作的设计规则上,产生次优或不相关的建议。为了弥补这一差距,我们提出了一种选择数据列和推荐多个图表的深度学习方法。更重要的是,我们将深度学习模型集成到一个混合主动系统中。我们的模型可以给出可选的用户输入数据列选择的建议。该模型又以脱机方式从创作日志的来源数据中学习。我们将我们的深度学习模型与现有的可视化推荐方法进行了比较,并进行了用户研究来评估系统的有效性。
[2] 给出一个多维数据表,人类会创建什么分析来从中提取信息呢?从科学探索到商业智能,这是知识发现和决策自动化需要解决的关键问题。在本文中,我们提出Table2Analysis来从大量的(表、分析)对中学习通常进行的分析模式,并推荐对以前没有见过的任何给定表的分析。作为输入的多维数据对现有的模型体系结构和训练技术提出了挑战,以实现这一任务。基于启发式搜索的深度Q学习,Table2Analysis从表到序列生成,每个序列编码一个分析。在我们对数据透视表推荐任务的大型电子表格语料库的评估中,Table2Analysis的召回率排在前5位。
Part2
研读成员: 杨勇
分享内容:
[1] Zhang H, Xu H, Xiao Y, et al. Rethinking the image fusion: A fast unified image fusion network based on proportional maintenance of gradient and intensity[C]//Proceedings of the AAAI Conference on Artificial Intelligence. 2020, 34(07): 12797-12804.
[2] Xu H, Liang P, Yu W, et al. Learning a Generative Model for Fusing Infrared and Visible Images via Conditional Generative Adversarial Network with Dual Discriminators[C]//IJCAI. 2019: 3954-3960.
论文简介:
[1]文中提出了一种基于梯度和强度比例保持(PMGI)的快速统一图像融合网络,它可以端到端地实现多种图像融合任务,包括红外和可见光图像融合、多曝光图像融合、 医学图像融合、多焦点图像融合和全色锐化。文章将图像融合问题统一为源图像的纹理和强度比例维护问题。一方面,网络分为梯度路径和强度路径进行信息提取。为避免由于卷积而丢失信息,文章在同一路径中执行特征重用。同时,还引入了pathwise transfer block来交换不同路径之间的信息,不仅可以预先融合梯度信息和强度信息,还可以增强后面要处理的信息。另一方面,文章基于这两种信息定义了统一形式的损失函数,可以适应不同的融合任务。 在公开可用数据集上的实验证明了文章提出的 PMGI 在各种融合任务中的视觉效果和定量度量方面优于最先进的技术。 此外,与最先进的方法相比,文中的方法更快。
[2]文章提出了一种新的端到端模型,称为双鉴别器条件生成对抗网络(DDcGAN),用于融合不同分辨率的红外和可见光图像。与像素级方法和现有的基于深度学习的方法不同,融合任务是通过生成器和两个鉴别器之间的对抗过程完成的,此外还有专门设计的内容丢失。生成器被训练生成类似真实的融合图像来欺骗鉴别器。训练两个判别器分别计算下采样融合图像和红外图像概率分布之间的JS散度,以及融合图像梯度和可见光图像梯度概率分布之间的JS散度。因此,融合图像可以补偿不受单一内容损失约束的特征。因此,可以在融合图像中同时保留甚至增强红外图像中热目标的突出性和可见光图像中的纹理细节。而且,通过对下采样融合图像和低分辨率红外图像进行约束和区分,DDcGAN可以较好地应用于不同分辨率图像的融合。对公开可用数据集的定性和定量实验证明了文章的方法优于最先进的方法。