时间: 2020年11月26日(本周四) 09 : 00
地点: 望江校区基础教学楼B座318实验室
研读成员: 杨勇 吴美璇
Part1
分享者: 杨勇
分享内容:
[1] Ma J, Yu W, Liang P, et al. FusionGAN: A generative adversarial network for infrared and visible image fusion[J]. Information Fusion, 2019, 48: 11-26.
[2] Ma J, Liang P, Yu W, et al. Infrared and visible image fusion via detail preserving adversarial learning[J]. Information Fusion, 2020, 54: 85-98.
论文简介:
[1]红外图像可以根据热辐射的差异将目标与背景区分开来,该辐射在白天/黑夜的所有时间和所有天气条件下均能正常工作。 相反,可见图像可以以与人类视觉系统一致的方式提供具有高空间分辨率和清晰度的纹理细节。文章提出了一种新的方法,即使用名为FusionGAN的生成对抗网络融合这两种类型的信息。文中的方法在生成器和鉴别器之间建立了对抗游戏,其中生成器旨在生成具有主要红外强度以及附加可见梯度的融合图像,鉴别器旨在迫使融合图像在可见图像中具有更多细节。 这使得最终的融合图像可以同时将热辐射保持在红外图像中,将纹理保留在可见图像中。 此外,FusionGAN是端到端模型,避免了像传统方法那样手动设计复杂的活动水平测量和融合规则。文章还对FusionGAN进行了概括,以融合具有不同分辨率的图像,例如低分辨率的红外图像和高分辨率的可见图像。
[2]目标由于具有明显的区别热辐射,因此可以很容易地从红外图像的背景中检测出来,而可见图像包含具有高空间分辨率的纹理细节,这有利于增强目标识别。因此,期望具有丰富的细节信息和有效目标区域的融合图像。文章提出了一种基于保留细节对抗性学习的红外和可见图像融合的端到端模型。它能够克服传统融合方法中手动和复杂的活动水平测量和融合规则设计的局限性。考虑到红外和可见图像的具体信息,文章设计了两个损失函数,分别是细节损失和目标边缘增强损失,以提高细节信息的质量,并在生成对抗网络的框架下锐化红外目标的边缘。文章的方法使融合图像能够同时保留热辐射,同时红外图像中的红外目标边界更加清晰,可见图像中的纹理细节更加丰富。
Part2
分享者: 吴美璇
分享内容:
[1] W. Wu, Y. Zheng, K. Chen, X. Wang and N. Cao, "A Visual Analytics Approach for Equipment Condition Monitoring in Smart Factories of Process Industry," 2018 IEEE Pacific Visualization Symposium (PacificVis), Kobe, 2018, pp. 140-149, doi: 10.1109/PacificVis.2018.00026.
[2] Y. Chen, P. Xu and L. Ren, "Sequence Synopsis: Optimize Visual Summary of Temporal Event Data," in IEEE Transactions on Visualization and Computer Graphics, vol. 24, no. 1, pp. 45-55, Jan. 2018, doi: 10.1109/TVCG.2017.2745083.
论文简介:
[1] 设备状态监测在制造中有很大的价值,它不仅可以通过早期检测设备的异常来减少计划外停机时间,还可以避免不必要的日常维护。然而,由于缺乏系统的方法,分析师很难进行有效的分析并从收集的大量数据中提取有价值的信息,特别是对于具有复杂制造过程的过程工业。在本文中,我们提出了一个交互式可视化分析系统的设计和实现,该系统帮助制造现场的经理和操作员利用他们的领域知识、应用大量的人工判断来指导自动化分析,从而为现实世界的应用程序生成可理解和可信任的结果。
[2] 事件序列分析在客户行为分析、电子健康记录分析和车辆故障诊断等应用领域发挥着重要作用。现实世界中的事件序列数据通常具有高事件基数、噪声大且复杂的特点,因此为这些数据构建简洁而全面的概述是一项具有挑战性的任务。在本文中,我们提出了一种基于最小描述长度原则的可视化技术来构建事件序列数据的粗略概览,同时能够平衡其中的信息损失。