2023年春季学期视觉计算实验室第五次论文研读预告

时间:2023年4月7日(周五) 9:30

地点:望江校区基础教学楼B座318实验室

分享者:王启鹏、杨璐歌

Part1

分享者:王启鹏

分享内容

[1] A Design Space for Visual Belief Elicitation in Data Journalism

从数据中形成、表达和更新信念的过程在数据驱动的决策中起着关键作用。有效地激发这些信念有可能在一系列广泛的应用中产生巨大的影响,包括增加对数据和可视化的参与,个性化的可视化,以及了解用户的视觉推理过程,这可以为改善数据分析和决策策略提供信息(例如,通过减少偏见)。最近,在叙事媒体和数据新闻平台(如《纽约时报》和FiveThirtyEight)中,信念驱动的可视化被用来在可视化中激发和可视化读者的信念,与数据并列。然而,对于构成设计一个有效的信念驱动的可视化的不同方面的研究却很少。在本文中,我们根据对设计师和可视化专家的形成性和总结性访谈,综合了一个信念驱动的可视化的设计空间。这个设计空间包括7个主要的设计考虑因素,从一个假设的数据集开始,然后根据以下几点进行结构化:从谁、为什么、什么时候、什么、如何激发信念,以及可能提供给可视化浏览者的关于信念的反馈。设计空间涵盖的考虑因素包括:被激发的具有可选不确定性的数据参数类型、交互技术和视觉反馈等等。最后,我们描述了来自流行的新闻媒体的超过24个现有的信念驱动的可视化的设计空间,并讨论了这个空间中的趋势和机会。

[2] When do data visualizations persuade? The impact of prior attitudes on learning about correlations from scatterplot visualizations

数据可视化对于诸如公共卫生、气候变化和社会经济政策等关键问题的科学交流至关重要。它们的设计往往不仅仅是为了提供信息,而是为了说服人们做出重要的决定(例如,接种疫苗)。这样的可视化是否有说服力,特别是当受众的信念和态度与数据相悖时?在本文中,我们研究了现有的态度(如对COVID-19疫苗接种的积极或消极态度)对观看具有不同统计不确定性表示的散点图可视化时对统计相关性的信念变化的影响。我们发现,当呈现与现有观点相矛盾的数据时,强烈的先前态度与较小的信念变化有关,而视觉上的不确定性表示可能会放大这种效应。最后,即使参与者对相关性的信念发生了转变,他们的态度也没有改变,这突出表明需要进一步研究数据可视化是否能够推动观点和行为的长期变化。

Part2

分享者:杨璐歌

分享内容

[1] Pandey, Aditeya et al. “MEDLEY: Intent-based Recommendations to Support Dashboard Composition.” IEEE transactions on visualization and computer graphics PP (2022): n. pag.

[2] Feng, Yingchaojie et al. “XNLI: Explaining and Diagnosing NLI-based Visual Data Analysis.” ArXiv abs/2301.10385 (2023): n. pag.

论文简介

[1] 尽管仪表板在广泛的领域中越来越受欢迎,但它们的创作仍然是一个繁琐而复杂的过程。当前的工具为创建单独的可视化提供了相当大的支持,但为发现可以共同用于组成分析仪表板的可视化组提供了有限的支持。为了解决这个问题,我们提出了MEDLEY,这是一个混合发起的界面,通过推荐符合特定分析意图的仪表板集合(即一个逻辑分组的视图和过滤小部件集合)来帮助仪表板组合。用户可以通过界面中的输入面板显式指定仪表板意图(即测度分析、变化分析、类别分析或分布分析),也可以通过选择数据属性和感兴趣的视图隐式指定仪表板意图(即测度分析、变化分析、类别分析或分布分析)。系统根据这些分析意图推荐集合,可以选择视图和小部件组成各种仪表板。MEDLEY还提供了一个轻量级的直接操作接口,用于配置仪表板中视图之间的交互。基于一项有13名参与者同时执行目标任务和开放式任务的研究,我们讨论了MEDLEY的建议如何指导仪表板的组成,并促进不同的用户工作流程。研究中的观察为未来的工作确定了潜在的方向,包括将手动视图规范与仪表板推荐相结合以及为仪表板编写设计自然语言接口。

图1 Medley系统的用户界面
图1 Medley系统的用户界面

[2] 自然语言接口( Natural Language Interface,NLI )使用户能够在数据可视化中灵活地指定分析意图。然而,在不了解底层生成过程的情况下诊断可视化结果具有挑战性。我们的研究探索了如何为NLIs提供解释以帮助用户定位问题并进一步修改查询。我们提出了一个用于可视化数据分析的可解释NLI系统XNLI。该系统引入了一个Provenance Generator来揭示视觉转换的详细过程,一个支持错误调整的交互小部件,以及一个Hint Generator来提供基于用户查询和交互分析的查询修改提示。XNLI的两个使用场景和一个用户研究验证了系统的有效性和可用性。结果表明,XNLI可以在不中断基于NLI的分析过程的前提下显著提高任务精度。

图2 XNLI系统的用户界面