2024年春季学期视觉计算实验室第七次论文研读预告

时间:2024年11月2日(本周六) 09: 00

地点:望江校区基础教学楼B座318实验室

分享者:甘霖、阳斯敏

Part1

分享者:甘霖

分享内容:

[1] Chen C, Ji Z, Sun Y, et al. Self-attentive channel-connectivity capsule network for EEG-based driving fatigue detection[J]. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 2023.

[2] Hu F, Zhang L, Yang X, et al. EEG-Based Driver Fatigue Detection Using Spatio-Temporal Fusion Network with Brain Region Partitioning Strategy[J]. IEEE Transactions on Intelligent Transportation Systems, 2024.

论文简介:

[1] 深度神经网络最近已成功应用于基于脑电图(EEG)的驾驶疲劳检测。然而,大多数现有模型都未能揭示已知有利于基于 EEG 的分类的内在通道间关系。此外,这些模型需要大量的数据进行训练,由于数据收集的高成本,这通常是不切实际的。为了同时解决这两个问题,本文提出了一种用于基于脑电图的驾驶疲劳检测的自注意通道连通性胶囊网络(SACC-CapsNet)。SACC-CapsNet 从时间通道注意模块开始,以研究驾驶疲劳检测的关键时间信息和重要通道,细化输入的 EEG 信号。随后,将改进的脑电数据转换为通道协方差矩阵以捕获通道间关系,然后进行选择性核注意来提取高度区分性的通道连通性特征。最后,利用胶囊神经网络有效地学习连通性特征之间的关系,更适合有限的数据。为了确认 SACC-CapsNet 的有效性,论文在模拟疲劳驾驶环境中从 31 个受试者收集了 24 通道 EEG 数据。对获取的数据进行了广泛的实验,对比结果表明论文提出的模型优于最先进的方法。此外,从 SACC-CapsNet 学习的通道协方差矩阵表明,额叶极对于检测驾驶疲劳提供了信息量最大的,然后是顶叶和中心区域。同时,时间通道注意力模块可以增强这些关键区域的重要性,SACC-CapsNet 解码器网络生成的重建通道协方差矩阵可以有效地保留有关它们的有价值信息。

[2] 检测驾驶员疲劳对于确保交通安全至关重要。脑电图是大脑活动测量的金标准。然而,目前的驾驶员疲劳检测算法在挖掘和融合脑电信号的时空特征方面存在局限性。论文提出了一种多分支深度学习网络,称为具有大脑区域划分策略的时空融合网络(STFN-BRPS),以提高驾驶员疲劳识别的准确性和稳健性。最初,论文开发了一个循环多尺度卷积模块(RMSCM),包括一个多尺度卷积子模块、CNN-Bi-LSTM 子模块和一个残差结构分支。RMSPCM有效地提取了具有高度区分性的长期时间特征信息。其次,论文提出了一种基于大脑区域划分策略的动态图卷积模块和空间图边重要性权重分配方法,该方法可以获得电极之间的内在空间特征信息。第三,论文设计了一个特征融合模块(FFM),利用通道注意来融合长期的短期时间和空间特征。FFM学习并优先考虑融合特征中每个通道的重要性和相关性。最后,将融合后的时空特征传递到分类模块中,得到预测的驾驶员疲劳状态。对从真实世界驾驶场景收集的脑电信号进行了广泛的比较和消融研究。结果表明,与主流方法相比,所提出的STFN-BRPS模型具有更好的分类性能。本研究建立了基于脑电图的驾驶员疲劳检测和相关的深度学习建模工作的基准。

Part2

分享者:阳斯敏

分享内容:

[1] Zhang Y, Li X, Chen H, et al. Continual learning for abdominal multi-organ and tumor segmentation[C]//International conference on medical image computing and computer-assisted intervention. Cham: Springer Nature Switzerland, 2023: 35-45.

[2] Ulrich C, Isensee F, Wald T, et al. Multitalent: A multi-dataset approach to medical image segmentation[C]//International Conference on Medical Image Computing and Computer-Assisted Intervention. Cham: Springer Nature Switzerland, 2023: 648-658.

论文简介:

[1] 动态扩展模型到新数据和类的能力,对于多器官和肿瘤分割是至关重要的。然而,由于隐私法规限制,在医疗领域访问以前的数据和注释可能会有问题。由于灾难性的遗忘问题,在学习新类时保持旧类的高切分准确率造成了很大的障碍。本文首先通过经验证明,在器官分割的设置中,简单地使用高质量的伪标签可以相当程度地减轻这个问题。此外,提出了一种创新的架构,专门用于连续的器官和肿瘤分割,这将产生最小的计算开销。进一步将对比语言图像预训练(CLIP)嵌入到器官特异性头部中。这些嵌入通过广泛的图像-文本协同训练封装了每个类的语义信息。该方法在内部和公开的腹部CT数据集上进行了器官和肿瘤分割任务的评估。实证结果表明,所提出的设计提高了基线神经网络在学习轨迹上对新引入的和以前学习过的类的分割性能。

[2] 医学影像社区产生了丰富的数据集,其中许多数据集是公开访问的,并对特定疾病和任务(如多器官或病变分割)进行了注释。目前的实践继续将模型训练和有监督的预训练限制在一个或几个类似的数据集上,忽视了其他可用注释数据的协同潜力。本文提出了MultiTalent,这是一种利用多个CT数据集的方法,这些数据集具有不同且相互冲突的类定义,可以训练单个模型进行综合结构分割。结果表明,与以前的相关方法相比,MultiTalent系统地提高了分割性能。MultiTalent作为一个强大的基础模型,与常用的有监督或无监督的预训练基线相比,它为各种细分任务提供了优越的预训练。