时间:2023年4月28日(本周五) 09: 30
地点:望江校区基础教学楼B座318实验室
成员:高承睿、程俊龙
Part1
分享者:高承睿
分享内容:
[1] Fei L, Lu G, Jia W, et al. Feature extraction methods for palmprint recognition: A survey and evaluation[J]. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2018, 49(2): 346-363.
[2] Jia W, Ren Q, Zhao Y, et al. EEPNet: An efficient and effective convolutional neural network for palmprint recognition[J]. Pattern Recognition Letters, 2022, 159:140-149.
论文简介:
[1] 掌纹处理多个独特的特征以实现可靠的个人识别。然而,不同类型的掌纹图像包含不同的主导特征。实际上,掌纹图像中只有一些掌纹特征是可见的,而其他特征可能不显著。例如,低分辨率的掌纹图像具有可见的主要线条和皱纹。相比之下,高分辨率的掌纹图像包含清晰的脊纹图案和细节点。此外,三维掌纹图像具有掌纹表面的曲率。到目前为止,还没有工作对不同类型的掌纹图像进行特征提取的总结。该论文旨在全面研究掌纹的特征提取和识别。该论文提出使用一个统一的框架将掌纹图像分类为四类:1)基于接触的;2)非接触式的;3)高分辨率的;4)三维掌纹图像。然后,该论文分析不同类型掌纹图像的代表性提取和匹配方法的动机和理论。最后,该论文通过在广泛使用的掌纹数据集上比较和测试最先进的方法,并指出未来研究的一些潜在方向。
[2] 掌纹识别是一种重要的生物识别技术。近年来,基于卷积神经网络(CNNs)的许多掌纹识别方法已被提出。然而,现有专门设计用于掌纹识别的CNNs具有很高的计算复杂度。为了使基于深度学习的掌纹识别方法在移动设备上良好地工作,必须使用轻量级神经网络。然而,到目前为止,这个领域的研究非常少。该论文提出了一种高效且有效的掌纹识别网络(EEPNet),这是一种轻量级神经网络。EEPNet基于MobileNet-V3设计,进一步压缩了层数并扩大了卷积核。此外,该论文设计了两个新的损失函数,包括平衡损失和对比损失。平衡损失适用于各种特定数据集,而对比损失可以在不进行手动参数调整的情况下达到训练困难样本的目的。根据掌纹识别的特点,该论文增加了五个策略来提高识别性能,包括图像拼接、图像尺寸减小、数据增强、级联通道注意机制和困难样本挖掘机制。该论文在七个掌纹数据库上进行了深入的实验。实验结果表明,该论文的方法在正常质量的掌纹数据库上的整体识别性能优于经典和最先进的掌纹识别方法。该论文在精度、速度、参数数量和FLOPs四个方面将所提出的方法与其他CNNs进行比较。实验结果表明,该方法更加高效,具有较高的识别精度。
Part2
分享者:程俊龙
分享内容:
[1] Kirillov A, Mintun E, Ravi N, et al. Segment anything. arXiv preprint arXiv:2304.02643, 2023.
[2] Mazurowski M A, Dong H, Gu H, et al. Segment Anything Model for Medical Image Analysis: An Experimental Study. arXiv preprint arXiv:2304.10517, 2023.
论文简介:
[1] 我们介绍“分割任何东西”(segment anything,SA)项目:这是一个新的任务、模型和图像分割数据集。我们使用高效的模型在数据收集循环中建立了迄今为止最大的分割数据集(远超以前的数据集),在 1100 万张许可和尊重隐私的图像上有超过 10 亿个掩码。该模型被设计和训练为可提示的,因此它可以对新的图像分布和任务进行零样本迁移。我们对其性能进行了众多任务的评估,并发现它的零样本性能非常出色,通常具有竞争力甚至优于以前的完全监督结果。我们发布了“分割任何东西”模型(SAM)和相应的数据集(SA – 1B)包含10亿个掩码和1100万图像,旨在促进计算机视觉基础模型的研究。请访问https://segment-anything.com。
[2] 医学图像的分割模型训练在数据注释有限和采集费用高昂的情况下仍然具有挑战性。“segment anything model”(SAM)是一个基础模型,经过了超过10亿个注释的训练(主要针对自然图像),旨在能够以交互方式分割用户定义的感兴趣对象。尽管在自然图像上表现出色,但当转移到医学图像领域时,该模型的效果仍不清楚。本文针对来自各种模式和解剖学的11个医学成像数据集对SAM分割医学图像的能力进行了广泛评估。在实验中,使用一种标准方法生成点提示以模拟交互式分割。实验结果表明,依据IoU评估,SAM在单个提示下的性能因任务和数据集而异,即从脊椎MRI数据集(0.1135)到髋部X光数据集(0.8650)。在涉及轮廓清晰、提示明确的任务中,表现良好,但在许多其他情况下,如肿瘤分割等,表现较差。提供多个提示时,总体上性能仅略有改善,但对于不连续的目标更加明显。与RITM[19]的额外比较表明,SAM在一个提示下的性能优于RITM,但当有更多提示时,两种方法的性能相似。综上所述,SAM在零样本学习设置下对某些数据集表现出色,但对于其他多个数据集而言性能中等至差。虽然 SAM 作为一种模型和一种学习范式可能会对医学成像领域产生影响,但仍需要进行广泛的研究以确定在该领域采用它的正确方法。