AAAI 2026 – day2

AAAI 2026 主会议进入第二天,现场节奏明显加快:上午口头汇报厅内交流密集、提问不断;下午海报区更是人流涌动,几乎每一排展板前都能看到三五成群的讨论圈。有人举着手机拍下关键公式与对比图,有人一边指着海报一边追问实验细节,学术热量在走廊与会场之间持续传递。

AAAI 2026展板纪念

今天上午,实验室22级博士生兰天中在分会场进行了论文口头汇报。报告围绕其工作 “GeoCoBox: Box-supervised 3D Tumor Segmentation via Geometric Co-embedding” 展开:在三维医学影像分割中,像素级标注成本高、难以规模化,而框标注(box)提供更可获得的弱监督信号。报告中通过清晰的结构与对比实验,展示了方法在边界刻画与形状一致性上的优势。报告后会场掌声热烈,并有多位听众连续提问,讨论点集中在弱监督约束、跨数据集泛化表现、以及方法落地到真实临床流程时的鲁棒性与可复现性等关键问题。会后,兰天中的报告得到了分会场主席徐衍玉和罗迪新的认可。

兰天中进行论文汇报
论文汇报后的提问环节

下午的海报区几乎进入高饱和状态:从远处望去,展板通道里人来人往,计算机视觉等研究方向的区域格外拥挤;近处看,很多交流并不是象征性围观,而是直接把问题进行深入探讨,包括数据设置、指标选择、消融结论、失败案例、以及能否开源等,往往三两句话就能把讨论推进到下一步怎么做。这种密集的面对面交流,是线上阅读论文最难替代的部分:在这里能看到对方停顿、追问、反驳与补充,也能在短时间内捕捉一个方向真正的争议点和突破口。

海报区相比于昨日更加拥挤
来自中科大的团队讲解提出的图像修复方法

报告 “DiA-gnostic VLVAE: Disentangled Alignment-Constrained Vision-Language Variational Auto Encoder for Robust Radiology Reporting with Missing Modalities” 关注视觉-语言(Vision-Language)在放射学报告生成中的可靠性问题,尤其强调模态缺失时的稳健推理。这类工作反映出多模态研究正从拼接输入到对齐机制、可解释结构与鲁棒鲁棒性,这更贴近真实医疗场景的噪声与缺口。

来自佐治亚州立大学的报告 “DiA-gnostic VLVAE: Disentangled Alignment-Constrained Vision-Language Variational Auto Encoder for Robust Radiology Reporting with Missing Modalities”

报告 “Breaking Task Boundaries: A Unified Model for 3D Medical Image Fusion and Segmentation Guided by Manifold Perspective” 将3D 医学影像融合与分割放在统一框架中讨论,并引入流形视角来组织表示学习。这类统一任务边界的尝试,体现出今年对多任务、多模态协同的强烈需求:不仅要做对单一任务,还要在复杂链路中保持一致性与可迁移性。

来自大连民族大学的报告“Breaking Task Boundaries: A Unified Model for 3D Medical Image Fusion and Segmentation Guided by Manifold Perspective”

从口头报告与海报区的高频话题来看,AAAI 今年的研究热点依然围绕多模态(尤其视觉-语言)、多智能体、域适应以及强化学习。期待实验室在这些主线课题不断产出新作品,把今天会场里最“火”的问题,变成下一篇更“硬”的答案。