4月10日,加州大学默塞德分校教授、谷歌云研究员Ming-Hsuan Yang到访自动化所,并作题为“Recent Results on Semantic and Video Segmentation”的主题学术报告。报告由模式识别国家重点实验室的张天柱副研究员主持。
Yang教授围绕视频中物体的语义分割这一主题,简单叙述了基于卷积神经网络在语义分割中较大依赖于逐像素标签、难以迁移到未知领域的挑战。针对这些挑战,Yang教授分别讲述了他们团队刚刚被CVPR2018接收的两篇论文。在第一篇论文中,Yang教授提出了基于对抗学习的方法在语义分割中进行域自适应。通过将语义分割看做一个结构化的输出,考虑源域和目标域的空间相似度,并在输出空间中进行对抗学习。第二篇论文提出了一个快速且准确的视频目标分割算法,利用基于部件的跟踪方法来解决视频中的目标形变、遮挡和背景杂乱等问题。这两项工作都在多个主流数据集上取得了相当好的效果。最后Yang教授以“How to Get Your CVPR Paper Rejected?”为题,讲述了论文选题、写作、投稿和修改等方面的技巧和经验。
报告加深了大家对目前视频中目标语义分割的理解和认识,开拓了大家的视野和思路。Yang教授的报告风趣幽默、深入浅出,博得了观众的阵阵掌声。会上,大家还就视觉跟踪技术,语义分割方法、论文撰写技巧以及与Google团队的沟通协作问题与Yang教授进行了充分的交流。