416日下午,应模式识别国家重点实验室的邀请,南京大学的周志华教授在自动化所做关于“Boosting发展历史及最新进展”的讲座。周教授在集成学习方面具有深厚的功底,在国际机器学习研究界具有很高的知名度。讲座现场非常火爆,座无虚席。 

  周志华教授首先从Boosting的发展历史讲起,用通俗的语言梳理了一种重要的Boosting算法:AdaBoost的发展,以及它在数据挖掘、计算机视觉、机器学习中的重要地位和成功应用。最早的AdaBoost算法源于1989年关于“弱学习器约等于强学习器?”的开放问题。1990年该开放问题被证明是成立的,这样产生了世界上第一个Boosting算法。1997AdaBoost算法正式发表,随后产生了很多变种,比如Arc-x4LPBoost等。包括AdaBoost在内的集成学习算法在国际知识发现和数据挖掘竞赛(KDD-Cup)中多次获得性能第一,在人脸检测等视觉目标检测中成为标准的算法,进一步印证了集成学习算法的重要性和优越性。接着,周教授带领大家转向了Adaboost算法的基础理论研究问题:“为什么Adaboost算法能够抵制过拟合”。周教授讲到:“关于泛化性能的解释分为两个流派:大间隔观点和统计观点”。而周老师本人站在大间隔理论那一方。随后周老师用通俗的语言介绍了一系列关于大间隔理论的研究进展,并给出了他们最近发表在人工智能杂志(Artificial Intelligence Journal)上的理论成果。至此,Adaboost为何能够抵制过拟合得到了有效的解释和证明。 

  周志华教授本人从事机器学习研究多年,能够将Boosting算法的发展及基础理论问题讲得通俗易懂,引人入胜。讲座过程中,听众们聚精会神,真正领略了大师风范,增强了对Boosting算法及相关机器学习理论的认识。

 

   

附件: