对抗训练的一致稳定性和泛化上界


报告题目:  对抗训练的一致稳定性和泛化上界

报告专家:萧建聪(香港中文大学(深圳))

报告时间:2023年2月28日,下午2:00-4:00

报告地点:国家天元数学西南中心505


摘要:

本文从一致稳定性的角度来研究对抗训练的鲁棒过度拟合问题。一个主要挑战是对抗损失函数是非光滑的,因此无法将现有结果应用到对抗设定。我们定义了近似平滑度并给出了其性质。基于此,我们给出了此类函数的一致稳定性泛化上界,它可以应用到对抗训练。我们的结果表明对抗训练可能具有不消失的泛化误差。当训练轮数T 很大时,模型的鲁棒测试准确率会随T下降,速度在 T和根号T之间。文章发表在NeurIPS2022(Spotlight展示)


报告人简介萧建聪是香港中文大学(深圳)博士生,主要研究方向为机器学习理论和神经网络的对抗鲁棒性,导师是罗智泉教授。即将前往美国宾夕法尼亚大学从事博士后研究工作。此前于香港中文大学和中山大学分别获得硕士和学士学位。


邀请人:王治国

2.28萧建聪-01.jpg