系列短课程IV :神经网络的表达能力
授课专家:张仕俊(香港理工大学)
授课时间:12月21日(星期日)上午9:00-12:00,下午2:30-5:30
授课地点:国家天元数学中心516报告厅
课程摘要:
本课程从网络结构、激活函数以及基于频率的学习行为三个层面,系统地探讨神经网络的表达能力。我们首先回顾标准 ReLU 全连接网络的函数逼近理论,包括其在 Lipschitz 函数、多项式函数以及光滑函数类上的最优或近似最优逼近率。为进一步提升网络的表达能力,课程介绍了一些新型网络结构和激活函数,其中激活函数(EUAF)能够使固定规模的网络以任意精度逼近任意连续函数。除逼近能力分析外,我们还从频域角度讨论神经网络的学习行为,揭示不同频率分量所带来的学习难度:浅层网络在本质上表现为低通滤波器,而深层网络则可通过分而治之的机制逐步捕获高频分量。总体而言,这些结果不仅揭示了神经网络强大的表达潜力,也刻画了其理论局限与实际挑战,阐明了网络结构与激活函数在表达性与可学习性方面的共同作用。
专家简介:
张仕俊现为香港理工大学应用数学系助理教授(Tenure-Track Assistant Professor),2021 年于新加坡国立大学取得数学博士学位,研究方向聚焦于深度神经网络的理论基础,尤其是函数逼近理论。在加入理大之前,他曾任美国杜克大学Phillip Griffiths助理研究教授。他的研究成果发表于Journal de Mathématiques Pures et Appliquées、Journal of Machine Learning Research、SIAM Journal on Mathematical Analysis、SIAM Journal on Scientific Computing 等国际知名期刊,以及NeurIPS、 ICML 等顶级会议。他曾获得2020–2021 年度EASIAM 学生论文一等奖与2024–2025 年度香港理工大学应用数学系最佳论文奖。
邀请人:王治国

