勷勤数学•专家报告
题 目:Security Challenges of Federated Learning Under Diverse Paradigms
报 告 人:张愉 副教授 (邀请人:钟柳强)
澳大利亚格里菲斯大学
时 间: 12月1日 16:00-17:00
地 点:数科院西楼111
报告人简介:
张愉博士现任澳大利亚格里菲斯大学信息与通信技术学院副教授,网络安全学科带头人及中外合作关系主管。此前他于2018年至2022年在澳大利亚迪肯大学信息技术学院任讲师和高级讲师。张博士的研究兴趣主要集中在可信人工智能(对抗性/中毒/隐私攻击及防御)和应用密码学(隐私计算、新兴领域的认证)。他在这些领域发表了150多篇会议和期刊文章(引用次数超5000,h-index 38, CCF A类论文>50),其中许多文章发表于IEEE SP、Usenix Security、NDSS、ICML、ICLR、NeurIPS、CVPR、ICCV等顶级会议。他长期担任上述国际会议的程序委员会委员/高级委员/区域主席。张博士的研究得到了澳大利亚研究委员会、澳大利亚网络安全合作研究中心、澳大利亚工业创新与科学部、昆士兰州环境、科学与创新部、博世集团、英伟达集团、谷歌等单位的资助。他于2021年获得澳大利亚信息安全协会年度研究员奖,现任IEEE可靠与安全计算汇刊(IEEE TDSC, CCF A/中科院一区Top)和IEEE多媒体汇刊 (IEEE TMM,中科院一区Top)的副主编,并于2025年起担任IEEE计算智能学会可信深度学习技术委员会副主席。
摘 要:
联邦学习(FL)使得大量客户端(如智能手机和物联网设备)能够协作训练模型,而无需直接交换涉及隐私的原始数据。由于其在保护隐私和提升通信效率方面的潜力,以及受GDPR和HIPAA等隐私法规的推动,联邦学习持续成为重要的创新驱动力。然而,FL系统的去中心化设计使其面临严重的安全和隐私威胁。本次报告将探讨两种关键威胁:联邦学习对模型投毒攻击的鲁棒性,以及对梯度反转攻击引起的隐私泄露问题。我们将重点分析多种联邦学习架构(如基于参数更新的经典FL和基于排序的FRL)在面对模型投毒攻击时的脆弱性,并指出即便是在通信高效、被认为更稳健的新型架构中,依然存在特定结构脆弱点可被攻击者利用。近期研究表明,灵活模型投毒攻击(FMPA)和基于滑模控制的攻击能够使攻击者隐蔽地操控本地模型更新,从而精确地降低全局模型的性能。此外,我们还将讨论最新的梯度反转攻击,即攻击者无论是被动还是主动地利用最小化的恶意模型修改,即使在聚合条件下,也能够从共享的梯度更新中精确地重构私人训练数据。这些新兴威胁凸显了当前联邦学习安全实践中的重大缺陷,强调了迫切需要提升防御策略,以在现代隐私法规框架下保护联邦学习的完整性和隐私安全。
欢迎老师、同学们参加、交流!