OWASP机器学习安全风险TOP10
OWASP机器学习安全风险TOP10
ML01:2023 对抗性攻击 Adversarial Attack
当攻击者故意更改输入数据以误导模型时,就 会发生对抗性攻击。
ML02:2023 数据投毒攻击 Data Poisoning Attack
当攻击者操纵训练数据导致模型以不良方式运 行时,就会发生数据投毒攻击。
ML03:2023 模型反转攻击 Model Inversion Attack
当攻击者对模型进行逆向工程以从中提取信息 时,就会发生模型反转攻击。
ML04:2023 成员推理攻击 Membership Inference Attack
当攻击者操纵模型的训练数据以使其行为暴露 敏感信息时,就会发生成员推理攻击。
ML05:2023 模型窃取 Model Stealing
当攻击者获得对模型参数的访问权时,就会发 生模型窃取攻击。
ML06:2023 损坏的组件包 Corrupted Packages
当攻击者修改或替换系统使用的机器学习库或 模型时,就会发生损坏的组件包攻击。
ML07:2023 迁移学习攻击 Transfer Learning Attack
当攻击者在一个任务上训练模型,然后在另一 个任务中对其进行微调,导致结果未按照预期 产生,就会发生迁移学习攻击。
ML08:2023 模型偏斜 Model Skewing
当攻击者操纵训练数据的分布,导致模型以不 希望的方式运行时,就会发生模型偏斜攻击。
ML09:2023 输出结果完整性攻击 Output Integrity Attack
当攻击者的目的是为了改变其 ML 模型的行为或 对使用该模型的系统造成损害,从而修改或操 纵 ML 模型的输出结果,就会发生输出结果完整 性攻击。
ML10:2023 神经网络重编程 Neural Net Reprogramming
当攻击者操纵模型的参数使其以不良的方式运 行时,就会发生神经网络重编程攻击
感谢以下中文项目参与人员(按拼音顺序排列): 戴楚南、吴楠、肖文棣、张坤、张淼
英文地址:OWASP Machine Learning Security Top Ten | OWASP Foundation