您位于: 首页 OWASP项目 OWASP机器学习安全风险TOP10

OWASP机器学习安全风险TOP10

OWASP机器学习安全风险TOP10

ML01:2023 对抗性攻击 Adversarial Attack

当攻击者故意更改输入数据以误导模型时,就 会发生对抗性攻击。

ML02:2023 数据投毒攻击 Data Poisoning Attack

当攻击者操纵训练数据导致模型以不良方式运 行时,就会发生数据投毒攻击。

ML03:2023 模型反转攻击 Model Inversion Attack

当攻击者对模型进行逆向工程以从中提取信息 时,就会发生模型反转攻击。

ML04:2023 成员推理攻击 Membership Inference Attack

当攻击者操纵模型的训练数据以使其行为暴露 敏感信息时,就会发生成员推理攻击。

ML05:2023 模型窃取 Model Stealing

当攻击者获得对模型参数的访问权时,就会发 生模型窃取攻击。

ML06:2023 损坏的组件包 Corrupted Packages

当攻击者修改或替换系统使用的机器学习库或 模型时,就会发生损坏的组件包攻击。

ML07:2023 迁移学习攻击 Transfer Learning Attack

当攻击者在一个任务上训练模型,然后在另一 个任务中对其进行微调,导致结果未按照预期 产生,就会发生迁移学习攻击。

ML08:2023 模型偏斜 Model Skewing

当攻击者操纵训练数据的分布,导致模型以不 希望的方式运行时,就会发生模型偏斜攻击。

ML09:2023 输出结果完整性攻击 Output Integrity Attack

当攻击者的目的是为了改变其 ML 模型的行为或 对使用该模型的系统造成损害,从而修改或操 纵 ML 模型的输出结果,就会发生输出结果完整 性攻击。

ML10:2023 神经网络重编程 Neural Net Reprogramming

当攻击者操纵模型的参数使其以不良的方式运 行时,就会发生神经网络重编程攻击

感谢以下中文项目参与人员(按拼音顺序排列): 戴楚南、吴楠、肖文棣、张坤、张淼

中文下载:OWASP机器学习安全风险TOP10.pdf

英文地址:OWASP Machine Learning Security Top Ten | OWASP Foundation