您位于: 首页 OWASP项目 OWASP 大语言模型应用程序十大风险

OWASP 大语言模型应用程序十大风险

《OWASP 大语言模型应用程序十大风险》项目旨在向开发人员、设计人员、架构师、管理人员和组织介绍部署和管理大语言模型 (LLM)应用程序时的潜在安全风险。该项目主要基于漏洞的潜在影响,可利用性以及在实际应用程序中的普遍性,整理出包括提示注入、数据泄漏、沙盒不足和未经授权的代码执行等LLM应用程序中常见的10大最关键风险的列表。

本项目旨在提高对这些风险以及相关漏洞的认识,提供修正策略的建议,并最终改善LLM应用程序的安全状况。

项目组长:Steve Wilson

中文翻译人员:肖文棣、周乐坤

十大风险列表

LLM01:2023

提示词注入

Prompt Injections

绕过过滤器或使用精心制作的提示操作LLM,使模型忽略先前的指令或执行非计划的操作。

LLM02:2023

数据泄漏

Data Leakage

通过LLM的回复意外泄露敏感信息、专有算法或其他机密细节。

LLM03:2023

不完善的沙盒隔离

Inadequate Sandboxing

当LLM可以访问外部资源或敏感系统时,未能正确隔离LLM,从而允许潜在的利用和未经授权的访问。

LLM04:2023

非授权代码执行

Unauthorized Code Execution

利用LLM通过自然语言提示在底层系统上执行恶意代码、命令或操作。

LLM05:2023

SSRF漏洞

SSRF Vulnerabilities

利用LLM执行意外请求或访问受限制的资源,如内部服务、API或数据存储。

LLM06:2023

过度依赖大语言模型生成的内容

Overreliance on LLM-generated Content

在没有人为监督的情况下过度依赖法LLM生成的内容可能会导致不良后果。

LLM07:2023

人工智能未充分对齐

Inadequate AI Alignment

未能确保LLM的目标和行为与预期用例保持一致,从而导致不良后果或漏洞。

LLM08:2023

访问控制不足

Controls Insufficient Access

未正确实现访问控制或身份验证,将允许未经授权的用户与LLM交互,并可能导致漏洞被利用。

LLM09:2023

错误处置不当

Improper Error Handling

暴露错误消息或调试信息,将导致敏感信息、系统详细信息或潜在攻击向量的泄露。

LLM10:2023

训练数据投毒

Training Data Poisoning

恶意操纵训练数据或微调程序,将漏洞或后门引入LLM。

文档下载:

OWASP 大语言模型应用程序十大风险

英文项目:

https://owasp.org/www-project-top-10-for-large-language-model-applications/