您位于: 首页 OWASP项目 OWASP 大语言模型应用程序十大风险

OWASP 大语言模型应用程序十大风险

2025版

项目背景

OWASP 的《大规模语言模型应用 Top 10》项目始于 2023 年,是一项由社区共同推动的工作,旨在 突出并解决与人工智能应用相关的安全问题。自项目启动以来,LLM(大规模语言模型)技术已在多个 行业得到广泛应用,随之而来的风险也在不断增加。随着LLM技术不断渗透到客户互动、内部运营等各 个领域,开发人员和安全专家不断发现新的安全漏洞,并探索相应的解决方案。

2023 年发布的版本在提高公众对 LLM 安全问题的认识、为安全使用 LLM 奠定基础方面取得了显著 成效。同时,我们也积累了更多经验。在 2025 年版本的更新中,我们与来自全球、具有多样化背景的 贡献者进行了紧密合作,共同完善这一名单。整个过程包括头脑风暴、投票以及来自直接参与LLM应用 安全的专业人士的反馈。每一位贡献者的意见都对确保本次发布的全面性和实用性起到了至关重要的作 用。

2025 年版本的更新反映了我们对现有风险的更深层次理解,并纳入了 LLM 在实际应用中的最新重 要进展。例如,

“无限制消耗(Unbounded Consumption)”这一概念扩展了传统的“拒绝服务 (Denial of Service)”风险,不仅包括资源管理方面的风险,还涵盖了在大规模 LLM 部署中可能出 现的意外成本问题。

“向量和嵌入(Vector and Embeddings)”部分回应了社区对于保障检索增强生成(RAG)和其他 基于嵌入技术的安全需求。这些技术已成为支持模型输出的重要技术实践。

我们还新增了“系统提示泄露(System Prompt Leakage)”这一风险项,以应对在实际应用中广 泛存在的安全隐患。这一问题引起了社区的高度关注,许多应用曾假设提示信息是安全隔离的,但近期 的事件表明,开发人员不能再安全地假设这些提示中的信息能够保密。

此外,“过度自主性(Excessive Agency)”这一风险项得到了扩展,考虑到了越来越多使用自主 架构的情况。在这些架构下,LLM获得了更多的自主权。随着LLM作为代理或在插件设置中运行,未经 充分审查的权限可能导致意外或高风险操作,因此这一风险比以往任何时候都更加重要。

2025中文版项目组

张坤(项目负责人/OWASP中国北京分会负责人)、 陈殷(项目成员)、 刘畅/玄道(项目成员)

中文文档下载:OWASP 大语言模型应用程序十大风险

英文项目:OWASP Top 10 for Large Language Model Applications | OWASP Foundation

2023版

《OWASP 大语言模型应用程序十大风险》项目旨在向开发人员、设计人员、架构师、管理人员和组织介绍部署和管理大语言模型 (LLM)应用程序时的潜在安全风险。该项目主要基于漏洞的潜在影响,可利用性以及在实际应用程序中的普遍性,整理出包括提示注入、数据泄漏、沙盒不足和未经授权的代码执行等LLM应用程序中常见的10大最关键风险的列表。

本项目旨在提高对这些风险以及相关漏洞的认识,提供修正策略的建议,并最终改善LLM应用程序的安全状况。

项目组长:Steve Wilson

中文翻译人员:肖文棣、周乐坤

十大风险列表

LLM01:2023

提示词注入

Prompt Injections

绕过过滤器或使用精心制作的提示操作LLM,使模型忽略先前的指令或执行非计划的操作。

LLM02:2023

数据泄漏

Data Leakage

通过LLM的回复意外泄露敏感信息、专有算法或其他机密细节。

LLM03:2023

不完善的沙盒隔离

Inadequate Sandboxing

当LLM可以访问外部资源或敏感系统时,未能正确隔离LLM,从而允许潜在的利用和未经授权的访问。

LLM04:2023

非授权代码执行

Unauthorized Code Execution

利用LLM通过自然语言提示在底层系统上执行恶意代码、命令或操作。

LLM05:2023

SSRF漏洞

SSRF Vulnerabilities

利用LLM执行意外请求或访问受限制的资源,如内部服务、API或数据存储。

LLM06:2023

过度依赖大语言模型生成的内容

Overreliance on LLM-generated Content

在没有人为监督的情况下过度依赖法LLM生成的内容可能会导致不良后果。

LLM07:2023

人工智能未充分对齐

Inadequate AI Alignment

未能确保LLM的目标和行为与预期用例保持一致,从而导致不良后果或漏洞。

LLM08:2023

访问控制不足

Controls Insufficient Access

未正确实现访问控制或身份验证,将允许未经授权的用户与LLM交互,并可能导致漏洞被利用。

LLM09:2023

错误处置不当

Improper Error Handling

暴露错误消息或调试信息,将导致敏感信息、系统详细信息或潜在攻击向量的泄露。

LLM10:2023

训练数据投毒

Training Data Poisoning

恶意操纵训练数据或微调程序,将漏洞或后门引入LLM。

文档下载:

OWASP 大语言模型应用程序十大风险

英文项目:

https://owasp.org/www-project-top-10-for-large-language-model-applications/