运行60多个攻击提示以确保LLM API发布前的安全性
PromptBrake 通过 60 多种真实攻击提示对 LLM 端点进行压力测试,覆盖 12 项安全检查。它能检测提示注入、数据泄露、工具滥用、策略绕过和不安全输出,随后提供清晰的通过/警告/失败判定,并附上证据和修复指导。支持连接任何与 OpenAI、Claude 或 Gemini 兼容的 API,确保密钥不存储,并可将扫描集成到 CI/CD 发布流程中,生成可导出的报告。