专注于语言模型安全的开源工具,助力研究人员检测和分析大语言模型中的后门风险。
• 支持多种主流 LLM 框架,便于集成与扩展,适配性强。
• 提供系统化的后门注入与检测方法,帮助识别模型潜在威胁。
• 详细日志记录与分析报告,方便追踪攻击路径与定位漏洞。
• 开源代码及文档完善,支持社区贡献和定制化开发。
• 适合安全研究、模型审计及防护方案构建,推动 LLM 安全生态健康发展

BackdoorLLM | #工具
 
 
Back to Top