FerrisKey:专为现代云原生环境打造的开源 IAM 解决方案

• API 采用 Rust 开发,兼具高性能与安全性,显著降低内存占用与响应延迟
• 前端基于 React + TypeScript + Tailwind CSS,界面直观,用户操作流畅
• 采用六边形架构(ports and adapters),业务逻辑与基础设施完全解耦,便于扩展与维护
• 云原生优化,支持 Kubernetes 容器化部署,适应复杂分布式环境
• 内置 OAuth2、OIDC 支持,强化认证与授权安全
• 完全开源,社区驱动,便于贡献和快速迭代
• 设计理念关注长期适应性,确保系统灵活应对身份管理新挑战
FullFront:面向多模态大语言模型(MLLM)的前端工程全流程基准测试平台,覆盖设计、理解与代码生成三大核心任务。

• Webpage Design:评估模型对视觉元素组织与结构规划能力
• Webpage Perception QA:检测模型对页面视觉布局、元素特性及空间关系的理解深度
• Webpage Code Generation:考察模型将视觉设计精准转化为功能性代码的水平

• 支持Claude、OpenAI、Gemini等主流多模态模型的性能评测
• 完整代码生成与评估流水线,包含图像相似度与代码质量多维度指标
• 自动将生成HTML渲染成图像,方便直观比对与打分
• 提供丰富脚本,支持批量多模型响应生成与自动化评估

• 评测结果涵盖CLIP语义相似度、代码结构及内容相似度,帮助深入解析模型表现

FullFront为多模态前端AI能力的系统化评估提供了坚实工具,助力推动前端智能化的精准测量与持续优化。
shadcn-editor:基于 Lexical 构建的现代富文本编辑器,深度集成 shadcn/ui 组件,专为 React 和 Next.js 项目设计,满足高效、灵活的文本编辑需求。| #编辑器

• 一键安装:通过命令 npx shadcn@latest add 快速集成完整编辑器配置,开箱即用,极大提升开发效率。
• 组件化设计:Editor 组件封装清晰,支持序列化状态管理,便于状态同步与持久化,适合复杂交互场景。
• 功能丰富:支持标准富文本编辑功能,文本格式、段落管理及方向控制,满足多样化排版需求。
• 轻量且可扩展:基于 Lexical 框架,拥有良好的性能与可定制性,方便二次开发与集成第三方功能。
• 开源生态:GitHub 上已获 820+ star,活跃社区支持,持续迭代更新,保障长期稳定维护。
• 适用场景:后台管理系统、内容创作平台、知识管理工具等多领域富文本需求的理想选择。

高效集成、稳定性能与丰富扩展,shadcn-editor 助力开发者打造专业级富文本体验。
中文敏感词库——助力内容合规与安全的高效方案

• 覆盖数万条敏感词,涵盖政治、色情、暴力等多个重点领域,保障内容审核全面有效
• 持续社区驱动更新,紧跟社会语境变化,确保词库时效性与准确性
• 纯文本格式,兼容任意编程语言和框架,支持多种过滤算法(DFA、Trie、正则等)快速集成
• 开源 MIT 许可,支持自由使用、修改与分发,欢迎贡献词汇和优化建议
• 使用前请结合业务需求与当地法规,灵活调整敏感词定义,确保合规且契合实际场景
• 项目由中国数字时代与中国农业科学院信息化办公室支持,社区维护活跃,已有近千星标认可
Elasticsearch 管理利器 elasticvue,上手即用,支持所有版本,包含已终止维护的版本。

• 多平台支持:桌面应用(Windows、Mac x86/ARM、Linux)、浏览器扩展(Chrome、Firefox、Edge)、Docker 容器与网页版,灵活部署满足不同场景需求。
• 功能全面:集群概览、索引与别名管理、分片控制、文档搜索与编辑、REST 查询调试、快照与仓库管理等,极大提升日常运维效率。
• 简易配置:支持通过环境变量或配置文件预设集群信息,方便多环境切换与团队共享;CORS 配置指导,保证跨域访问顺畅。
• 兼容性强:适配主流浏览器,支持多语言界面(中、英、法、俄、日、意),国际化体验友好。
• 开源免费,MIT 许可,社区活跃,持续更新与完善,适合企业级及个人开发者长期使用。
BrowseComp-Plus 提供了一个更公平透明的深度研究 Agent 评测基准,解决了检索器与 LLM agent 交互影响难以分离的问题。核心特点如下:

• 基于 OpenAI BrowseComp 的高难度推理查询,使用固定且精心筛选的约 10 万网页文档库,包含人工验证的证据文档和难例负样本,确保任务挑战性和答案质量。📚
• 固定语料库控制检索过程,保障评测环境一致,实现不同检索器与同一 LLM agent 的系统化对比,推动结果可复现和公平竞争。
• 提供完整数据集下载与解密脚本,支持直接加载未混淆语料,便于复现实验和自定义检索器集成。
• 配套安装指南(包括 Python 3.10 环境管理工具 uv、Java 21)和预构建索引文件,简化实验上手门槛。
• 丰富实验复现支持,涵盖 OpenAI、Anthropic、Gemini、Qwen 等主流模型;可提交结果至排行榜,推动社区共享和进步。
• 除深度研究 Agent 外,支持仅检索效果的标准化评估与提交,兼顾多维度性能分析。
• 由多位顶尖学者联合打造,论文已开放获取,适合研究者长期参考和基准构建。
Higgs Audio v2:音频生成的新标杆,融合千万小时多语种数据,展现前所未有的表达力

• 训练资源全面,支持单说话人训练,正在开发多说话人版本,兼容 LoRA 微调,16G 显存即可启动
• 自动化多模型标注管道,清洗十亿级音频数据,结合语义与声学特征的统一音频 tokenizer,性能领先业界
• 采用创新 DualFFN 架构,极大提升 LLM 对声学 token 的建模能力,计算开销低,生成效果自然流畅
• 多语言、多说话人对话生成,自动韵律适配,支持零样本语音克隆与背景音乐同步生成,表现超过 GPT-4o-mini-tts
• 在 Seed-TTS、ESD、EmergentTTS 等多个权威评测中名列前茅,情感与疑问类胜率分别达 75.7% 和 55.7%
• 开箱即用的 Docker 镜像与多种环境安装方案,提供丰富示例,支持零样本语音克隆、智能单说话人生成、多说话人对话等多场景
• 适合科研、产品开发及个性化语音合成需求,助力打造更具表现力和自然度的语音交互体验

深入理解语音生成的多维度特征与上下文关联,体现了对声音本质的精准把握,是未来音频 AI 发展的重要里程碑。
JittorInfer:专为华为昇腾AI处理器打造的高性能C++推理框架,致力于实现大型语言模型的极致推理效率。

• 高性能后端:基于昇腾CANN Graph Engine和并行计算技术,推理速度大幅提升,单卡DeepSeek V2 Lite最高加速比超500%。
• 易用性强:简洁的运行接口,支持快速部署为可调用推理服务,兼容OpenAI API的llama-server服务端。
• 可扩展设计:便于添加新模型支持,满足多样化应用需求。
• 环境依赖明确:推荐CMake≥3.22,GCC≥10.3.1,华为CANN工具包≥8.2.RC1.alpha001。
• 性能测试权威:单机八卡环境下DeepSeek V2加速比最高达116%,大幅提升并发处理能力。
• 开发借鉴优秀开源项目,融合llama.cpp、ggml、torchair经验,保证架构先进稳定。

JittorInfer结合昇腾硬件优势,打造高效推理生态,助力大型语言模型产业化落地。
Back to Top