MCP Client for Ollama:面向本地LLM开发者的终端交互利器,轻松连接多台MCP服务器,实现高级工具调用与工作流自动化。

🌐 支持多服务器并行,兼容 STDIO、SSE 和 Streamable HTTP 多种传输协议
🎨 现代化交互式终端UI,带模糊自动补全和高亮JSON工具展示,提升操作效率
🚀 实时流式响应,切换任意本地Ollama模型无需重启,支持上下文窗口动态调整
🛠 完整工具管理,支持启停服务器与工具;Human-in-the-Loop机制保障执行安全
🧠 思考模式可视化,展示模型推理过程,支持多款主流模型如qwen3、llama3等
🔄 热重载服务器配置,便于开发调试,无需中断会话,保持状态与偏好同步
💾 配置持久化,保存模型参数、工具状态、上下文管理和性能指标显示偏好
📊 内置性能监控,详细记录响应时长、token数量及生成速率,助力性能优化
🗣 支持Python和JavaScript服务器,自动发现Claude配置,跨语言无缝对接
⚙️ 基于Typer的现代CLI体验,支持命令分组、shell自动补全及丰富帮助文档

MCP Client for Ollama让本地大模型的工具调用和多服务器管理变得直观高效,极大简化开发流程,提升安全与可控性。
DeepMCPAgent:打造无缝动态工具发现的模型无关智能代理框架

• 动态发现MCP工具,免去手动连线,支持HTTP/SSE协议,轻松接入远程API并支持多种认证方式
• 兼容任意LangChain聊天模型(OpenAI、Anthropic、Ollama等),支持BYOM(Bring Your Own Model),灵活度极高
• 深度代理循环(DeepAgents)加持,更智能的任务规划与执行,未装则自动回退LangGraph ReAct策略
• 工具调用严格类型校验,JSON-Schema→Pydantic→LangChain BaseTool,保证调用安全与准确
• 生产级代码质量保障:mypy严格类型、ruff代码风格、pytest测试覆盖、GitHub Actions自动化集成
• 丰富CLI工具,无需编程即可列举工具、交互式对话,支持多服务器多身份认证配置
• 设计理念颠覆传统:代理不应硬编码工具,应实时发现与调用,极大提升扩展性与维护性
• 完善架构图与运行流程详解,助力开发者快速理解系统底层运作和集成部署细节
• 开源Apache-2.0授权,社区活跃,已获500+星标认可,适合构建自主智能代理与复杂自动化系统

快速入门:pip install "deepmcpagent[deep]",几行代码即可运行示例MCP服务器与代理
MCP Prompts Server:专为 LLM 交互设计的高扩展性提示管理平台,基于 Model Context Protocol (MCP) 构建,助力 AI 助理和开发者高效管理与复用提示模板。

• 双模式支持:传统 REST API 的 HTTP 模式 + 专为 AI 设计的 MCP 模式,灵活适配多种应用场景
• 丰富工具集(7款):新增、查询、筛选、更新、删除提示,模板变量应用,统计数据获取,全面覆盖提示生命周期管理
• 预置高效模板:代码审查、文档写作、缺陷分析、架构评审、测试用例生成,开箱即用提升生产力
• 完整版本控制与标签系统:支持多版本跟踪及标签分类,保障提示管理规范化与高效检索
• 强类型 TypeScript 支持,Docker 容器即装即用,方便集成部署与开发调试
• 深度集成 Cursor AI 助手,支持自然语言指令管理提示,提升交互效率
• 采用六边形架构设计,核心业务与基础设施分离,保证系统灵活可维护
• 开源社区活跃,持续更新迭代,生产环境级稳定运行(版本3.0.8)

长期来看,MCP Prompts 不仅优化了提示管理流程,更通过结构化模板和版本治理,为复杂 LLM 项目提供坚实底座,显著降低开发与维护成本。
顶尖1%开源工程师招聘平台Algora,重塑技术招聘流程:

• 集成Web应用 + GitHub App + 支付处理,覆盖职位发布、合同管理、赏金激励及合规支付
• 自动展示开发者顶尖OSS贡献,招聘方可基于开源表现自动筛选和排名候选人
• 支持全职与合同制岗位匹配,结合技术栈、预算、地理位置实现智能匹配
• 赏金机制助力OSS社区与闭源团队激励贡献者,合同管理实现基于成果的支付
• 支持面试环节通过赏金任务验证候选人真实能力,贡献优先入职提升团队效率
• 未来支持多平台集成(GitLab、Linear等)、多支付方式(支付宝、Wise、加密货币)和多端客户端(移动、桌面、CLI)
• 开源自托管,灵活满足不同团队需求,技术栈基于Elixir/Phoenix,易上手且高性能
Back to Top