MCP Client for Ollama:面向本地LLM开发者的终端交互利器,轻松连接多台MCP服务器,实现高级工具调用与工作流自动化。

🌐 支持多服务器并行,兼容 STDIO、SSE 和 Streamable HTTP 多种传输协议
🎨 现代化交互式终端UI,带模糊自动补全和高亮JSON工具展示,提升操作效率
🚀 实时流式响应,切换任意本地Ollama模型无需重启,支持上下文窗口动态调整
🛠 完整工具管理,支持启停服务器与工具;Human-in-the-Loop机制保障执行安全
🧠 思考模式可视化,展示模型推理过程,支持多款主流模型如qwen3、llama3等
🔄 热重载服务器配置,便于开发调试,无需中断会话,保持状态与偏好同步
💾 配置持久化,保存模型参数、工具状态、上下文管理和性能指标显示偏好
📊 内置性能监控,详细记录响应时长、token数量及生成速率,助力性能优化
🗣 支持Python和JavaScript服务器,自动发现Claude配置,跨语言无缝对接
⚙️ 基于Typer的现代CLI体验,支持命令分组、shell自动补全及丰富帮助文档

MCP Client for Ollama让本地大模型的工具调用和多服务器管理变得直观高效,极大简化开发流程,提升安全与可控性。
DeepMCPAgent:打造无缝动态工具发现的模型无关智能代理框架

• 动态发现MCP工具,免去手动连线,支持HTTP/SSE协议,轻松接入远程API并支持多种认证方式
• 兼容任意LangChain聊天模型(OpenAI、Anthropic、Ollama等),支持BYOM(Bring Your Own Model),灵活度极高
• 深度代理循环(DeepAgents)加持,更智能的任务规划与执行,未装则自动回退LangGraph ReAct策略
• 工具调用严格类型校验,JSON-Schema→Pydantic→LangChain BaseTool,保证调用安全与准确
• 生产级代码质量保障:mypy严格类型、ruff代码风格、pytest测试覆盖、GitHub Actions自动化集成
• 丰富CLI工具,无需编程即可列举工具、交互式对话,支持多服务器多身份认证配置
• 设计理念颠覆传统:代理不应硬编码工具,应实时发现与调用,极大提升扩展性与维护性
• 完善架构图与运行流程详解,助力开发者快速理解系统底层运作和集成部署细节
• 开源Apache-2.0授权,社区活跃,已获500+星标认可,适合构建自主智能代理与复杂自动化系统

快速入门:pip install "deepmcpagent[deep]",几行代码即可运行示例MCP服务器与代理
MCP Prompts Server:专为 LLM 交互设计的高扩展性提示管理平台,基于 Model Context Protocol (MCP) 构建,助力 AI 助理和开发者高效管理与复用提示模板。

• 双模式支持:传统 REST API 的 HTTP 模式 + 专为 AI 设计的 MCP 模式,灵活适配多种应用场景
• 丰富工具集(7款):新增、查询、筛选、更新、删除提示,模板变量应用,统计数据获取,全面覆盖提示生命周期管理
• 预置高效模板:代码审查、文档写作、缺陷分析、架构评审、测试用例生成,开箱即用提升生产力
• 完整版本控制与标签系统:支持多版本跟踪及标签分类,保障提示管理规范化与高效检索
• 强类型 TypeScript 支持,Docker 容器即装即用,方便集成部署与开发调试
• 深度集成 Cursor AI 助手,支持自然语言指令管理提示,提升交互效率
• 采用六边形架构设计,核心业务与基础设施分离,保证系统灵活可维护
• 开源社区活跃,持续更新迭代,生产环境级稳定运行(版本3.0.8)

长期来看,MCP Prompts 不仅优化了提示管理流程,更通过结构化模板和版本治理,为复杂 LLM 项目提供坚实底座,显著降低开发与维护成本。
顶尖1%开源工程师招聘平台Algora,重塑技术招聘流程:

• 集成Web应用 + GitHub App + 支付处理,覆盖职位发布、合同管理、赏金激励及合规支付
• 自动展示开发者顶尖OSS贡献,招聘方可基于开源表现自动筛选和排名候选人
• 支持全职与合同制岗位匹配,结合技术栈、预算、地理位置实现智能匹配
• 赏金机制助力OSS社区与闭源团队激励贡献者,合同管理实现基于成果的支付
• 支持面试环节通过赏金任务验证候选人真实能力,贡献优先入职提升团队效率
• 未来支持多平台集成(GitLab、Linear等)、多支付方式(支付宝、Wise、加密货币)和多端客户端(移动、桌面、CLI)
• 开源自托管,灵活满足不同团队需求,技术栈基于Elixir/Phoenix,易上手且高性能
APEX+ 是面向大规模语言模型(LLM)服务的自动并行执行模拟器,突破传统启发式调度限制,实现更高效、更节能的推理方案。

• 支持多种硬件后端(包括V100、H100、H200 GPU及其他设备),通过op级别性能剖析数据驱动,轻松适配不同集群架构。
• 动态感知请求上下文长度与生成长度,模拟迭代级批处理,利用LLM重复结构极大缩减设计空间,支持万亿参数级模型扩展。
• 规划速度提升3.37倍,能耗降低高达45%(相较于延迟最优方案),15分钟内CPU端即可获得最优执行计划,远超云端GPU部署(71倍更快,1234倍成本效益)。
• 输出详尽性能指标(如TTFT、TPOT、吞吐量、资源利用率等),帮助服务商精准达成SLO目标,支持自定义最大批处理规模。
• 支持真实请求日志模拟(.jsonl格式),涵盖多模型架构(解码器、编码器-解码器、MoE),并可与vLLM、SGLang等实际服务框架联合验证。

APEX+通过科学模拟与灵活配置,推动LLM推理服务进入高效节能新时代,助力规模化部署与服务质量保障。
Nocterm:一款受 Flutter 启发、专为 Dart 设计的终端用户界面框架,致力于打造美观且高效的命令行应用。| #框架

🎯Flutter 风格 API,组件化设计完全贴合 Flutter 习惯,极大降低学习成本
🔥热重载支持,开发时界面变更即时生效,提升迭代效率
🎨丰富样式能力,支持全彩色、边框、内边距与文本多样化样式
⚡️响应式状态管理,内置 StatefulComponent + setState(),简化状态控制
⌨️全面键盘事件处理,含焦点管理,交互体验更自然流畅
📐灵活布局系统,涵盖 Row、Column、Stack 及约束布局,满足多样界面需求
🧪Flutter 式测试框架,方便编写 TUI 组件单元测试,确保稳定性
🌈跨平台兼容 Windows/macOS/Linux,同一套代码多端复用

⚠️ 当前处于 0.0.1 早期实验阶段,API 可能大幅变更,存在不稳定风险,适合愿意探索的开发者

Nocterm 打破传统 CLI UI 设计束缚,打造轻量但极具表现力的终端应用新体验。适合追求快速迭代与跨平台一致性的 Dart 开发者持续关注。
Back to Top