Byparr:专为绕过 Cloudflare 等反爬机制设计的 HTTP Cookie 和 Headers 生成工具,基于 seleniumbase 与 FastAPI,接口兼容 FlareSolverr。

• 通过模拟浏览器行为获取有效 Cookie,极大提升反爬挑战通过率,但不保证 100% 成功,需配合用户公网 IP 真实流量。
• 支持 API 文档在线访问(/docs),便于开发调试与集成。
• 内置多次 CAPTCHA 重试机制(默认 3 次),有效应对偶发验证码失败。
• 提供 Docker 和本地多种部署方案,支持环境变量灵活配置代理、头部和运行模式。
• 目前对 ARM 架构(如 Synology NAS)支持有限,适合通用服务器及开发环境。
• 推荐配合 ProxyBase 代理服务,低价高效代理显著提升成功率,助力稳定绕过反爬。
Editor Code Assistant (ECA) for Emacs,打造无缝 AI 协同编程体验

• 基于 Emacs 28.1+,借鉴 lsp-mode 的 JSONRPC 实现,连接外部 ECA 服务器,实现交互式聊天、智能代码建议及上下文管理
• 启动简单:M-x eca 即可启动,自动检测或下载服务器二进制,无需额外配置
• 支持多种上下文添加方式:函数级、文件级动态注入,提高代码理解与建议准确率
• 丰富快捷键与自定义变量,灵活切换聊天窗口位置、大小及显示模式,优化开发者交互体验
• 可选 whisper.el 集成,实现语音转文本,摆脱键盘束缚,提升效率(推荐 small 模型平衡速度与准确)
• 详细故障排查方案,涵盖环境变量、服务启动、日志调试,保障稳定运行
• 完全开源,Apache-2.0 许可,欢迎贡献代码和功能拓展,助力 Emacs AI 编程生态繁荣
HealthChain:简化医疗 AI 与 EHR 系统连接的关键桥梁

• 统一 API 网关支持多种协议(FHIR、CDS Hooks、SOAP/CDA),同步异步均可,轻松接入多家医疗数据源
• 内置 InteropEngine,可模板化转换 FHIR、CDA、HL7v2,解决复杂医疗数据标准兼容难题
• 原生支持 FHIR 资源的类型安全校验+Pydantic 验证,确保医疗数据准确无误
• 高度模块化 Pipelines,优化实时 NLP 和 AI 任务,助力医疗文本和结构化数据深度解析
• 集成事件驱动日志和操作追踪,满足审计和合规需求,适合生产环境快速部署
• 生成合成医疗数据和沙箱测试工具,支持临床决策支持系统(CDS Hooks)模拟演练
• 轻量 CLI 配置工具,零门槛启动复杂医疗 AI 应用开发,专注算法创新而非底层协议学习
• 未来规划覆盖 HL7v2 解析、HIPAA 合规检测、多模态管线及 MLFlow 监控,打造端到端医疗 AI 生态

医疗数据碎片化与标准复杂性长期制约 AI 应用落地,HealthChain 以工程化手法消除接口壁垒,让医疗 AI 研发回归核心价值——智能洞见与患者关怀。
Port Kill:macOS 状态栏轻量级开发端口监控工具,专为监控和管理 2000-6000 端口上的开发进程设计。 | #工具

• 实时扫描端口(默认每 5 秒一次),精准监测 TCP LISTEN 状态进程,支持自定义端口范围与指定端口列表。
• 状态栏图标直观显示进程数量及风险等级(绿色=0,红色=1-9,橙色=10+),悬浮查看精确数量。
• 动态菜单每 3 秒刷新,显示具体进程(包含 Docker 容器名),一键杀死单个或全部进程,支持安全的 SIGTERM → SIGKILL 终止策略。
• 完全无主窗口设计,基于 winit 事件循环稳定运行,后台线程处理进程终止,确保界面流畅。
• Docker 集成:自动识别容器进程,优雅停止容器,fallback 强制移除,适合现代容器化开发环境。
• 支持命令行参数灵活配置端口范围、开启控制台模式、显示 PID、开启详细日志,满足多场景调试需求。
• 细致权限和错误处理,防止误杀,杀进程前需确认,适配 macOS 10.15+ 环境。
• 开源且依赖 Rust 生态组件(tokio、crossbeam-channel、nix 等),便于二次开发和定制。

Port Kill 以极简界面隐藏复杂的端口管理逻辑,帮助开发者精准掌控本机开发端口使用状况,避免端口冲突和僵尸进程风险,提高开发效率与安全性。
unarEngine:开源的 Luau 3D 游戏引擎,兼容现有 API,致力于为开发者提供完全掌控的开发环境。

• 基于 Luau 脚本语言,支持近乎无缝迁移现有 Luau 代码,降低学习成本。
• 实现基础场景渲染、灯光、阴影、天空盒及基本摄像机移动,打造沉浸式3D体验。
• 几乎完整的 Instance API 支持,包括 Part 创建与控制(颜色、透明度、大小、位置、旋转)。
• 内置高效任务调度器 Hyperball,支持协程、事件绑定及多种脚本类型(Scripts、LocalScripts)。
• 平台依赖极少,仅基于跨平台 raylib,目前支持 Windows,Linux 版本优先开发中。
• 开发模式灵活,未来将支持用户输入、玩家系统、物理碰撞、网格、图像渲染及 GUI,实现完整交互体验。
• 未来目标包括服务器支持、全功能编辑器、完全自定义 API 与商业化能力,真正让开发者拥有游戏全链路。
• 完全开源且无版权束缚,适合从独立开发者到团队的长期项目建设。
轻量级且高速的车牌 OCR 模型,专为车牌文本识别设计,兼顾训练灵活性与推理效率。

• 多后端支持:无缝兼容 TensorFlow、PyTorch、JAX 与 Keras 3,满足多样化开发需求 🧠
• 丰富数据增强:利用 Albumentations 库实现多样训练时图像增强,提升泛化能力 🖼
• 极致轻量高效:模型体积小,推理成本低,适合实际部署 💰
• ONNX Runtime 加速:支持多平台高性能推理,含 NVIDIA CUDA、Intel OpenVINO、Qualcomm QNN 等 ⚡️
• 简洁命令行工具:便捷训练与验证流程,快速上手 🛠
• 预训练模型库:多款优化模型即用即测,支持微调与定制 🔧
• 多格式导出:支持 CoreML 和 TFLite,便于在移动端和嵌入式设备部署 📦
• 训练示例全覆盖:包含细致的微调教程 notebook,助力用户快速构建专属模型

性能指标(NVIDIA RTX 3090):
- cct-xs-v1-global-model:0.32ms 延迟,3094 车牌/秒
- cct-s-v1-global-model:0.59ms 延迟,1701 车牌/秒

适合搭配车牌检测器使用,先定位车牌,再快速识别文字,构建高效车牌识别系统。开源 MIT 许可,欢迎贡献和定制。
Kelp:专为热爱 HTML 的开发者设计的现代 UI 库,基于 Web Components 和现代 CSS,零构建步骤即可上手。

• 无需编译,CDN 引入即用,支持语义化版本控制(@版本号),灵活掌控更新节奏
• 内置完整示例(index.html),涵盖所有组件与功能,方便快速体验与学习
• 采用 ES 模块导入,需本地服务器环境运行,支持自定义端口,npm 脚本即刻启动开发服务器
• 测试与质量保障:集成 Playwright 测试套件、Biome 代码风格校验,CI 自动化部署与 PR 流程保障稳定性
• 当前仍处于 alpha 阶段,欢迎试用反馈,未来将引入构建步骤提升性能和体验
• 免费遵循 Kelp Commons License,亦提供商业授权,适合探索前沿组件化开发方案

Kelp 以纯净、高效、模块化的设计,助力前端开发者深度掌握 Web Component 生态,为构建可维护、语义清晰的 UI 奠定坚实基础。
AnySense:一款针对 iPhone 的多传感器数据采集与学习应用,突破传统单一传感输入,支持多源融合,赋能机器人感知研究。

• 集成 iPhone 自带传感器及外部多传感器(蓝牙、USB)输入,支持离线录制与在线流式传输,适配多场景数据采集需求
• 同步记录 RGB 视频 (.mp4)、深度视频 (.mp4)、精确深度帧(二进制 .bin)、蓝牙数据流(.bin)及时间戳姿态数据(.txt),多模态数据格式标准化管理
• 提供基于 XCode 的源码开放,支持自定义开发与扩展,简化 iOS 设备调试与应用构建流程
• 适配机器人实时感知数据输入,助力通用机器人与 AI 实验室实现跨设备、多模态感知融合研究
• MIT 开源协议,便于学术与工业界自由使用与二次开发

AnySense 不仅是数据采集工具,更是连接智能硬件与机器人感知的桥梁,推动多传感融合技术落地的关键一步。
Sakura:极简高性能终端多媒体渲染库,支持图片、GIF、视频的 SIXEL 及多种 ASCII 模式渲染,带来突破传统终端显示限制的视觉体验

• 核心能力
- 原生 SIXEL 图形渲染,像素级还原,支持 JPG/PNG/BMP 图片,GIF 动画和 MP4/AVI/MOV/MKV 视频
- 实时音视频同步播放,基于 ffmpeg,保证流畅同步体验
- 直接 URL 流式下载播放,无需本地缓存,支持多种网络资源
- 多样渲染模式:SIXEL、EXACT(增强 ASCII)、ASCII_COLOR(24-bit 彩色)、ASCII_GRAY(灰度字符)
- 智能自适应终端尺寸,保持画面纵横比和清晰度
- 性能优化:预解码队列、多线程帧调度、动态调色板、差异区域更新减少绘制开销

• 高级特性
- 多种字符集支持,从基础 ASCII 到超细微块字符,提升细节表现力
- Floyd-Steinberg & Atkinson 抖动算法,细腻还原图像层次
- 硬件加速解码管线可选,提升大视频处理效率
- 灵活缩放模式(STRETCH、COVER、CONTAIN)满足不同终端布局需求
- 可配置的预缓冲帧数与队列大小,平衡延迟与流畅度

• 技术架构
- 基于现代 C++,核心依赖 OpenCV(图像解码处理)、libsixel(高质量 SIXEL 编码)、cpr(HTTP 请求)、ffmpeg(音视频同步)
- 支持多平台包管理与构建,包括 Ubuntu、Arch Linux、macOS 及 NixOS flakes 配置

• 未来规划涵盖错误处理、单元测试、GPU 加速、WebM 支持、实时流输入与插件架构,具备长期演进潜力

Sakura 打破传统终端多媒体限制,融合高性能渲染与灵活配置,是开发者探索终端视觉表现和多媒体交互的利器。
MCP Alchemy 打通 LLM 与关系型数据库的桥梁,助力 Claude Desktop 实现智能数据库交互:

• 支持主流数据库:PostgreSQL、MySQL、MariaDB、SQLite、Oracle、MS SQL Server、CrateDB、Vertica 等所有 SQLAlchemy 兼容数据库
• 直接访问数据库结构,自动识别表关系,帮助理解复杂数据模型
• 辅助生成与校验 SQL 查询,提升查询效率与准确度
• 支持大数据集分析,结合 claude-local-files 实现完整结果集访问与详细报告生成
• 连接池优化设计,自动处理连接超时与重连,保证长时间稳定运行
• 灵活配置环境变量,满足多场景定制需求,包括连接参数与查询输出长度
• 开源免费,社区活跃,持续维护与功能迭代,欢迎贡献代码与反馈
• 安装便捷,支持 PyPI 一键部署,快速集成 Claude Desktop

让 LLM 不再是孤立的智能体,而是数据库专家级助手,极大提升数据洞察与操作效率。
Easy LLM CLI:一款开源多模型兼容的 AI agent,专为开发者打造高效命令行 AI 工作流工具 | #工具

• 支持 Gemini、OpenAI 及任意兼容 OpenAI API 格式的自定义 LLM,轻松切换不同模型,无需更改操作习惯
• 具备大上下文窗口,能查询并编辑超大代码库,极大提升代码理解和改写效率
• 多模态能力支持从 PDF、草图直接生成应用,自动化处理复杂运维任务,如 PR 查询、复杂 rebase 等
• 通过工具和 MCP 服务器扩展能力,连接本地系统工具和企业协作套件,打造个性化自动化流程
• 简单环境变量配置,支持多维度模型测试(链式思考、多任务复杂度、工具调用、Token 计数等),兼容主流及本地部署模型
• 提供 NPM 方式集成,方便嵌入应用,支持生成图表、分析代码、构建项目等多样场景

使用门槛低,功能强大,适合需要快速构建 AI 驱动开发和运维工具的团队与个人。
Back to Top