ManiUniCon:一站式机器人操作控制框架,针对多机器人臂与多传感器环境设计,实现高频实时控制与灵活算法部署。

• 模块化架构,支持即插即用,轻松集成UR5、XArm6及更多机械臂
• 多进程共享内存实现毫秒级控制响应,满足实时操作需求
• 一键切换数据采集与策略执行,提升开发效率
• 兼容Intel RealSense摄像头、多种遥控设备(Meta Quest、SpaceMouse、键盘)
• 基于Hydra的配置管理,快速调整机器人、传感器及策略参数
• 支持PyTorch模型定制,方便集成最新学习算法,算法无关设计开放扩展
• 提供紧急停止、错误处理、安全复位等完备安全机制
• 内置3D Meshcat可视化,便于状态监控与调试
• 完善工具链涵盖演示数据录制、处理、回放及摄像头标定
• 开源MIT协议,鼓励社区贡献与快速迭代

ManiUniCon不仅简化了复杂机器人系统的操作流程,更通过统一接口打破设备和算法壁垒,助力科研与工业应用高效协同发展。适合多机器人多任务场景,兼顾实时性与灵活性,是实现智能操控的关键枢纽。
Open-dLLM:首个全开源扩散式大语言模型全栈项目,覆盖预训练、评测、推理与权重发布,刷新了扩散 LLM 的开放透明度标准。

• 集成 Open-dCoder 代码生成模型,参数仅0.5B,却在代码补全和填充任务上超越多款7-8B级别扩散模型。
• 全流程开源:从原始数据、训练代码、评测脚本到推理代码及模型权重一应俱全,确保结果可复现。
• 评测覆盖 HumanEval、MBPP、Infilling 等多维度代码生成与填充指标,Open-dCoder代码填充准确率高达77.4%。
• 采用 Masked Diffusion Model (MDM) 训练目标,创新地通过不同比例掩码实现代码片段重建,提升模型生成质量。
• 预训练基于 Hugging Face 发布的 FineCode 高质量代码数据集,且继承 Qwen2.5-Coder 转扩散架构,兼顾效率与性能。
• 配套详尽安装与推理示例,支持 CUDA 12.3、FlashAttention 等最新硬件加速技术,方便快速上手。
• 对比目前主流扩散 LLM(LLaDA、Dream等)仅开放推理+权重,Open-dLLM全面开放训练与评估,真正做到透明与可控。
Xorq:面向多引擎计算的声明式表达式管理框架,助力构建可复用、跨 Python 与 SQL 的机器学习流水线。| #框架

• 统一 pandas 风格和 Ibis 语法,支持 DuckDB、Snowflake、DataFusion 等多引擎无缝切换。
• 以 YAML 格式定义表达式,实现计算流程可版本化、可复现、易共享。
• 支持可移植的 UDF/UDAF,自动序列化,避免引擎锁定。
• 内置基于表达式哈希的缓存机制,最大限度减少重复计算,提升效率。
• 提供列级血缘追踪与可视化,便于调试与审计。
• 编译时校验数据模式和关系完整性,降低运行时错误风险。
• 输出完整表达式图、元数据及 SQL 文件,方便持续集成与审查。
• 基于 Apache Arrow 零拷贝数据传输,底层集成 Ibis 与 DataFusion,保障高性能。

Xorq 正处于快速迭代的 beta 阶段,适合追求流水线一致性与跨平台灵活性的团队提前布局。
Awesome AI Efficiency:AI效率全景指南,助力打造更快、更小、更环保的智能系统🌿

• 涵盖量化、剪枝、缓存、蒸馏、分解、编译、多参数微调、推理优化等核心技术
• 结合专用硬件与训练加速,提升模型执行速度,降低能耗与成本
• 深度解读AI能耗现状:单次查询能耗高达3-40Wh,1亿用户每天发起10亿次请求,背后环境代价惊人
• 多维度工具集成:Pruna、TensorRT、ONNX、Code Carbon等,助力模型压缩与绿色计算
• 丰富资源库:论文、报告、文章、博客、书籍、课程全覆盖,追踪行业最新进展与最佳实践
OpenAPI MCP Server:让 AI 用简单语言轻松驾驭复杂 OpenAPI 规范。

• 通过三步流程:识别 API 标识 → 简单语言总结 → 精准定位并解释所需接口,极大降低理解门槛
• 支持 JSON/YAML 格式,兼容 Claude Desktop 与 Cursor,助力高效 API 探索和代码生成
• 当前 v2 版本侧重提供上下文和探索,不支持直接执行接口(鉴权问题待解决),适合开发调研与自动化文档
• 安装便捷,支持 Smithery 和 npx,使用 Claude 语音交互查询 API 详情,例如 Stripe、GitHub 等
• 开源且基于 MIT 许可证,社区活跃,欢迎贡献,适合开发者和 AI 研究者长期参考利用
AsyncFlow:专为异步分布式系统设计的场景驱动模拟器,帮助团队在代码实现前精准评估架构表现,避免盲目猜测和资源浪费。| #模拟器

• 拒绝“预测互联网”,通过声明网络RTT、抖动、资源限制和故障事件,模拟系统实际运行中的竞争、队列增长、内存占用和延迟分布。
• 事件循环感知:CPU阻塞事件循环,RAM占用持续,I/O操作释放循环,真实还原异步框架行为。
• 拓扑结构用有向图表示,支持YAML和Python构建,节点(客户端、负载均衡器、服务器)和网络边配置灵活,适配多场景测试。
• 运行模拟输出延迟统计、吞吐量、就绪队列长度及内存使用等多维度指标,直观定位性能瓶颈。
• 支持注入网络峰值、服务器宕机、链路降级等事件,探索极端条件下系统表现。
• 免写生产代码,先设计再开发,降低开发风险,提升架构稳定性和扩展性。
• 兼容Python 3.12+,跨平台支持Linux/macOS/Windows,依赖SimPy、NumPy、Matplotlib等成熟库。
• 当前版本处于Alpha阶段,未来将支持多线程、多分支流程、动态负载和更细粒度网络模型。

✔️ 解决异步系统负载预测难题,减少过度预留资源和生产事故
✔️ 以实际运行机制为基础,模拟更接近真实环境的系统动态
✔️ 便于开发者和架构师通过数据驱动决策,优化设计方案
Back to Top