Friction:一款兼具矢量与光栅动画创作能力的开源运动图形工具,专注于网页与视频动画制作。 | #工具

• 支持 SVG、2D 矢量与光栅图形,兼容多平台(Windows、Linux、macOS),基于 Qt 和 FFmpeg 实现高效渲染。
• 采用模块化版本管理(X.Y.Z),主分支持续更新,稳定分支维护长期可靠,确保项目迭代与兼容性平衡。
• 开源 GPL-3.0 许可,鼓励社区贡献,支持多渠道协同开发,便于开发者快速参与并推动项目发展。
• 丰富的动画设计功能,兼容现代 motion graphics 和 web-animation 标准,满足专业制作需求。
详细文档开放,降低学习门槛,助力用户快速掌握核心功能。

Friction 的设计理念在于突破传统动画工具的限制,融合矢量与光栅的灵活性,打造高效且可扩展的运动图形创作体验。
Mediabunny:纯 TypeScript 实现的高性能浏览器端音视频处理工具,零依赖、极致轻量,专为现代 Web 应用设计。| #工具

• 支持 MP4、MOV、WebM、MKV、WAVE、MP3、Ogg、ADTS 等多种容器格式的读写与转换
• 内置 25+ 视频、音频及字幕编解码器,利用 WebCodecs API 硬件加速,性能媲美 FFmpeg
• 精度微秒级,支持转码、转封装、裁剪、旋转、重采样、尺寸调整等多样化转换操作
• 流式读写大文件,内存占用极低,适合处理任意大小的媒体数据
• 极致树摇优化,只打包所需功能,压缩后可小至 5KB,提升加载速度和性能
• 支持浏览器和 Node.js 跨平台环境,覆盖更多使用场景
• 完全开源,MPL-2.0 许可,允许商业闭源使用,且要求修改公开,推动社区共建

Mediabunny 从底层多路复用与解复用模块重构,结合 WebCodecs,打造了极具竞争力的浏览器端媒体框架,适合开发者打造下一代轻量且高效的音视频应用。
线性代数的核心理论被传统教材繁复矩阵计算掩盖,却本质简单且极具力量。

The Little Book of Linear Algebra》是一部精炼、易懂且系统的入门指南,涵盖从向量、矩阵基础到特征值、正交分解、PCA 等核心内容,适合初学者及进阶者长期参考。

• 内容结构清晰:从标量、向量定义,到矩阵运算、线性变换,再到正交性、特征值与特征向量,逐步深入,配合丰富例题与练习,理论与实操兼备。
• 直观几何诠释:每个抽象概念均辅以几何意义,如向量的空间位置、矩阵的线性变换、特征向量对应变换不变方向,帮助构建直觉认知。
• 涵盖现代应用:详解PCA、最小二乘法、Markov链、图论、机器学习中的线性代数,理论与现实问题紧密结合。
• 多种格式支持:提供PDF打印版、EPUB电子书、LaTeX源码,方便不同使用场景。
• 开源项目,活跃社区:GitHub上有超过1200星标,持续更新维护,适合自主学习和深入研究。

真正理解线性代数,远不仅是掌握公式,更是洞察其如何统一代数与几何、如何支撑现代科学计算与数据科学。这本书以简驭繁,帮助你构建坚实基础和长远视野。
ManiUniCon:一站式机器人操作控制框架,针对多机器人臂与多传感器环境设计,实现高频实时控制与灵活算法部署。

• 模块化架构,支持即插即用,轻松集成UR5、XArm6及更多机械臂
• 多进程共享内存实现毫秒级控制响应,满足实时操作需求
• 一键切换数据采集与策略执行,提升开发效率
• 兼容Intel RealSense摄像头、多种遥控设备(Meta Quest、SpaceMouse、键盘)
• 基于Hydra的配置管理,快速调整机器人、传感器及策略参数
• 支持PyTorch模型定制,方便集成最新学习算法,算法无关设计开放扩展
• 提供紧急停止、错误处理、安全复位等完备安全机制
• 内置3D Meshcat可视化,便于状态监控与调试
• 完善工具链涵盖演示数据录制、处理、回放及摄像头标定
• 开源MIT协议,鼓励社区贡献与快速迭代

ManiUniCon不仅简化了复杂机器人系统的操作流程,更通过统一接口打破设备和算法壁垒,助力科研与工业应用高效协同发展。适合多机器人多任务场景,兼顾实时性与灵活性,是实现智能操控的关键枢纽。
Open-dLLM:首个全开源扩散式大语言模型全栈项目,覆盖预训练、评测、推理与权重发布,刷新了扩散 LLM 的开放透明度标准。

• 集成 Open-dCoder 代码生成模型,参数仅0.5B,却在代码补全和填充任务上超越多款7-8B级别扩散模型。
• 全流程开源:从原始数据、训练代码、评测脚本到推理代码及模型权重一应俱全,确保结果可复现。
• 评测覆盖 HumanEval、MBPP、Infilling 等多维度代码生成与填充指标,Open-dCoder代码填充准确率高达77.4%。
• 采用 Masked Diffusion Model (MDM) 训练目标,创新地通过不同比例掩码实现代码片段重建,提升模型生成质量。
• 预训练基于 Hugging Face 发布的 FineCode 高质量代码数据集,且继承 Qwen2.5-Coder 转扩散架构,兼顾效率与性能。
• 配套详尽安装与推理示例,支持 CUDA 12.3、FlashAttention 等最新硬件加速技术,方便快速上手。
• 对比目前主流扩散 LLM(LLaDA、Dream等)仅开放推理+权重,Open-dLLM全面开放训练与评估,真正做到透明与可控。
Xorq:面向多引擎计算的声明式表达式管理框架,助力构建可复用、跨 Python 与 SQL 的机器学习流水线。| #框架

• 统一 pandas 风格和 Ibis 语法,支持 DuckDB、Snowflake、DataFusion 等多引擎无缝切换。
• 以 YAML 格式定义表达式,实现计算流程可版本化、可复现、易共享。
• 支持可移植的 UDF/UDAF,自动序列化,避免引擎锁定。
• 内置基于表达式哈希的缓存机制,最大限度减少重复计算,提升效率。
• 提供列级血缘追踪与可视化,便于调试与审计。
• 编译时校验数据模式和关系完整性,降低运行时错误风险。
• 输出完整表达式图、元数据及 SQL 文件,方便持续集成与审查。
• 基于 Apache Arrow 零拷贝数据传输,底层集成 Ibis 与 DataFusion,保障高性能。

Xorq 正处于快速迭代的 beta 阶段,适合追求流水线一致性与跨平台灵活性的团队提前布局。
Back to Top