• 免费在线访问,无需安装,支持多语言界面,覆盖全球用户。
• 丰富的仿真类型:从经典力学、电磁学,到化学反应、生物过程及地理现象,全面支持跨学科教学与自学。
• 交互式设计,操作直观,帮助用户深刻理解抽象概念和复杂原理。
• 教师资源丰富,含教学活动建议及课程集成方案,提升课堂体验与效果。
• 移动端和桌面端兼容,支持离线使用,方便随时随地学习和演示。
• 持续更新与优化,基于教育研究和用户反馈,确保内容科学性与实用性。
理科教育者与学习者的必备工具,助力构建扎实的科学素养和探究能力。
Code Context:为 Claude Code 及多款 AI 编码 agent 提供强语义代码搜索的 MCP 插件,助力深度理解海量代码库。
• 🔍 语义搜索:基于上下文,精确定位功能和代码片段,快速回答复杂查询如“用户认证相关函数”。
• 🧠 深度语境感知:跨百万行代码理解代码间关联,提升大规模项目维护与协作效率。
• ⚡️ 增量索引:利用 Merkle 树仅重建变更文件索引,节省计算资源,提升响应速度。
• 🧩 智能代码切分:基于 AST 解析代码结构,优化碎片化存储和检索。
• 🗄 可扩展架构:无缝集成 Zilliz Cloud 向量数据库,支持任意规模向量化检索。
• 🛠 灵活配置:支持多语言、多文件类型,允许自定义忽略规则和嵌入模型。
• 🚀 多端兼容:支持 Claude Code、Gemini CLI、VSCode 扩展及其他 MCP 客户端,轻松融入现有开发流程。
• 📦 开源生态:核心引擎、VSCode 扩展、MCP 服务端三大模块一体化设计,便于二次开发和社区贡献。
Code Context 打通了语义搜索与代码理解的壁垒,采用增量索引+AST切分+向量数据库相结合的“三位一体”方案,既保证实时性,又兼顾语义深度和规模扩展,极大提升 AI 编码助手的智能水平和开发者效率。
• 🔍 语义搜索:基于上下文,精确定位功能和代码片段,快速回答复杂查询如“用户认证相关函数”。
• 🧠 深度语境感知:跨百万行代码理解代码间关联,提升大规模项目维护与协作效率。
• ⚡️ 增量索引:利用 Merkle 树仅重建变更文件索引,节省计算资源,提升响应速度。
• 🧩 智能代码切分:基于 AST 解析代码结构,优化碎片化存储和检索。
• 🗄 可扩展架构:无缝集成 Zilliz Cloud 向量数据库,支持任意规模向量化检索。
• 🛠 灵活配置:支持多语言、多文件类型,允许自定义忽略规则和嵌入模型。
• 🚀 多端兼容:支持 Claude Code、Gemini CLI、VSCode 扩展及其他 MCP 客户端,轻松融入现有开发流程。
• 📦 开源生态:核心引擎、VSCode 扩展、MCP 服务端三大模块一体化设计,便于二次开发和社区贡献。
Code Context 打通了语义搜索与代码理解的壁垒,采用增量索引+AST切分+向量数据库相结合的“三位一体”方案,既保证实时性,又兼顾语义深度和规模扩展,极大提升 AI 编码助手的智能水平和开发者效率。
腾讯混元World 1.0首发,开启沉浸式交互3D世界生成新时代
• 支持文本与图像输入,自动生成360°全景沉浸式3D世界,兼顾视觉多样性与几何一致性。
• 语义分层3D网格表示,支持对象解耦,提升场景互动性与扩展性。
• Mesh格式导出,完美兼容现有CG管线,便于游戏开发、虚拟现实及物理模拟等多场景应用。
• 性能领先:在BRISQUE、NIQE、Q-Align等指标上均优于主流全景与3D生成方法,保证视觉质量与几何精度。
• 开源生态:基于Flux架构,兼容Hunyuan Image、Kontext、Stable Diffusion等主流图像生成模型。
• 配套工具丰富,提供模型Zoo、快速环境配置脚本、3D模型浏览器,方便上手与二次开发。
• 深层洞察:融合视频与3D生成优势,突破数据与内存瓶颈,推动AIGC向真实感交互空间迈进。
• 支持文本与图像输入,自动生成360°全景沉浸式3D世界,兼顾视觉多样性与几何一致性。
• 语义分层3D网格表示,支持对象解耦,提升场景互动性与扩展性。
• Mesh格式导出,完美兼容现有CG管线,便于游戏开发、虚拟现实及物理模拟等多场景应用。
• 性能领先:在BRISQUE、NIQE、Q-Align等指标上均优于主流全景与3D生成方法,保证视觉质量与几何精度。
• 开源生态:基于Flux架构,兼容Hunyuan Image、Kontext、Stable Diffusion等主流图像生成模型。
• 配套工具丰富,提供模型Zoo、快速环境配置脚本、3D模型浏览器,方便上手与二次开发。
• 深层洞察:融合视频与3D生成优势,突破数据与内存瓶颈,推动AIGC向真实感交互空间迈进。
Wan2.2:开源且领先的大规模视频生成模型,推动视频AIGC进入新阶段
• 引入Mixture-of-Experts (MoE)架构,采用双专家设计分阶段处理噪声,实现27B参数容量下14B推理成本,显著提升生成质量与收敛速度。
• 融入电影级美学数据,细化灯光、构图、色调等多维标签,实现更精准且可控的风格化视频生成。
• 训练数据大幅扩容,图像+65.6% 视频+83.2%,全面增强模型对复杂运动、语义和美学的泛化能力,性能领先业内开源及闭源竞品。
• 发布高压缩TI2V-5B模型,结合Wan2.2-VAE实现64倍压缩率,支持720P@24fps文本/图像到视频生成,能在消费级GPU(如RTX 4090)高效运行,兼顾工业与学术需求。
• 支持多GPU推理(FSDP+DeepSpeed Ulysses),并已集成至ComfyUI、Diffusers生态,方便快速部署与二次开发。
• 丰富的扩展方案:文本、图像及文本-图像混合输入,多样prompt扩展方法(Dashscope API、本地Qwen模型)提升细节表现。
• 完整开源,Apache 2.0授权,兼顾自由使用与合规责任,助力科研与产业创新。
通过MoE架构巧妙平衡模型容量与推理效率,是提升大规模视频生成质量的关键路径;高压缩VAE设计结合先进的训练范式,推动高清视频生成从实验室走向实用化;数据与美学标签的精细打磨,确保生成内容具备更强的表达力与艺术感。
• 引入Mixture-of-Experts (MoE)架构,采用双专家设计分阶段处理噪声,实现27B参数容量下14B推理成本,显著提升生成质量与收敛速度。
• 融入电影级美学数据,细化灯光、构图、色调等多维标签,实现更精准且可控的风格化视频生成。
• 训练数据大幅扩容,图像+65.6% 视频+83.2%,全面增强模型对复杂运动、语义和美学的泛化能力,性能领先业内开源及闭源竞品。
• 发布高压缩TI2V-5B模型,结合Wan2.2-VAE实现64倍压缩率,支持720P@24fps文本/图像到视频生成,能在消费级GPU(如RTX 4090)高效运行,兼顾工业与学术需求。
• 支持多GPU推理(FSDP+DeepSpeed Ulysses),并已集成至ComfyUI、Diffusers生态,方便快速部署与二次开发。
• 丰富的扩展方案:文本、图像及文本-图像混合输入,多样prompt扩展方法(Dashscope API、本地Qwen模型)提升细节表现。
• 完整开源,Apache 2.0授权,兼顾自由使用与合规责任,助力科研与产业创新。
通过MoE架构巧妙平衡模型容量与推理效率,是提升大规模视频生成质量的关键路径;高压缩VAE设计结合先进的训练范式,推动高清视频生成从实验室走向实用化;数据与美学标签的精细打磨,确保生成内容具备更强的表达力与艺术感。