R1-Onevision:一款能够深度推理的多模态视觉语言模型,专门针对深层次的视觉推理任务,能处理复杂的图像和文本数据,让复杂视觉问题迎刃而解。

超强多模态推理能力,超越GPT-4o;高质量数据集,涵盖数学、科学、图像理解等多领域;提供7B模型权重,推理性能卓越。
集成在终端中的智能编程工具,能理解代码库,通过自然语言命令帮助开发者快速执行常规任务、解释复杂代码和处理 Git 工作流程。

理解代码库,帮你快速执行常规任务;解释复杂代码,让晦涩难懂的代码瞬间清晰;处理Git工作流,从冲突解决到PR创建,全搞定。

Claude Code (Research Preview) | #工具
学术调研自动化工具,利用大型语言模型快速生成高质量学术综述。

输入标题和关键词即可生成综述;提供30+示例论文;支持多领域文献检索。

SurveyX | #工具
一个强大的OCR基准测试工具,帮助你快速评估不同多模态模型的OCR和数据提取能力,轻松找到最适合你的模型。

支持多种主流模型,如gpt-4o和Gemini;提供详细的JSON准确率和文本相似度评估;开源数据集,可自由扩展和定制。

Omni OCR Benchmark | #工具
VaViM and VaVAM:通过视频生成建模实现自动驾驶的创新方案。

提供从感知到行动的完整自动驾驶解决方案;预训练模型参数规模从185M到1.2B,满足不同需求;在多个基准测试中表现出色,助力自动驾驶研究。
类似于 git 的知识管理工具,它允许用户将本地文件转换为知识库,并支持知识库的克隆、推送等操作,旨在简化知识库的创建和共享过程。核心价值:轻松创建和分享知识库。

支持多轮对话查询,知识检索更智能;使用TF-IDF替代向量搜索,精准度更高;支持Markdown文件和图片,内容更丰富。

RAGIT | #工具
MHA2MLA:旨在通过实现 DeepSeek 的多头潜在注意力机制(MLA),使任何基于 Transformer 的大型语言模型(LLM)的推理过程更加经济高效。

经济推理,显著降低GPU内存占用;支持多种Transformer架构,适配性强;结合FlashMLA框架,理论内存节省可达80%以上
一个为机器学习研究量身定制的GitHub模板,帮助研究人员快速搭建高效、规范的项目架构。

提供详尽的文档和示例代码,轻松上手;支持云日志和自动检查点保存,方便实验管理;集成Slurm集群支持,简化分布式训练流程。

research-template | #模板
为懒惰开发者设计的Rust Web框架,让Web开发变得轻松又高效。

类似Django的易用API,快速上手;内置ORM,自动管理数据库迁移;提供开箱即用的Admin面板,简化数据管理

cot-rs/cot | #框架
摩根士丹利发布的《The Humanoid 100: Mapping the Humanoid Robot Value Chain》报告,详细介绍了人形机器人市场的全球生态、参与公司、技术分解、投资案例以及未来发展趋势

Morgan Stanley 发布的这份报告,通过对人形机器人领域的全球映射,提供了一个由 100 家公司组成的清单,这些公司涉及到人形机器人的生产和相关技术的提供。

报告将这些公司分为三个主要类别:大脑(Brain)、身体(Body)和集成商(Integrators)。

大脑部分包括提供基础模型、数据科学与分析、模拟与视觉软件、视觉和计算半导体、内存、半导体设计以及制造等公司。

身体部分涉及到传感器、电池、模拟半导体、身体、线束、热管理以及分布式自动化等。

集成商则是那些正在构建完整人形机器人或有潜力构建的公司。报告还分析了人形机器人的投资案例、市场潜力、成本结构以及未来的增长潜力。

此外,报告还提供了对人形机器人不同部件的深入剖析,以及对人形机器人技术进展对劳动力市场的潜在影响。
The_Humanoid_100_-_Mapping_the_Humanoid_Robot_Value_Chain.pdf
4.5 MB
提升Grok-3等大模型交互效率和效果的提示词工程技巧。

在评论区
最全面的AI应用安全攻击指南,涵盖了对当前 AI 模型的理解、如何使用和操控它们,以及详细的 AI 攻击场景。

文章深入探讨了 AI 应用的攻击场景,包括了解和应对提示注入攻击的重法,以及 AI 应用的责任模型。

责任模型划分了模型提供者、应用开发者和用户在安全性方面的职责分担。作者详细列举了多种 AI 应用的攻击场景,包括传统的安全漏洞、提示注入漏洞实例、其他 AI 安全漏洞、AI 信任和安全缺陷、多模态提示注入实例以及隐藏的提示注入实例。

文章还提供了针对 AI 漏洞的缓解策略,包括系统提示调整、输入过滤、角色基于的访问控制(RBAC)和沙盒隔离等。此外,作者还提供了针对 AI 应用的渗透测试方法论,包括识别数据源、查找数据泄露路径、利用传统的 Web 漏洞以及渗透测试 AI 安全和多模态漏洞。最后,文章提供了一些针对 AI 相关漏洞的 Bug Bounty 技巧,强调了清晰定义漏洞影响、与责任模型保持一致以及提供清晰的攻击示例的重要性。

从基础到高级,涵盖AI模型理解、攻击场景分析,提供大量实战案例,包括传统漏洞触发和多模态攻击,提供详细防御策略,帮助开发者加固应用。

AI Hacking Guide | #指南
Back to Top