Stanford-CME-295-Transformers-Large-Language-Models:斯坦福大学CME 295课程的精华总结,一站式掌握Transformer和大语言模型的核心知识。

涵盖Transformer架构、优化技巧和LLM调优方法;提供多语言版本(英语、西班牙语)的VIP速查表;与课程教材深度结合,助力高效学习
学术期刊配色推荐器,用R语言shiny包写的小程序,便于学术论文绘图时离散配色方案的选择和参考,为科研绘图提供专业配色方案。

收录200+顶刊配色方案,涵盖Science、Nature等;支持颜色透明度调节,满足多样化绘图需求;提供云端访问与本地运行双重选择

colors | #工具
为学术研究提供精准的论文引用排名分析工具。

覆盖多个人工智能顶级会议,如NeurIPS、ICML等;提供详细的引用百分位分析,帮助快速定位论文影响力;定期更新数据,确保排名信息始终最新

Paper-Citation-Ranking | #工具
Shift-To-Middle_Array:一种创新的数据结构,为列表和双端队列的实现带来高性能优化。

两端插入和删除操作均摊时间复杂度为O(1);随机访问时间复杂度为O(1),与数组相当;相比传统双端队列,内存使用更高效
一款强大的命令行工具,用于安装和管理Model Context Protocol (MCP) 服务器。它能解决LLM应用与外部数据源和工具集成的难题,核心价值在于提供标准化的连接方式。

支持多种开发工具(如GitHub、GitLab)和通信工具(如Slack);提供丰富的数据源和工具集成(如Brave Search、Google Maps);自动检查更新,简化管理流程

mcp-get | #工具
打造像Notion、Craft、Coda、Medium那样的强大编辑器,轻松定制,满足你的多样化需求。

丰富的插件生态,提供14种强大插件;高度可定制,支持多种格式导出;优化的媒体组件,支持懒加载,提升性能

Yoopta-Editor | #编辑器
yoopta_intro.gif
27.3 MB
awesome-activation-engineering:一个专注于激活工程的精选资源库,为研究大型语言模型(LLM)的内部激活机制提供一站式解决方案。

涵盖40多篇前沿研究论文,覆盖概念表示、激活检测和向量操控等关键领域;提供丰富的代码资源,助力快速上手和实践;持续更新,紧跟激活工程领域的最新进展
Awesome-Radiology-Report-Generation:一站式放射学报告生成资源宝库。

汇集了从2020年到2025年的前沿学术论文,覆盖放射学报告生成的最新研究进展;提供了丰富的数据集资源,如MIMIC-CXR等,助力模型训练与验证;整合了多种评估工具,为研究者提供全面的性能评估支持
Fetch MCP Server:一个灵活的HTTP获取Model Context Protocol服务器,能轻松抓取网页内容并转换成多种格式。

支持HTML、JSON、纯文本和Markdown等多种格式输出;使用现代fetch API,支持自定义请求头;通过JSDOM和TurndownService实现高效的内容解析与转换
langchain-ai/mcpdoc:将 llms-txt 文件以编程开发工具的形式暴露给集成开发环境(IDEs),使得开发者能够对 llms.txt 文件有更大的控制权,并通过一个开源的 MCP 服务器,让应用程序(如 Cursor、Windsurf 或者 Claude Code/Desktop)能够检索到更详细的上下文信息
AI开发者的强大工具箱,让AI Agent轻松集成到日常工作流程中。

通过命令行和Python库实现智能交互;提供多种实用宏命令,如语音控制、图像生成、数据检索;支持多种AI模型和提供商,灵活适配不同需求

npcsh | #工具
Oliva Multi-Agent Assistant:一个强大的多Agent助手,帮助用户通过语音和文本在Qdrant数据库中快速找到所需产品。

集成Langchain和Superlinked,实现高效语义搜索;支持语音交互,通过Livekit和Deepgram实现语音输入和输出;模块化架构,轻松扩展和定制Agent功能
Basic Memory:通过与AI助手的对话构建持久语义图谱,将知识存储在本地Markdown文件中,让你完全掌控数据所有权。

本地存储,数据安全可控;无缝集成Obsidian,提升知识管理效率;支持实时同步,知识更新零延迟
LLM驱动的文献搜索系统,助力科研人员高效查找论文。

模拟多步骤迭代搜索流程,覆盖长尾论文;提供论文相关性评估和简短摘要;在LitSearch基准测试中表现卓越

Ai2 Paper Finder | #搜索引擎
Qwen2.5-Omni:阿里推出的Qwen系列旗舰多模态模型,能够一站式处理文本、图像、音频、视频等多种输入,并实时生成文本和自然语音响应。

提出创新的Thinker-Talker架构和TMRoPE(时间对齐多模态RoPE)位置嵌入,同步处理视频与音频输入;

在多模态任务中表现卓越,例如在OmniBench任务中,性能超越多个开源和闭源模型,平均准确率高达56.13%;

在语音生成方面表现自然且鲁棒性强,例如在Seed-tts-eval主观自然度评估中表现优异
Media is too big
VIEW IN TELEGRAM
Back to Top