投稿:
全自动攻击越狱Agent|项目主页

来自佐治亚理工,UIUC, 清华大学等单位的研究者联合发布了一个非常有力的全自动越狱Agent,通过把有害提问分解成下级的,看似无害的提问,来绕过最强的现代商业大模型中防御机制,实现了近乎完美的攻击成功率(96%-98%)。
根据开源的代码,理论上只要配置各种key,就可以在家攻击越狱各种商业大模型。在论文中,已经被验证可以攻克Gemini系列,GPT-OSS, Claude Haiku 4.5.
科研人员和学生做报告还在手动做PPT?Paper2Slides帮你一键生成专业幻灯片和海报,支持PDF、Word等多种文档格式,精准提取关键内容,自动排版成高质量演示稿。| #工具

它内置多种主题风格,也支持用自然语言定制样式,生成速度快,支持断点续作,无需担心中途丢失进度。命令行一条指令即可完成转换,极大节省制作时间。

项目开源,适合科研展示、会议汇报和教学演示,帮助你从论文到演示一气呵成。

主要功能:
- 多格式文档支持(PDF、Word、Excel、Markdown等)
- 基于RAG技术的内容精准提取和索引
- 保留内容与原文对应,杜绝信息偏差
- 多样化主题与自定义风格
- 快速生成和实时预览
- 断点保存与续作,随时切换样式
- 支持幻灯片和海报两种输出形式

支持Python环境下运行,方便科研人员和教育工作者高效制作演示材料。
3条关键提示词帮你用Gemini轻松掌控学习,告别混乱笔记和难啃教材。| 帖子

1. 超级笔记生成器
提示词示例:
“以下是我的原始笔记: [粘贴你的笔记]。请将它们整理成清晰的学习指南,分为概念、定义、图示、例题和学生常错点,确保内容易于记忆,不可遗忘。”

2. PDF深度解剖
提示词示例:
“请将这份PDF总结为三层结构:
第一层:简单易懂的解释
第二层:更深入的理解
第三层:适合高级考试的深入见解
请保留公式、例题和关键区分点。”

3. 考试备考引擎
提示词示例:
“帮我制定一个关于[主题]的考试备考计划,分为:
• 核心概念
• 必背内容
• 常见考试陷阱
• 带答案的练习题
• 7天复习路线图。”

用户反馈,利用这三条提示,Gemini能把零散混乱的学习材料转化为高效的知识体系,帮助记忆率从40%提升到95%。这不仅是工具,更是打开学霸大门的钥匙。
Google发布了一份关于多智能体系统上下文工程的权威指南,提出了高效管理上下文的全新思路。核心在于用“工作上下文”、“会话”、“记忆”和“工件”四层结构替代传统庞大的提示语,有效降低了信息冗余和模型幻觉。| #指南

每次调用时,系统通过有序流程和处理器,从指令、精选会话事件、记忆结果和工件引用重建工作上下文。会话日志经过噪声过滤和格式化,变为清晰的聊天历史输入模型请求。

通过上下文压缩、过滤和缓存,旧信息被总结,没用事件被丢弃,稳定的前缀得以复用。大体量信息转为工件存储,长期知识保存在记忆中,记忆服务仅提取相关片段注入窗口,极大节省了Token消耗。

多智能体系统中,代理作为工具协同工作,子代理只访问所需上下文,防止幻觉和错误行为,保证效率和准确性。Google强调,将上下文工程视为与存储和计算同等重要的基础设施,而非简单的提示堆砌,是构建大规模多智能体系统的关键。

这套方法不仅能减少60%-80%的Token使用,还能显著提升多代理系统的稳定性和响应速度,真正推动生产级AI系统的落地。
在OpenAI的研究科学家面试中,遇到“如何将大语言模型(LLM)的上下文长度从2K扩展到128K?”这个问题时,直接说“我会用128K上下文的长文档微调模型”是远远不够的。真正的挑战远超简单微调。| 帖子

扩展上下文长度意味着面对注意力机制的平方级计算复杂度:上下文长度扩大8倍,内存需求飙升64倍。这是硬件和算法上的巨大难题。

解决方案主要有三条路:

1. 稀疏注意力(Sparse Attention)
限制模型只关注部分重要token,比如局部邻近或由模型自动学习关键token。就像读书时理解当前章节比时时关注全书更高效,但偶尔回顾全局脉络依然必要。稀疏注意力在性能和计算成本间权衡,既提高效率又保留关键信息。

2. Flash Attention
这是一种硬件优化技术,利用GPU内部快速缓存减少数据在高速缓存(SRAM)和慢速主存(HBM)间的冗余传输,保持全局注意力的精确度,同时加速计算,速度提升可达7倍以上。

3. DeepSeek Sparse Attention(DSA)
DeepSeek V3.2模型引入的DSA,通过轻量级索引器筛选重要token,把计算复杂度从O(L²)降到O(Lk),k为固定小值。比如128K上下文中,每次只计算约2048个关键token,大幅降低计算和成本,同时保持甚至提升性能。

实际效果是,128K上下文的预填充成本降低近一半,解码成本下降三分之二,且在长上下文评测中表现更优。

这背后折射出一个核心真理:扩展上下文不仅是“加长输入”,而是对模型架构、硬件资源、内存管理和算法设计的综合考量。简单的微调无法解决根本问题,必须结合稀疏机制、硬件优化与智能索引等多维创新。

正如一位专家所说,“128K上下文是几何问题也是计算问题”,需要局部高分辨率注意力结合稀疏全局结构,利用多尺度位置编码,构建层次化的上下文理解,而非简单平铺展开。

总结:想做出128K上下文的LLM,靠蛮力不行,必须用“少而精”的策略,善用硬件优势,设计高效稀疏机制,才能在保持性能的同时控制资源和成本。
构建和探索知识图谱从未如此直观。| #知识图谱

GraphRAG Workbench
是一个基于微软 GraphRAG 框架的现代化交互式 Web 应用,支持将文档转化为沉浸式的3D知识图谱。

你可以在三维空间中实时浏览实体、关系和社区结构,利用智能节点大小、颜色分区和动态过滤,轻松发现数据背后的隐藏联系。

功能亮点包括:
- 支持PDF批量上传与自动文本提取,文档管理高效便捷;
- 3D可视化界面支持平滑动画和多层社区检测,结构一目了然;
- AI驱动的实体提取与关系映射,结合自然语言聊天接口,实现智能查询和分析;
- 支持多种搜索模式和社区聚焦,帮助深入挖掘复杂图谱信息;
- 课堂级别的进度跟踪与日志记录,方便管理知识图谱版本和历史。

项目基于 Next.js 和 React Three Fiber,界面响应式设计,适合桌面和平板设备。只需配置 OpenAI API,即可快速启动本地服务,适合科研、教育及企业数据分析使用。
Back to Top