特别预警|开发者请注意:使用OpenAI Codex 可能被攻击 | 原文

DARKNAVY 近日发现并报告了 OpenAI Codex 桌面端中一处严重的未授权代码执行漏洞。该漏洞绕过了 Codex 的默认权限限制,攻击者仅需诱导用户打开恶意构造的代码仓库/文件夹,即可在无需用户任何授权的情况下静默触发代码执行。该漏洞目前尚未修复,且社区已出现第三方复现案例,建议广大开发者与企业用户保持警惕,切勿随意打开未确认来源的代码仓库,以防源码等关键数据资产泄露。
Morelogin 指纹浏览器助记词泄露,有资产的速度转移
余弦的OpenClaw 极简安全实践指南更新了 | 帖子 | github | #指南

适用于:
- OpenClaw 以高权限运行(具备终端/root 权限的环境)
- OpenClaw 持续安装并使用Skills / MCPs / scripts / tools
- 目标是在风险可控、审计明确的前提下实现能力最大化

指南提供了一套经过实战检验的、极简的 三层防御矩阵:

事前 (Pre-action): 行为黑名单与严格的技能包安装审计协议(防供应链投毒)
事中 (In-action): 权限收窄与跨技能业务风控前置检查 (Pre-flight Checks)
事后 (Post-action): 每晚自动化显性巡检(覆盖 13 项核心指标)与大脑 Git 灾备同步

使用方法:把安全指南直接丢给 OpenClaw,让它自己理解、评估、部署整个防御体系。四步:下载指南 → 发给 Agent → Agent 评估 → 部署。
Newsletter 大神 Lenny Rachitsky 在几个月前分享了播客转录,有人用它做出了:RPG 游戏,育儿智慧网站,信息图表,Twitter bot,以及其他 50 多个项目。

现在数据量更大,免费用户拿部分数据,付费用户拿全量。全量有他的所有电子报文章存档(350多篇文章)和所有播客文字稿(300多集),全部采用人工智能友好的Markdown格式,还提供了一个MCP服务器和一个GitHub代码库。| blog | 帖子

今天他发了一个挑战:用他提供的这些内容随意做个什么东西扔评论区,他会选出他最喜欢的,奖励一年的 newsletter 订阅。
你以为AI编程拼的是提示词,其实高手都在“驯化”项目结构 | 帖子

别再卷提示词了。想让Claude像个真正的工程师一样干活,关键不是怎么“说”,而是怎么“放”。一个结构清晰的代码仓库,远比一段天花乱坠的提示词更重要。

多数人还在琢磨怎么把提示词写出花来,但真正拉开AI编程效率差距的,根本不是提示词。

你以为让Claude写出好代码,靠的是把需求描述得滴水不漏。其实,如果你的代码仓库一团糟,它就只是个聊天机器人;如果结构清晰,它才表现得像个住在你项目里的高级工程师。这中间的差距,比人和狗的差距都大。

秘诀在于给AI建立一套“项目解剖学”。这套结构,就是AI的“短期记忆”和“行为准则”。它只需要四个东西:

1. CLAUDE.md:项目的北极星文件,简要说明系统目的、仓库地图和交互规则。短小精悍,废话太多AI会抓不住重点。2. .claude/skills/:可复用的专家模式。把代码审查、重构、调试等固定流程变成技能包,随时调用,而不是每次都在提示词里重复念叨。

3. .claude/hooks/:自动化护栏。模型会忘事,但钩子不会。比如编辑后自动格式化、核心代码变更后触发测试,把AI工作流变成可靠的工程系统。

4. docs/:渐进式上下文。别把几万字的需求文档塞进提示词,让AI自己去查阅架构图、决策记录和操作手册。它不需要记住一切,只需要知道“真理”在哪。

有人在一个5万行代码的库上实践这套方法,Claude的错误率直接降低了大约60%。评论区里一片“原来如此”的声音,大家普遍认同:结构大于提示词,仓库本身就是终极提示。提示词是租来的,结构才是你自己的。

所以,如果你还在每天花几小时跟AI“念经”,却发现它总是犯些低级错误,问题很可能不在你的提示词写得够不够“魔法”,而在你的项目结构是不是一坨屎。

别再抱怨AI笨了,也许它只是在你的烂摊子里迷了路。

这篇文章精准地指出了当前AI辅助编程领域的一个核心误区:过度迷信“提示词工程”,而忽略了更基础也更重要的“上下文工程”。它提出的“项目结构即提示”的观点,对于那些感觉AI“不好用”的开发者来说,无疑是一次认知矫正。从“教AI做事”转向“为AI搭建舞台”,这才是人与AI协作的正确姿势。
一个号称“干掉一批公司”的AI新功能,是如何被程序员们群嘲的 | 帖子

Anthropic的Claude发布了一个新功能,能用一句话生成交互式图表。有人发帖惊呼“又干掉了一批创业公司”,结果在社区被彻底“围剿”。一线从业者用尖刻的嘲讽和冷静的分析,给所有被AI热潮冲昏头脑的人上了一课。

故事从一个典型的“AI震撼体”帖子开始。

Anthropic的Claude模型更新了,能用短短六个单词的提示,直接生成可交互的图表。有人立刻发帖,标题大意是:Anthropic刚刚又消灭了一批创业公司,主要是在教育领域。

一个完美的AI颠覆叙事。如果这是真的,又是一个值得焦虑或亢奋的不眠之夜。

但帖子的评论区,画风却完全走向了另一个极端。点赞最高的评论只有一句冷冰冰的质问:“这个论坛是被付费的水军占领了吗?”下面是一片倒的冷嘲热讽:“图表制作创业公司要完蛋了!”“天啊,我的图表SaaS独角兽梦碎了。”

这已经不是简单的技术讨论,而是一场社区对“AI炒作”的集体反抗。愤怒的核心并非针对功能本身——没人否认这是个不错的UI改进——而是针对那种“一个新功能颠覆一个行业”的廉价夸张叙事。

一位用户一针见血地指出了问题的本质:“这个模式总是一样的——平台增加一个功能,‘薄价值’的套壳创业公司死掉。但那些在平台能力之上,构建了平台不会去复制的、有壁垒的公司会活下来。”如果你的整个公司价值就是“我们能做个图表”,那它的死亡不是因为AI,而是因为它本来就不该出生。

另一位评论者则点明了更深层的逻辑:真正的教育科技壁垒,是复杂的自适应学习系统、苏格拉底式的对话辅导,而不是显示一个图表。模型离做到这些还很远。

这场闹剧最终以一句精准的抱怨收尾:“感觉‘币圈’那帮人,已经差不多完全接管了LLM领域的炒作氛围。”当一个领域最前沿的实践者,开始集体厌恶对这个领域的过度神话时,或许才是它回归理性的开始。

最精彩的部分不是Claude的新功能,而是社区的反应。这像一面镜子,照出了AI行业当下最真实的分裂:一边是不断制造神话的“AI震撼体”,另一边是已经对此感到极度疲惫的一线从业者。真正的信号,往往藏在那些不耐烦的嘲讽里。
Back to Top