Trellis,用来统一 AI 编程工具的上下文。

现在很多人同时用 Claude Code、Cursor、Codex等等,但每个工具的规范和历史记录都不互通。Trellis 的做法是在项目里建一个 .trellis/ 目录,把代码规范、任务 PRD、工作流都存进去。

不管你切换到哪个 AI 工具,都能把这些上下文注入进去。还支持 git worktrees 让多个 AI 任务并行跑。团队里一个人写好的规范,其他人直接复用。
当AI面试官成为常态,求职者的尊严正被当成一种可丢弃的成本 | blog

当记者坐到屏幕前,准备接受一场工作面试时,对面出现的不是HR,而是一个AI虚拟形象。它提问,并实时分析你的回答、措辞甚至微表情。

开发这些工具的公司,如CodeSignal和Humanly,声称这是为了“效率”和“公平”,让每个申请者都有初步面试的机会,还能消除人类面试官的偏见。但这套说辞很快就被戳破了:一个由充满偏见的互联网数据训练出来的AI,如何保证绝对公平?

真正的要害,被一位开发者在网上的一句评论点破了:“一个在发薪水前就这样不把你当人看的雇主,入职后会怎么对你?”

这句评论获得了上千个赞。它精确地捕捉到了这场技术变革背后,那令人不安的真相:AI面试,与其说是一项评估工具,不如说是一个公司文化的强力信号。它在无声地筛选出那些愿意忍受非人化流程的候选人。

这场闹剧已经陷入了恶性循环。一位招聘经理抱怨,一个岗位收到上千份简历,其中大量是AI生成的“垃圾申请”。于是公司被迫用AI来筛选海量简历,甚至用AI来面试。而求职者为了应对这种非人的流程,也开始求助于AI来“代投”和“代聊”。双方的信任正在飞速崩盘,面试变成了一场机器人之间的荒诞戏剧。

所以,下一次当你收到一个AI面试邀请时,需要思考的问题可能不是“我该如何表现才能通过?”,而是“我真的想加入一个用机器来衡量人类价值的公司吗?”

这个问题,AI回答不了你。

最讽刺的是,公司正试图用AI来评估一个人的“人性化”特质,比如沟通能力和文化契合度。这本身就是个巨大的笑话,也是一个信号。这已经不是面试,而是服从性测试。一个愿意接受AI面试的人,可能也更容易接受未来工作中其他不合理的安排。
在线设计常常受限于缺乏专业设计语言,想要“增加垂直节奏”都无从开口。

Impeccable
这个前端设计技能升级包,基于 Anthropic 的基础,带来了17条设计命令,覆盖排版、色彩、布局、动效等,多维度优化你的AI设计输出。

Impeccable 不仅提供丰富的反模式提示,还支持 Cursor、Claude Code、Gemini CLI、Codex CLI 等多种AI工具,一键安装用法简单:

- 关键词如 /polish、/audit、/distill、一键提升设计感;
- 自动识别AI平台,一条命令安装到位;
- 包含详细交互速查表,随时查阅设计命令;
- 定期更新迭代,最近新增了对 Kiro 的支持及安全性强化。

适合有一定AI使用经验的开发者和设计师,用它让AI输出的界面更专业、更有层次感,告别无感设计。
30条安全规则:“凭感觉编程”的时代结束了 | 帖子

一篇热帖列出了30条开发者为追求速度而忽略的安全规则,引发了程序员的集体共鸣与恐慌。但讨论的深层价值在于揭示了一个更残酷的真相:问题不在于你忘了哪条规则,而在于“凭感觉编程”这个思维模式本身,正让你亲手为未来的攻击者搭建完美的犯罪现场。

网上流传着一份清单,叫“每个凭感觉的程序员(Vibe Coder)都会忽略的30条安全规则——直到被烧到为止”。

列表很具体,从“不在localStorage存敏感数据”到“强制HTTPS”,条条扎心。评论区像大型忏悔现场,有人说“说实话我跳过了一半,直到看到安全审计通知才开始恐慌”,还有人立刻把这30条丢给Claude,问它“我们都做到了吗?”

这很正常。追求速度,先让产品跑起来,技术债以后再说。我们把这种行为美化为“敏捷”和“Vibe Coding”。

但一条高赞评论把温情脉脉的遮羞布扯了下来:

“大多数凭感觉的程序员,以为风险只是bug或宕机。真正的风险是:你快速推进,产品有了起色,然后你才意识到,你的安全模型也纯粹是凭感觉——而此刻,攻击者已经成了你产品最快的‘超级用户’。”

这句话才是关键。你以为的安全问题,是未来需要修复的清单。但现实是,你为吸引用户而搭建的通路,同样也为攻击者敞开了大门。当你为日活破万庆祝时,他们可能正在你的数据库里自由漫步。

更深一层,另一位开发者一针见血地指出,迷信“30条规则”这样的清单本身就是个陷阱。它让人觉得安全是一堆可以死记硬背的孤立技巧。

真正的安全感,来自良好的系统默认值、清晰的边界和严格的审查习惯。团队出事,很少是因为忘了某个请求头,而是因为他们发布了一个自己都一知半解的功能,或者过度信任了前端,暴露了太多不该暴露的数据。

所以,把这30条规则当成一个提示词喂给AI,并不能让你高枕无忧。这和“凭感觉编程”的思维是一体两面:都试图用一个简单的动作,去绕过一个复杂的系统性问题。

所以,真正的问题或许不是“这30条我做到了几条?”而是,“凭感觉编程”究竟是帮你快速成功的资产,还是你亲手写下的、最精密复杂的定时炸弹?

所谓的“Vibe Coding”,不过是“技术债”这个老概念换了个时髦的说法。它最大的骗局在于,让开发者误以为这是一种“工作流”,而忽略了它本质上是一种“风险敞口”。当你的用户量达到某个临界点,这个敞口就会从一个涓涓细流的漏洞,变成一个吞噬一切的黑洞。
在线开发管理常被各种任务繁杂分散注意力,需求规划、代码审查、发布上线和质量保证各环节切换频繁,效率难以提升。

Garry Tan 的开源项目 gstack,精心打造了一套基于 Claude Code 的六大专精工作流工具,让 AI 变身CEO、工程经理、发布经理和QA工程师,多角色助力协同开发。

它拥有:

- /plan-ceo-review:从创始人视角重新思考产品需求,挖掘10星级产品愿景;
- /plan-eng-review:工程经理视角锁定架构设计、数据流、边界和测试覆盖,绘制架构与状态图;
- /review:严格代码审查,识别生产环境潜在缺陷,如竞态、信任边界、重试逻辑等;
- /ship:自动同步主分支、跑测试、推送代码和创建PR,确保高效交付;
- /browse:作为QA工程师,自动登录页面,点流程,截图检错,完成一键全流程测试;
- /retro:工程经理回顾模式,统计提交历史、代码量、PR状态,洞察团队工作状态和改进点。

支持 macOS 和 Linux 平台,通过简单命令一键安装,深度集成Claude Code,让你告别混沌的AI助手,获得分工明确的专业助理。
谷歌自家AI被发现可“白嫖”纽约时报,付费墙正在被“降维打击” | 帖子

你以为阅读这些内容必须付费订阅,或是到处找人分享的第三方镜像链接。但现在,游戏规则变了。你只需把付费文章的链接作为“资料来源”丢给AI,它就能像阅读一篇普通文档一样,为你总结全文,甚至直接提供内容。

这背后的原理很简单:AI在抓取数据时,很可能走的是内容方开放给搜索引擎的“特权通道”,看到的是一个没有遮挡的“上帝视角”版本。

更妙的是,当AI提示“无法访问”时,有人发现只要先上传一个空PDF文件,就能“骗”过系统,让它乖乖读取链接。这已经不是简单的使用工具,而是人与AI合谋的赛博朋克戏码。评论区里,有人痛斥这是在扼杀内容创作,但也有人反驳,一些平台本身就在剥削作者。

这件事的真正意义,可能不是省下几杯咖啡钱。而是它揭示了一个事实:过去需要专门技术才能实现的“破壁”,现在成了大模型一种“顺便”就能完成的副产品。当绕过付费墙的成本无限趋近于零,下一个被AI“顺便”瓦解的会是什么?

最精髓的不是直接用,而是被网站屏蔽后,先上传一个空PDF“欺骗”AI再贴链接就能成功。这已经不是简单的使用工具,这是人与AI合谋的“社会工程学攻击”,有一种在规则边缘跳舞的快感。
吴恩达老师开源「Context Hub」,专为 AI Coding Agent 设计的、可自我进化的 API 文档分发系统。

Context Hub 解决什么问题?
Coding Agents(Claude Code、Codex、Cursor ...)有一个结构性缺陷:训练数据有截止日期,但 API 一直在更新,具体表现为:
· 调用旧版接口
· 捏造不存在的参数
· 每次会话重新踩同样的坑,无法积累经验
Context Hub 把这个问题拆成两层来解:知识获取(拿到当前正确的文档)+ 知识积累(记住用过的经验)。

核心架构
项目分三个主要部分:
· content/:所有文档的 Markdown 原始内容,结构为 作者/docs/条目名/DOC.md,社区直接 PR
· cli/:Node.js 命令行工具 chub,Agent 调用它获取文档
· docs/:项目自身文档(CLI 参考、内容规范、反馈机制说明)

内容层(Content)
────────────────
Markdown + YAML
作者/docs/条目名/DOC.md
社区 PR 贡献

▼ chub build → registry.json

CLI 工具(chub)
────────────────
CDN 分发 + 本地缓存
search / get / annotate / feedback

▼ chub get → 读文档写代码

Agent
─────
读文档写代码
标注经验(跨会话持久)

↺ feedback 回流给作者

工作流:Agent 如何使用它
通过 SKILL.md 将如下五步注入 Agent 的行为规范:
Step 1 — 搜索
chub search "openai" # 模糊搜索
chub search openai/chat # 精确 ID 查询
Step 2 — 获取文档
chub get openai/chat --lang py # 按语言拉取
chub get stripe/api --full # 含所有参考文件
Step 3 — 用文档写代码(不依赖训练记忆)
Step 4 — 标注本次发现的坑
chub annotate stripe/api "webhook 验证前不能 parse JSON,需要原始 body"
标注保存在本机 ~/.chub/annotations/,下次 chub get 自动附带显示,跨会话持久。
Step 5 — 给文档打分
chub feedback openai/chat down --label outdated --label wrong-examples

两个进化机制:Annotations 和 Feedback
· Annotations - 解决"知识遗忘"问题
作用范围:本机,仅当前用户的 Agent;跨会话保留;目标是不重复踩坑。
· Feedback - 解决"内容老化"问题
作用范围:全局,反馈给文档作者;进入文档迭代;目标是让文档对所有人变更好。
Claude Code 互动模式引入 “/btw” 命令,可以在不干扰主对话历史的情况下处理 “支线问题”,快速询问与当前工作相关的简短问题。问答仅显示在可关闭的叠加层中,不会永久记录,从而保持主任务的连续性。

工作原理
· 独立处理:支线问题不加入主对话历史,而是作为临时交互处理。Claude Code 在回答时可访问当前会话的完整上下文,包括先前讨论的代码、决策或细节。
· 显示方式:问答出现在界面叠加层中,用户可通过空格、回车或 Esc 键关闭,返回主提示。
· 性能优化:复用父对话的提示缓存,计算成本最低。即使 Claude Code 正在生成响应,也可同时使用。
· 短暂性:问答不存储,确保主会话干净。

语法与示例
基本用法:输入“/btw <问题>”,如“/btw what was the name of that config file again?”(询问配置文件名)。
这允许快速回忆会话细节,而无需重述上下文。

功能优势
· 上下文感知:可引用会话中任何已有信息,提高效率。
· 非侵入性:避免主对话混乱,适合复杂或长时会话。
· 即时性与低成本:快速响应,无需完整提示,计算开销小。
· 并行执行:不中断正在进行的任务。

功能限制
· 无工具访问:Claude Code 无法读取文件、执行命令或外部搜索,仅限于上下文内信息。
· 单轮交互:无后续澄清;需多轮时,使用常规提示。
· 显示限制:答案仅在叠加层,不持久保存。

/btw 功能作者 @ErikSchluntz | 文档
Google 正式发布 Gemini Embedding 2:Google 的首个原生多模态嵌入模型,基于 Gemini 架构构建,首次将文本、图像、视频、音频、文档统一映射到一个共享嵌入空间,彻底打破了以往“文本嵌入独立、图像嵌入独立”的模态壁垒。| 推文

关键能力包括
· 输入规格:
· 文本:最高 8192 tokens
· 图像:单次最多 6 张(PNG/JPEG)
· 视频:最长 120 秒(MP4/MOV)
· 音频:原生直接嵌入,无需转录
· 文档:最多 6 页 PDF
· 交错输入支持:可同时传入多种模态(如“图像+文字描述”),让模型捕捉跨媒体的复杂语义关联。
· 灵活输出维度:采用 Matryoshka Representation Learning 技术,默认 3072 维,可动态缩减至 1536、768 等维度,开发者可根据精度与存储成本自由权衡。

性能和优势
Gemini Embedding 2 在文本、图像、视频任务上达到新的 SOTA 水准,并新增强劲的语音理解能力,覆盖 100 多种语言。它不仅优于传统单模态嵌入模型,更显著简化了下游管道:从 RAG、语义搜索,到情感分析、数据聚类,都可通过一次 API 调用完成跨模态检索,无需多模型拼装或中间转换。
模型与 LangChain、LlamaIndex、Haystack、Weaviate、QDrant、ChromaDB 等主流框架集成,开发者可零门槛上手。

真实合作伙伴案例
· Everlaw(法律科技):在数百万诉讼记录中显著提升图像/视频搜索的精确率与召回率,为律师提供全新跨媒体发现能力。
· Sparkonomy(创作者经济):将文本-图像/视频对的语义相似度从 0.4 提升至 0.8,延迟降低高达 70%,支撑“Creator Genome”引擎实现精准品牌匹配。
· Mindlid(个人健康 App):将对话记忆、音频、视觉嵌入融合,top-1 召回率提升 20%,API 兼容性极高,几乎零修改即可迁移。
GitHub Copilot CLI for Beginners

微软 GitHub 官方出品的终端 AI 编程助手教程,围绕一个 Python 图书管理应用,用 8 章递进式教学覆盖从安装到生产级工作流的完整路径。

Ch00 Quick Start — 10 分钟上手
四种安装方式(npm/Homebrew/WinGet/curl),推荐 Codespaces 零配置启动。Device Flow 一次认证,长期有效。三步验证环境就绪。除 Python 外另备 JS 和 C# 示例。

Ch01 First Steps — 三种模式,一个核心
· Interactive:对话式,上下文累积,适合探索和迭代。推荐起步模式。
· Plan:/plan 先出方案再动手,适合复杂任务。
· Programmatic:copilot -p "prompt" 单次调用,适合脚本和自动化。
四个高频命令覆盖九成场景:/help、/clear、/plan、 /exit。还有 /delegate 委派后台 agent、/fleet 并行子任务等进阶命令。

Ch02 Context — @ 语法是核心生产力
@ file 引单文件,@ folder/ 引整个目录,多文件并引实现跨文件分析。这是 Copilot CLI 区别于简单问答的关键——跨文件才能发现重复代码、不一致的错误处理、架构耦合等单文件审查不可见的问题。
会话自动保存,--continue 恢复最近会话,--resume 选择历史会话,/rename 命名便于检索。支持跨天断点续作,上下文完整保留。
/context 看 token 用量,/clear 切话题,/compact 压缩历史释放空间。粗算:每行代码约 15 token。宽引用用于初探项目,精引用用于定位问题。

Ch03 Workflows — 五大日常场景全覆盖
1. 代码审查:从自由 prompt 到 /review 调用专用 agent,支持按严重程度分级输出检查清单
2. 重构:if/elif 转字典分派、分离关注点、统一异常处理。核心原则:先写测试再改代码
3. 调试:描述症状 + 提供代码,Copilot 定位根因。跨文件分析还能捕获用户未报告的关联 bug
4. 测试生成:手写 2-3 个测试 vs Copilot 一次生成 15+,覆盖正常路径、边界、持久化、Unicode 等
5. Git 集成:copilot -p + shell 替换自动生成 commit 消息和 PR 描述;/delegate 委托后台 agent 执行
课程明确标注:前三章已覆盖日常所需全部核心技能,04-06 是可选进阶。

Ch04 Agents — 从通用助手到专业顾问
· 内置五个 agent:Plan、Code-review(显式调用),Explore、Task(自动触发),Init(项目初始化)。
· 自定义 agent 极简:一个 .agent.md 文件,YAML frontmatter + markdown 指令。放 .github/agents/(团队共享)或 ~/.copilot/agents/(个人全局)。
· 核心价值用对比说明:同一 prompt,普通 Copilot 产出基础实现,python-reviewer agent 自动附加类型注解、文档字符串、输入验证、异常处理。同一问题,专家视角产出质量显著更高。
· 多 agent 协作模式:python-reviewer 设计 -> pytest-helper 出测试方案 -> 综合实施。开发者充当架构师,agent 处理细节。
· 项目配置层推荐 AGENTS.md,/init 一键生成。

Ch05 Skills — 自动触发的流程指令
与 Agent 的关键区别:Agent 需显式激活,Skill 按 prompt 关键词自动匹配加载。
结构同样简单: SKILL.md 文件放在 .github/skills/skill-name/ 或 ~/.copilot/skills/skill-name/。description 字段决定匹配精度,是 Skill 能否被正确触发的关键。
三层扩展模型的定位:
· Agent = 改变思考方式(专家视角)
· Skill = 改变执行步骤(流程指令)
· MCP = 连接外部数据(实时信息)
典型场景:团队 10 条 PR 审查标准编码为一个 pr-review skill,所有人的审查自动一致,新人无需记忆清单。

Ch06 MCP Servers — 打通外部服务
MCP 让 Copilot 从"被动接收文件"变为"主动查询外部系统"。
· GitHub MCP(内置):Issue、PR、commit、分支、代码搜索、Actions 状态
· Filesystem MCP:主动浏览文件系统,无需逐一 @ 引用
· Context7 MCP:实时拉取最新框架/库文档,解决训练数据过时问题
多 server 协作是亮点:一个会话内 Filesystem 探索代码 + GitHub 查 commit 历史 + Context7 获取最佳实践,综合产出改进方案。"Issue-to-PR"工作流——读 Issue、改代码、跑测试、建 PR,全程不离终端。

Ch07 Putting It All Together — 全链路整合
完整演示"idea -> plan -> agent 设计 -> 实现 -> 测试 -> /review -> 创建 PR"的端到端流程。
三个进阶工作流:Bug 调查修复(MCP + Agent + 测试生成)、pre-commit hook 自动安全审查、新项目快速上手(上下文 + Agent + MCP 找 good first issue)。
四条最佳实践提炼:
· 先上下文,后分析——先引用文件、先读 Issue,再调 agent
· 分清三层——Agent 是专家、Skill 是流程、Instructions 是常驻规范
· 一 feature 一 session——保持聚焦,用 /rename 管理
· 工作流编码入仓库——agents/skills/instructions 跟代码一起版本管理,新人自动继承
Back to Top