Anthropic 宣布了 Claude 的新功能 ——Integrations,允许用户将各种应用和工具连接到 Claude,并扩展了 Claude 的研究能力,使其能够搜索互联网、Google Workspace 以及新增的 Integrations。
支持10种热门服务,包括Jira、Confluence、Zapier等;研究模式可搜索网络、Google Workspace以及集成应用,提供长达45分钟的深度报告;全球范围内为付费用户提供网页搜索功能
支持10种热门服务,包括Jira、Confluence、Zapier等;研究模式可搜索网络、Google Workspace以及集成应用,提供长达45分钟的深度报告;全球范围内为付费用户提供网页搜索功能
提供多种预训练模型,支持MRI、CT等多种医学影像分析;集成HuggingFace等平台资源,方便模型部署与共享;提供Jupyter Notebook示例,快速上手
VLM-Radiology-Agent-Framework | #框架
动态生成搜索词,精准定位信息;反思式搜索,最多迭代优化5次;自动引用来源,答案更有说服力
只需Go语言和Anthropic API,简单易上手;Agent能读取、编辑文件,还能运行命令;完全开源,可扩展性强
1. 自顶向下提示 (Prompt down the stack):在开发新功能时,从宏观概念和用户目标开始向LLM提问,然后逐步深入到数据模型、API端点、业务逻辑,最后是UI组件和用户交互。这样能让LLM理解完整的上下文,从而做出更符合整体架构的实现决策。
2. 编写测试 (Write tests):先编写全面的测试用例是指导LLM的有效方式。通过让LLM修复未通过的测试,而非用文字描述复杂需求,可以更确信生成的代码能按预期工作并符合规范。
3. 规则 (Rules):创建一个实用的规则文件,涵盖所用语言/框架的重要方面,如代码整洁性、库使用、命名约定、测试方法和架构模式,并包含真实示例而非抽象理论,同时指明工具版本和代码库特有的模式。规则应保持简洁。
4. 使用工作区 (Use workspaces):将前端和后端代码置于同一 Cursor 工作区,使LLM能够同时理解整个技术栈,从而可以追踪API调用、发现不一致性并协调跨端更改,无需开发者反复解释。
5. MCP (Multi-Cursor Protocol/Provider) 服务器:合理使用,勿滥用 (MCP, use but don't abuse):MCP服务器通过连接实时外部数据和工具(如最新的文档、任务管理器、GitHub、数据库等)来增强Cursor的功能,使其能获取真实数据并执行代码编写之外的操作。
6. 混合模型 (Mix up models):根据任务类型选择不同模型,例如使用 Claude 4 进行功能规划和架构决策,使用 Gemini 2.5 Pro 进行需要快速代码生成和巨大上下文窗口的实际编码,对特别复杂的问题则使用 o3。
7. 坚持最佳软件工程实践 (Maintain best SWE practices):在使用LLM时,仍需遵循经典的软件工程原则,如将问题分解为小块、保持关注点分离和设计模块化组件。LLM在处理定义明确的单一问题时表现更佳。
LLM和Cursor是使编码更轻松、更有趣的工具,能减少职业倦怠并提高交付效率。应采用迭代的构建方法,不要期望Cursor能一次性完美解决所有问题,提倡“欲速则不达”(Go slow to go fast)的理念。