黑洞资源笔记
-
-
-
- 一哥们做了个 Claude 中转站。不是随手套个壳那种,是他自己重度用 Claude Code 之后,干脆把 Max 号池、防封、分组、风控这一套都自己搭了。#AD
防封这块自研了挺久,目前内测跑下来,还算稳定。
价格也直接一点:100 元人民币到账 150 美金额度,也就是 1:1.5 的充值倍率。
现在还在内测,所以内测充值的额度,正式上线时还会返一部分。比如你现在充 100 元,到账 150 美金额度。
正式上线时,按 150 / 2 = 75,再返还 75 额度。
分组这块也做了区分:有直连Claude官方账号分组;
也有 AWS、逆向这类兜底分组。
不同分组成本和适用场景不一样,大家按自己的预算和服务要求选就行,别一上来乱冲。
他做这个东西最开始不是为了蹭热点,是因为他自己 Claude 消耗太大了,外面的中转站又总有几个问题:(具体情况点此推文查看)要么贵;
要么不稳;
要么不知道对面是谁;
要么出问题找不到人。
所以干脆自己做一套。
现在还是内测期,肯定还有体验要磨。
但底层号池、稳定性、客服响应、分组规则,我会继续往死里优化。
需要 Claude 稳定额度的,可以先去试一下:ccode.dev
支持对公,支持开票,也支持采购、供应合作。承诺假一赔三。
有需要的兄弟自己去体验。 - netflix的官方技术博客发了篇长文介绍模型服务中的路由现状 | blog
“这是一个多篇系列博客的第一篇,分享了我们如何通过机器学习模型服务基础设施在多个领域(例如,标题推荐、商务)大规模提供个性化体验的技术见解。
在这篇介绍性博客中,我们将深入探讨我们的领域无关 API 抽象及其流量路由能力,该能力由中央 ML 模型服务平台向多个特定领域的微服务暴露,用于模型推理。这个单一的 API,即进入 ML 模型服务平台的入口,显著提升了在现有 ML 体验上迭代新版本的创新速度,同时也支持使用 ML 构建全新的产品体验。”
在大规模在线推理系统里,路由不只是把请求分发到任意实例,而是要在延迟、吞吐、成本、可用性、模型/硬件异构性和实时负载变化之间做权衡;文章梳理了从简单静态/轮询式负载均衡,到更智能的、感知服务状态与性能指标的自适应路由思路,强调好的 routing layer 应该把模型副本、容量、队列、SLO、降级策略和观测数据结合起来,动态决定请求去哪里,从而提升资源利用率并稳定用户体验。 -
-
-
- 现在市面上AI工具很多,skills也遍地都是。似乎构建一个AI自动化工作流已经非常简单了。但是,真正动手才知道,这里面的坑非常多:
*很多skills看似很厉害,但不能完成我的个性化的需求。AI时代,真正属于自己的、个性化的工作流才是重点。
* 下载了skills,好容易配置起来了,但运行就是不稳定,有时候好使,有时候又不好使。修起来也不知道从何下手。
* 使用OpenClaw极费token。
* 有些skills要求注册api key,或者调用频率有限制。本来只是想完成自己的一个小需求,没想到还得付个订阅费。
这个视频演示如何使用Claude Code + AmphiLoop免费制作一个真正属于自己的AI工作流:自动浏览+汇总YouTube上指定的视频频道,并把汇总信息定时发送到手机。 -