讨论下GPT/Codex的“Selected model is at capacity”报错咋办(以sub2api为例)

大伙应该都碰见过这个提示吧:

Selected model is at capacity. Please try a different model.

我翻了翻站里帖子,好像从5月6号开始这问题就挺多的。平时就是手动打个“继续”,然后又能接着用了。

所以想问问大家有没有啥更好的解决办法,或者至少让打断别那么烦人。

我这边看下来,这个错误对应的上游返回基本是:

upstream response failed
Our servers are currently overloaded

问题在于,客户端收到这错误一般不会自己重试,vibe coding的时候老是被打断,烦死了。

我在 sub2api 里试着配了个错误透传规则,把这个错误改成 upstream failed。这样客户端就能自动重试了,最多5次。试了试,确实被打断的次数少多了。

配置放这了:

newapi那边好像只有状态码覆写,暂时还不知道咋整。

这玩意就那样,凑合用吧。

小白问一下,是不是所有API都会碰到这个错误啊?我用的是另一个服务,也经常弹类似的提示,每次都只能手动点继续,特别烦。有没有通用的办法让所有客户端都能自动重试呢?不太确定我这个情况跟楼主说的是不是一回事。

又来这种帖子了,每个月都能看见好几回讨论capacity的,官方就不能多加点服务器吗?反正我的经验是,半夜用好像好一点,或者干脆换别的模型试试,虽然效果可能差点。

mark,等会儿下班了试试楼主那个配置。顺便问下,sub2api里那个错误透传规则具体在哪个菜单下面配的?我找了半天没找到,能再细说下步骤吗?还有,重试5次之后如果还失败,会直接抛错还是静默处理?

半夜也不是次次稳,前阵子凌晨照样capacity