返回首页
最新
我的代理重试的次数比应该的要多,这导致我的账单飙升。我试着找出原因,但没有一个工具能提供太多帮助。对我来说最糟糕的是,所有的使用情况都显示为汇总数据,包括总令牌数、总费用,可能还按模型分类。
于是我最终在OpenAI前面搭建了一个简单的层,每个请求都被强制携带一些上下文信息(代理、任务、用户、团队),然后记录和计算每次调用的费用,并设置一些基本的限制,这样如果出现异常情况就可以进行阻止。这是一个非常基础的实现,但仅仅看到“这个代理 + 这个任务 = 这个费用”就让我松了一口气。
它使用你自己的OpenAI密钥,因此在执行方面并没有做什么神奇的事情,只是进行观察和强制执行。
我想知道你们现在是如何处理这个问题的。你们只是关注汇总使用情况并信任它,还是已经建立了某种机制来按代理/任务进行细分?
如果有用的话,这里是我正在使用的粗略版本:https://authority.bhaviavelayudhan.com/
我只考虑每月20美元的版本。
我过去一年一直在订阅Claude,虽然我真正开始好好使用大型语言模型(LLMs)是在过去几个月。使用Opus时,我每5小时能收到大约5条消息(可能是7000行代码的代码库,比较新),使用Sonnet时更多。后来我取消了这个订阅,因为几乎无法使用,约一周前我订阅了ChatGPT。目前我在使用5.4 High版本,没遇到过限制的问题。但它生成的代码确实“不同”,我需要提前更多地规划。它的计划模式也没有Claude那么精确(没有列出它计划实现的方法存根等),所以我想我可能需要改变与它的工作方式?最后,在正常聊天中,它的输出明显更冗长(当个性设置为高效时),并且速度很快(当设置为思考时),但常常感觉没有我希望的那么全面。
我的问题是:这是一个“你用错了方式”的情况吗?我只是需要适应不同的互动模式?还是其他人也注意到质量上有实质性的差异?理想情况下,我希望继续使用ChatGPT,因为Anthropic的限制几乎不切实际。