[ChatGPT] 429 you are being rate limited

处理费率限制


当您反复调用 OpenAI API 时,您可能会遇到错误消息 429:’Too Many Requests‘ 或 RateLimitError。 这些错误消息来自超出 API 的速率限制。
要查看用于限制并行请求以避免速率限制错误的示例脚本,请参阅 api_request_parallel_processor.py

为什么存在速率限制?


速率限制是 API 的常见做法,它们的实施有几个不同的原因。
首先,它们有助于防止滥用或误用 API。 例如,恶意行为者可能会向 API 发送大量请求,以试图使其过载或导致服务中断。 通过设置速率限制,OpenAI 可以防止此类活动。
其次,速率限制有助于确保每个人都能公平地访问 API。 如果一个人或组织发出过多的请求,可能会使其他人的 API 陷入困境。 通过限制单个用户可以发出的请求数量,OpenAI 确保每个人都有机会使用 API 而不会遇到速度下降的情况。
最后,速率限制可以帮助 OpenAI 管理其基础设施上的聚合负载。 如果对 API 的请求急剧增加,可能会对服务器造成负担并导致性能问题。 通过设置速率限制,OpenAI 可以帮助为所有用户保持流畅和一致的体验。
尽管达到速率限制可能令人沮丧,但速率限制的存在是为了保护 API 对其用户的可靠操作。

默认速率限制


截至 2023 年 1 月,违约率限制为:

文本补全 & 嵌入端点代码 & 编辑端点
免费试用用户20 个请求/分钟 150,000 个令牌/分钟20 个请求/分钟 150,000 个令牌/分钟
现收现付用户(前 48 小时内)60 个请求/分钟 250,000 davinci 令牌/分钟(对于更便宜的模型,比例更高)20 个请求/分钟 150,000 个令牌/分钟
现收现付用户(前 48 小时后)3,000 个请求/分钟 250,000 个 davinci 令牌/分钟(对于更便宜的型号,比例更高)20 个请求/分钟 150,000 个令牌/分钟

如何解决gpt 429 的问题?


等待,我亲测有效的方式是等待,不要过于频繁的刷新页面,因为 OpenAI 返回给客户端的错误信息也会调用 API,默认是一次请求,刷新太频繁的话,会一直卡在 429 这个问题上。

此外,如何避免速率限制错误?
这个方法我没有亲测,但刻意参考这篇文章:https://openai.wiki/api_request_parallel_processor.html

至于网上说,关闭扩展,清楚缓存 和 切换代理节点的,我测试后并没有什么作用。




参考文章:
openAI|如何处理费率限制

本文链接:https://my.lmcjl.com/post/1087.html

展开阅读全文

4 评论

留下您的评论.