
🦞OpenClaw养虾热门问题合集 (持续更新)
大模型开发/技术交流
- LLM
- API
3月16日2930看过
快览-本文整体分为大致4个部分
一、如何领养龙虾
二、龙虾配置修改
-
龙虾养料-推理模型配置
-
龙虾消息通道-场景channel配置
-
....
三、龙虾异常排查及解决
-
对话无反应
-
对话报错
-
购买了Coding plan包月,龙虾对话还在扣费怎么办?
-
...
四、错误码对照表
一、 如何领养龙虾
-
Duclaw提供的开箱即用OpenClaw
-
千帆Agent开发平台提供OpenClaw沙箱,环境免费体验(24小时有效,到期后可再次申请),token自费
-
云服务器/本地自建Openclaw
OpenClaw官方安装文档:https://docs.openclaw.ai/zh-CN/install
推荐包月计费的:千帆Coding plan
龙虾每次对话会用很多tokens推理"原料",推荐coding plan包月更省心,尽可能避免使用预置模型API持续按量扣费
二、龙虾配置修改
龙虾养料-推理模型配置
coding plan参考文档:https://cloud.baidu.com/doc/qianfan/s/imlg0beiu
配置要素:
-
Base URL: https://qianfan.baidubce.com/v2/coding
-
API Key:获取地址:https://console.bce.baidu.com/qianfan/resource/subscribe
-
模型ID:qianfan-code-latest
龙虾消息通道-场景channel配置
以LS极简部署文档为例,如果是自己部署OpenClaw或三方购买OpenClaw,可在OPENCLAW Gateway Dashboard的配置块儿中按照自身情况修改channel配置
三、龙虾异常现象排查及解决
Q:我配置了Coding Plan,为什么还在MaaS模型持续按量扣费?
|
现象描述
|
以为配置的coding plan已经生效,实际使用龙虾时计费账单还在持续扣费
|
|
可能原因
|
持续扣费来源一般有几种:
不过本质还是coding plan配置未生效,可能使用了原有的MaaS模型服务地址,持续使用导致产生费用
|
|
解决方案
|
快速止损:
两种方式:
方式一,删除历史缓存auth信息:(推荐)
方式二,终端修改providers中provider的key,例如将qianfan改为qianfancodingplan(重点是改一个新的,改完merge会生效)
|
|
验证方法
|
对话测试是否正常,观察是否还有新的按量付费账单产生(一般15分钟出账一次)
|
Q: Coding Plan如何切换模型?
|
现象描述
|
因模型效果、模型限流等报错原因,想尝试切换一下使用的模型
|
|
解决方案
|
【推荐】优先建议模型id配置为qianfan-code-latest,然后去在千帆Coding Plan的订阅套餐https://console.bce.baidu.com/qianfan/resource/subscribe出灵活按需选择即可,就不用再改动本地的配置文件。
【固定模型方式】想openclaw本地侧针对性指定特定模型的方式修改如下:
方式一dashboard修改:
方式二终端修改:
注意:方式一和方式二都建议新改一个providers:例如qianfancodingplan
|
|
验证方法
|
对话确认目前是否是用的最新修改的模型
|
Q:报错401 Coding Plan API key is not allowed for non-Coding Plan requests
|
现象描述
|
与龙虾对话时,报错:401 Coding Plan API key is not allowed for non-Coding Plan requests
|
|
解决方案
|
Coding Plan 有专属服务接口,与常规 MaaS 服务接口不同,此报错说明请求的最终是Maas地址:https://qianfan.baidubce.com/v2/chat/completions
请检查配置,将Base URL更新为:https://qianfan.baidubce.com/v2/coding
最终需要Coding plan请求 https://qianfan.baidubce.com/v2/coding/chat/completion
方式一dashboard修改:
方式二终端修改:
注意:方式一和方式二都需要注意providers:qianfancodingplan(这里建议根据实际情况调整)
|
|
验证测试
|
对话测试查看是否依然报错。
|
Q:报错API rate limit reached. Please try again later.
|
现象描述
|
与龙虾对话时,报错API rate limit reached. Please try again later.
|
|
解决方案
|
您好,感谢您的反馈。关于您遇到的 “API rate limit reached” 报错情况,经核实,该提示通常是由于当前接口调用触发了平台限流保护策略。
近期由于 百度千帆 Coding Plan 订阅客户量持续增长,模型 API 调用量显著提升,在部分白天高峰时段可能会出现请求排队或限流的情况。
为保障整体服务稳定性,平台已发布阶段性服务策略调整公告,详见公告介绍:https://cloud.baidu.com/news/notice_a8ce81e0-4400-4c59-9513-c0db841b0782,针对高峰时段的部分模型调用进行限流管理。目前 13:00–17:00 为相对集中使用时段,在该时间段内可能出现响应变慢或调用失败的情况。
建议您可尝试以下方式优化使用体验:
1. 避开高峰时段(如 13:00–17:00)进行调用,通常可获得更稳定的服务体验;
2. 根据需要切换至其他可用模型进行调用,Coding Plan 支持多种主流模型灵活切换;
3. 适当降低短时间内的调用频率,以避免触发系统限流机制。
我们正在持续推进资源扩容与优化工作,以进一步提升平台服务能力。如您在非高峰时段仍频繁遇到该问题,烦请提供相关 调用时间、接口名称等信息,我们将协助进一步排查处理。
|
四、 错误码对照表
|
错误码
|
含义
|
建议操作
|
|
API rate limit reached. Please try again later.
|
资源触发限制
|
参见上文“Q:报错API rate limit reached. Please try again later.”中指引。
|
|
invalid_request_error
coding_plan_api_key_not_allowed
Coding Plan API key is not allowed for non-Coding Plan requests
|
使用了Coding Plan的API Key调用了MaaS推理服务API地址
|
报错时请求的Maas地址:https://qianfan.baidubce.com/v2/chat/completions
请检查配置,将Base URL更新为:https://qianfan.baidubce.com/v2/coding
最终需要Coding plan请求https://qianfan.baidubce.com/v2/coding/chat/completion
|
其它热门文章
-
OpenClaw养虾指南(通俗原理说明)
如果您还有其它相关问题,可创建工单人工咨询。
评论
