百度文心一言(千帆大模型)聊天API使用指导
大模型开发/实践案例
- 文心大模型
- API
- LLM
2023.12.1318591看过
从一个前端开发人员的角度,教大家快速使用上文心一言(千帆大模型)API
本文就从一个前端开发人员的角度,教大家快速使用上文心一言(千帆大模型)API。
直接进千帆控制台页面: https://console.bce.baidu.com/qianfan/overview
没有账号,需要自己注册下,注册的时候顺便个人实名认证下,后面想要使用服务,就必须要实名认证。另外会送你20元的优惠券,先不用管。进去之后,大概就是下图这样:
没有账号,需要自己注册下,注册的时候顺便个人实名认证下,后面想要使用服务,就必须要实名认证。另外会送你20元的优惠券,先不用管。进去之后,大概就是下图这样:
进入“应用接入”页面,先创建应用,获取API Key和Secret Key
想要真正使用的话,还需要开通相关的服务,点击“计费管理”,进入服务开通界面,
选择“预置服务”,只是想用文心一言聊天API的话,只需要开通下图左下角的两个服务就行,ERNIE-Bot大模型和ERNIE-Bot-turbo-0922大模型,两个都是聊天的API服务,不同的是,前者返回答案的速度偏慢,但准确率更高,后者回答的更快,准确率偏低。
选好,在右侧“开通服务”即可。
下面就是API的示例调用了,返回“应用接入”页面,点击“API文档”
这样就跳转了另外一个控制台,和之前的不一样(哈哈,反正找起来就是懵),居然没有JavaScript的调用示例。。。
它的API的调用逻辑是,先通过API Key和Secret Key去请求接口,获取access_token,然后再调用接口的时候放上token,去请求聊天问答数据。总之是分成两步的,读者可以自己尝试下。
点击“获取AccessToken”,再点击“调试”,获取token,
选择ERNIE-Bot,再看看Python的示例代码,可以知道它的请求url,
想看怎么传参数的话,可以点击“对话测试”,输入问题,测试下。
再打开示例代码,就能看到怎么传参了。
想要回答的速度快点,可以选择ERNIE-Bot-turbo
————————————————
版权声明:本文为CSDN博主「何去何从2857」的原创文章如有侵权,请联系千帆社区进行删除
评论