登录/注册
个人中心
消息中心
退出登录
1
已经有SFT、Prompt tuning、LoRA了,为什么还要有奖励模型训练和强化学习训练?
大模型开发
/
互助问答
文心大模型
SFT
P-tuning
2023.08.28
3904看过
这几个方式会有什么差别么?实在是训练方法太多,不知道如何选择了
评论
相关推荐
【教程】百度智能云千帆大模型平台使用指南-V1.0版本(上)
百度智能云千帆社区
2023.11.09
53388
21
13
快速上手SFT(一):识别应用场景
十万个为什么呢
2023.10.17
11941
11
1
千帆社区每周精选文章(2.5-2.18)
百度智能云千帆社区
2月19日
5983
1
0
冰与火之歌113
关注
已关注
相关文章
需要训练一个100亿参数量的模型,怎么预估所需要的计算资源?
千帆大模型平台的强化学习机制是怎样的?
大模型有没有反编译能力?
热点话题
如何在本地部署大语言模型:工具与指南
热心市民周先生
501 看过
全面解释人工智能LLM模型的真实工作原理(完结)
十万个为什么呢
490 看过
干货:落地企业级RAG的实践指南
未名瞎话
497 看过
如何在nextchat web上接入
dabing535
428 看过