
全新多模态模型上线千帆ModelBuilder,限时免费体验
大模型开发/产品动态
- LLM
- 文心大模型
4月16日2924看过
千帆ModelBuilder于4.11晚迎来了新一轮小版本更新,本次更新涉及模型服务升级以及工具链、计费模式升级三大方面,诸多亮点呈现✨
💡此次更新亮点速览:
-
新服务与模型上线:Qianfan -Agent -speed -32K等系列预置服务量包上线,多模态模型Llama -4 -Maverick -17B -128E -Instruct等限时免费试用。
-
性能优化与拓展:时延监控指标更丰富,DeepSeek -R1模型能力提升,部分模型支持量化压缩。
-
工具链升级:图像理解训练计费优化,数据洞察新增提示词模板拼接功能。
⬇️下滑查看更新详情⬇️
登录百度智能云千帆ModelBuilder平台同步进行文字和功能的体验效果更佳。

1、预置服务上线多模态模型 Llama-4-Maverick-17B-128E-Instruct、Llama-4-Scout-17B-16E-Instruct,使用专家混合架构,在文本和图像理解方面提供行业领先的性能,限时免费试用。
调用说明请查看:

2、Qianfan -Agent-speed-32K、ERNIE-X1-32K-Preview系列预置服务量包已上线,规格包括1亿、10亿、50亿。
3、Ernie-X1-32K-Preview支持BLS日志投递/解绑。
4、调用统计支持查看首tokens时延,整句时延,OTPS,丰富时延监控指标。
5、增加 web_search.enable_status:true 入参,支持在流式场景下首包返回正在搜索,降低触发搜索时的首token时延。
"web_search":{"enable":true,"enable_trace":true,"enable_status":true}
6、DeepSeek-R1模型reasoning_content思维链最长支持32k,content最长支持16k(通过max_tokens控制)。
7、支持QwQ-32B和Qwen2.5-7b-instruct训练后进行量化压缩。


数据洞察新增支持提示词模板拼接功能,帮助客户快速准备指令清晰、结构化的高质量训练数据。在大模型精调阶段,在数据集中拼接结构化的提示词模板,能让模型准确理解任务核心要求,从而提升训练效果。


图像理解的训练计费方式以按tokens计费替代按时长计费,计费更精准,使用更灵活。
评论
