媒体界
行业纵横 资讯速递 科技前沿 峰会论坛 企业快讯 商业快讯

字节跳动豆包大模型2.0登场:能力升级,成本优化,多场景应用可期

2026-02-19来源:快讯编辑:瑞雪

字节跳动近日正式发布豆包大模型2.0(Doubao-Seed-2.0)系列,在语言处理、多模态理解及复杂任务执行等维度实现突破性进展。该系列包含Pro旗舰版与Lite轻量版,针对真实场景需求进行深度优化,现已通过豆包App及火山引擎API服务向公众开放。

在数学与逻辑推理领域,豆包2.0 Pro展现出顶尖实力。该模型在IMO、CMO国际数学竞赛及ICPC编程竞赛中斩获金牌,Putnam数学基准测试成绩超越Gemini 3 Pro。其科学知识储备通过SuperGPQA等权威测试验证,在跨学科应用场景中与GPT 5.2、Gemini 3 Pro等国际主流模型持平。

针对复杂文档处理需求,新模型全面升级多模态理解能力。视觉推理测试中,该模型在图表解析、空间关系判断等任务中取得行业最优成绩;长上下文理解模块可精准处理超长文本与视频流数据,在健身指导、穿搭建议等动态场景中实现实时环境感知与交互反馈。

Agent能力评测显示,豆包2.0 Pro在工具调用、指令遵循等核心指标上达到全球领先水平。在HLE-Text人类终极考试中,该模型以54.2分刷新纪录,较第二名模型高出12.7分。火山引擎同步开放API服务,支持开发者构建智能客服、内容生成等应用场景。

定价策略凸显竞争优势。豆包2.0 Pro采用阶梯式收费模式,32k输入长度定价为3.2元/百万tokens,输出价格为16元/百万tokens,较同类产品降低40%-60%。Lite版本性能超越前代主力模型豆包1.8,输入成本仅0.6元/百万tokens,为中小企业提供高性价比选择。

英伟达Meta强强联手,AI算力革新加速,传统芯片市场格局生变
尽管Meta近年来积极开发自有AI芯片,但此次大规模采购英伟达芯片的举动被视为对外部算力需求的长期锁定,以确保其在AI商业化竞争中不落后于谷歌、微软等对手。推理任务需要高效、低延迟的计算能力,而英伟达的Gra…

2026-02-19

黄仁勋忆往昔:众人对AI持观望 马斯克却独具慧眼坚定力挺
当地时间2月18日,特斯拉(TSLA.US)CEO马斯克在社交平台X上转发帖子显示,英伟达(NVDA.US)CEO黄仁勋讲述了马斯克如何成为英伟达首位购买其强大人工智能超级计算机客户的故事,而当时世界上几乎…

2026-02-19

英伟达与Meta深化合作:数百万GPU部署 携手推进AI前沿发展
Meta和英伟达继续合作,在其数据中心生产应用中部署基于 Arm 的英伟达Grace™ CPU,以提升性能,这是 Meta长期基础设施战略的一部分,旨在显著提高其数据中心的每瓦性能。 两家公司还在合作部署…

2026-02-19