字节跳动在人工智能领域再推新成果,豆包大模型迎来重要升级,其2.0版本正式发布。此次升级围绕大规模生产环境下的实际需求,进行了全面且系统的优化,凭借高效推理、多模态理解以及复杂指令执行能力,能够更出色地应对真实世界中的复杂任务。
豆包2.0系列模型丰富多样,包含Pro、Lite、Mini三款通用Agent模型以及Code模型,可灵活适配各类业务场景。其中,豆包2.0 Pro专为深度推理与长链路任务执行场景打造,全面对标GPT 5.2与Gemini 3 Pro,展现出强大的性能优势;2.0 Lite在性能与成本之间找到了良好平衡,综合能力超越上一代主力模型豆包1.8;2.0 Mini则聚焦于低时延、高并发与成本敏感场景,满足特定需求;Code版(Doubao-Seed-2.0-Code)专为编程场景设计,与TRAE结合使用能发挥更佳效果。
目前,豆包2.0系列模型已逐步上线应用。豆包2.0 Pro已在豆包App、电脑端和网页版与用户见面,用户只需选择“专家”模式,即可开启对话体验之旅;豆包2.0 Code接入了AI编程产品TRAE,为编程人员提供有力支持;面向企业和开发者,火山引擎也上线了豆包2.0系列模型API服务,方便各方接入使用。
有媒体报道,记者通过实际测试发现,豆包2.0在图片识别与理解、智能分析等方面表现卓越。例如,当输入一张蛋糕图片,并询问图片中玫瑰的数量及颜色时,豆包2.0不仅能精准罗列出三类不同的玫瑰花色,还能详细介绍其中一种渐变色玫瑰为爱莎玫瑰品种。更令人惊喜的是,它还识别出其中一朵并非玫瑰,而是洋桔梗,并未受到问题误导,展现出强大的识别和分析能力。
值得一提的是,在2月12日,字节跳动官方公众号还曾发布消息,豆包视频生成模型Seedance 2.0正式登场。该模型现已全面接入豆包和即梦产品,并上线火山方舟体验中心,欢迎广大用户试用。用户打开豆包App对话框,选择新增的“Seedance 2.0”入口,输入相关提示词,即可生成5秒或10秒视频。Seedance 2.0模型具备原声音画同步、多镜头长叙事、多模态可控生成等特性,不过目前暂不支持上传真人图片作为主体参考。