AI大模型权威评测:豆包中文对话最强,OpenAI o1推理和数学占优

摘要:在其闭源大模型评测能力总榜中,字节跳动的豆包通用模型pro拿到主观评测最高分,OpenAI的o1-mini拿到客观评测最高分;多模态模型评测总榜前三名依次是OpenAI的GPT-4o、字节跳动的豆包视觉理解模型、Anthropic的Claude 3.5 Son

国产AI模型多点开花。

作者 | 徐豫

编辑 | 漠影

还有不到一周就2025年了,各大社交音娱平台相继自动弹出“年度报告”的搜索选项。身处AI元年,AI模型这份年终答卷,自然也少不了。

智东西12月25日报道,智源研究院12月19日发布了FlagEval“百模”评测结果,今年国产大模型与海外大模型战况焦灼。

在其闭源大模型评测能力总榜中,字节跳动的豆包通用模型pro拿到主观评测最高分,OpenAI的o1-mini拿到客观评测最高分;多模态模型评测总榜前三名依次是OpenAI的GPT-4o、字节跳动的豆包视觉理解模型、Anthropic的Claude 3.5 Sonnet。

▲大语言模型评测能力榜单前三名(图片来源:智源研究院)

此次评测包含国内外累计100多个开源和商业闭源的语言、视觉语言、文生图、文生视频、语音语言大模型,新增了对于AI模型任务解决能力、真实金融量化交易场景应用能力、辩论能力的考量标准。

同时,为了尽可能降低数据集泄露风险,并减少数据集饱和度问题,本次评测吸纳了近期发布的数据集、持续动态更新评测数据、替换了98%的题目以及提升了题目的难度。

其实去年6月,智源研究院就上线了大模型评测平台FlagEval,到现在该平台已有基于AI的辅助评测模型FlagJudge、多模态评测框架FlagEvalMM和针对大模型新能力的评测集。其与北京大学共建的HalluDial是目前全球规模最大的、对话场景下的幻觉评测集,包含超18000个轮次对话和超14万个回答。

从智源评测最新结果可以看出,今年下半年大模型发展更侧重综合能力提升与实际应用;多模态模型快速发展,该领域内涌现了不少新厂商与新AI模型;语言模型的发展则相对放缓。

得益于多模态能力的提升,AI模型最新K12学科测验综合得分相较于半年前提升了12.86%,但是仍与北京海淀学生平均水平存在差距。不过,AI模型普遍存在“文强理弱”的偏科情况,在英语和历史文科试题的表现上,已有AI模型超越了人类考生的平均分。

谷歌Gemini 1.5 Pro、阿里巴巴Qwen-VL-Max、Anthropic Claude 3.5 Sonnet、阶跃星辰Step 1V、南洋理工大学LLaVA-Onevision等7家AI模型的英语学科综合得分高于人类考生;阶跃星辰Step 1V、阿里巴巴Qwen-VL和Qwen-VL-Max、谷歌Gemini 1.5 Pro、南洋理工大学LLaVA-Onevision等12家AI模型的历史学科综合得分高于人类考生。

▲大模型K12学科测验历史学科卷面分数榜单前五名(图片来源:智源研究院)

01.

豆包中文对话能力最强

OpenAI o1系列推理水平断层领先

基于智源评测结果,今年多款国产大模型综合能力超过海外知名大模型。

在闭源大模型主观评测中,豆包通用模型pro和百度ERNIE 4.0 Turbo的综合评分均领先于OpenAI的o1-preview、o1-mini、GPT-4o;而在开源大模型主观评测中,阿里巴巴Qwen2.5的综合评分高于Meta Llama 3.3和Llama 3.1。

主观评测更偏重考察大模型中文能力,而国产大模型在中文语言能力上具有普遍优势。

因此,从实际综合评分可以看出,国产大模型占据了闭源大模型主观评测榜单的大半壁江山。其前20名中共有15款国产大模型,占比75%,包括豆包通用模型pro、百度ERNIE 4.0 Turbo、阿里巴巴Qwen-Max、智谱华章GLM-4-Plus、阶跃星辰Step 2等。

▲大语言模型评测能力榜单主观评测前五名(图片来源:智源研究院)

不过,如果把大模型放在客观评测池子里比较,国产大模型的表现仍与海外大模型有着一定差距。

OpenAI的o1-mini获得客观评测的最高分64.57,同样属于o1系列的o1-preview,以60.36的综合评分位列榜单第二。该项评测中阿里巴巴的Qwen-Max和豆包通用模型pro各自的综合评分为57.60和56.49,与o1-mini之间大概有7分的分差,与o1-preview之间大概有3分的分差。

▲大语言模型评测能力榜单客观评测前五名(图片来源:智源研究院)

结合各项细分能力的评分来看,国产大模型更“重文轻理”,主要在推理、数学、代码等方面落后于OpenAI的大模型。例如,即便是侧重中文语境,OpenAI o1-preview仍拿到主观评测任务解决板块的最高分85.37,与第二名的79.52分和第三名的77.41分相比领先优势较为明显。

02.

多模态评测

国产大模型各擅胜场

据智源研究院调研,今年市面上头部模型的多模态能力得到大幅提升,上半年参评的模型普遍无法生成正确的中文文字,但年末参评的头部模型已经具备中文文字生成能力。

从此次多模态模型评测数据来看,视觉语言模型平均排名前三分别是OpenAI的GPT-4o、豆包视觉理解模型和Anthropic的Claude 3.5 Sonnet。这三者中豆包的通用知识、文字识别等中文能力与其他两家拉开了较大差距,若单看英文图表理解表现则Claude的排名最靠前。

▲视觉语言模型排行榜前三名(图片来源:智源研究院)

面对文本、图片、视频、语音等多模态数据的处理时,豆包文生图模型、豆包视频生成模型“即梦P2.0 pro”分别在相应测试中位列全球第二,腾讯Hunyuan Image文生图水平全球第一,快手可灵1.5(高品质版)文生视频水平全球第一,阿里巴巴Qwen2-Audio语音语言水平全球第一。

▲文生视频模型排行榜前三名(左),文生图模型排行榜前三名(右)(图片来源:智源研究院)

目前,AI文生图的技术整体趋于成熟,但AI文生视频领域仍有较多挑战。现阶段,热门的AI文生视频模型有可灵1.5(高品质版)、即梦P2.0 pro、爱诗科技PixVerse V3、Minimax海螺AI、Pika同名AI模型Pika 1.5等。

其中,位列榜单第一、二名的可灵和即梦均可生成时长10s的视频,所生成的视频在图文一致性上也打成平手,但前者在AI视频真实性和视频质量略胜一筹,后者则在AI视频美学质量和分辨率上实现反超。

上述几家多模态模型中,只有阿里巴巴的走开源路线。对于多模态开源模型的实际效果,智源研究院方面称,虽然开源模型架构趋同,即通常采用语言塔和视觉塔的架构,但具体表现不一。其中较好的开源模型,在图文理解任务上正在缩小与头部闭源模型的能力差距,而长尾视觉知识与文字识别,以及复杂图文数据分析能力仍有提升空间。

03.

AI模型更擅长反驳辩题

还可任职金融行业初级岗位

智源研究院在AI模型的年末评测中,新设置了对其辩论能力和金融量化交易能力的考核维度。

不到3个月前,智源研究院推出了一个名为FlagEval Debate的AI模型辩论平台。该平台主要从逻辑推理、观点理解和语言表达等核心能力维度,深入评估AI语言模型的能力差异。

据最新评测结果,一方面AI大模型普遍缺乏辩论框架意识,不具备围绕辩题、以整体逻辑综合阐述的能力;另一方面AI大模型在辩论中仍然存在“幻觉”问题,给出的论据通常经不起推敲。

相比于“正方”,AI大模型似乎更适合做辩论赛的“反方”。此次评测结果表明AI大模型更擅长反驳,各个模型所突出的辩论维度趋同。不过,遇到不同的辩题时AI模型间的表现差距会较为显著。

总体来看,在FlagEval Debate评测中,Anthropic Claude 3.5 Sonnet、零一万物Yi-Lighting、OpenAI o1-preview的综合水平排行前三。

而在金融量化交易领域,此次评测发现大模型已具备生成有回撤收益的策略代码的能力,能开发量化交易典型场景里的代码,头部AI模型能力已接近初级量化交易员的水平。

该榜单前5名依次是深度求索的DeepSeek-V2.5、OpenAI的GPT-4o、OpenAI的o1-mini、谷歌的Gemini 1.5 Pro和智谱华章的GLM-4-Plus。此外,百度、腾讯、字节跳动、商汤、阿里巴巴、百川智能和零一万物等7家国产大模型开发商均有产品上榜。

▲金融量化交易评测榜单前五名(图片来源:智源研究院)

智源研究院主要用知识问答、交易策略的跑通率和夏普指数、指标计算的跑通率和准确率、计算性能的跑通率这6项指标,来比较AI模型的金融量化交易能力。

其中,在知识问答方面,AI模型整体差异较小且整体分数偏高,大部分得分介于0.97到1之间,最低分为Meta Llama 3.1的0.69。然而,面对实际代码生成任务时,各AI模型差异较大,并且整体能力偏弱。

04.

结语:国产大模型竞争加剧

下半场比拼商用质量

在这场“百家争鸣”中,国产大模型开发商们不仅巩固了其AI模型的中文能力优势,还进一步开发了文生图、文生视频、文生语音等多模态模型潜力。

过去一年,大模型领域也迎来了诸多新拐点,Scaling Law相对放缓、AI模型的数学能力从中学生水平跃升到博士生水平、OpenAI 12月底刚发布的推理模型o3性能接近甚至超过了人类水平、背靠AI模型的AI Agent概念和产品热度攀升。

下一步,AI模型将从卷参数量迈向卷应用场景,催熟商业化落地的效率和效益。

来源:人工智能学家

相关推荐