谁才是最强的?清华给海内外知名大模型做了场综合能力评测

谁才是最强的?清华给海内外知名大模型做了场综合能力评测

AIGC动态欢迎阅读

原标题:谁才是最强的?清华给海内外知名大模型做了场综合能力评测
关键字:模型,报告,能力,代码,中文
文章来源:机器之心
内容字数:14305字

内容摘要:


机器之心发布
机器之心编辑部在 2023 年的 “百模大战” 中,众多实践者推出了各类模型,这些模型有的是原创的,有的是针对开源模型进行微调的;有些是通用的,有些则是行业特定的。如何能合理地评价这些模型的能力,成为关键问题。
尽管国内外存在多个模型能力评测榜单,但它们的质量参差不齐,排名差异显著,这主要是因为评测数据和测试方法尚不成熟和科学,而好的评测方法应当具备开放性、动态性、科学性和权威性。
为提供客观、科学的评测标准,清华大学基础模型研究中心联合中关村实验室研制了 SuperBench 大模型综合能力评测框架,旨在推动大模型技术、应用和生态的健康发展。
近期,二者发布了 2024 年 3 月的《SuperBench 大模型综合能力评测报告》。在此评测中,报告选定了 14 个海内外具有代表性的模型进行测试。对于闭源模型,选取了 API 和网页两种调用模式中得分较高的一种进行评测。根据评测结果,报告得出以下几个主要结论:
● 整体来说,GPT-4 系列模型和 Claude-3 等国外模型在多个能力上依然处于领先地位,国内头部大模型 GLM-4 和文心一言 4.0 表现亮眼,与国际一流


原文链接:谁才是最强的?清华给海内外知名大模型做了场综合能力评测

联系作者

文章来源:机器之心
作者微信:almosthuman2014
作者简介:专业的人工智能媒体和产业服务平台

版权声明:atcat 发表于 2024-12-12 6:00:36。
转载请注明:谁才是最强的?清华给海内外知名大模型做了场综合能力评测 | 86AIGC导航

暂无评论

暂无评论...