普林斯顿开源34B数学大模型:性能媲美谷歌Minerva,参数少一半!550亿token专业数据训练

普林斯顿开源34B数学大模型:性能媲美谷歌Minerva,参数少一半!550亿token专业数据训练

AIGC动态欢迎阅读

原标题:普林斯顿开源34B数学模型性能媲美谷歌Minerva,参数少一半!550亿token专业数据训练

关键字:数学,模型,数据,性能,问题

章来源:智元

内容字数:4119字

内容摘要:智元报道编辑:青荻 润【智元导读】在数学域,一个全的时代即将到来。LLEMMA,一个大的数学专用语言模型,正在带来性的性能、数据集和解决方案。它不仅超越了现有开源模型,还为数学研究者们提供了开放的享和合作机会。让我们一起探索这个数学界的巨大突破。数学,作为科学的基石,一直以来都是研究和创的关键域。最近,普林斯顿大学等七家机构联合发布了一个专门用于数学的大语言模型LLEMMA,性能媲美谷歌Minerva 62B,并公开了其模型、数据集和代码,为数学研究带来了前所未有的机会和资源。论地址:https://arxiv.org/abs/2310.10631数据集地址:https://huggingface.co/datasets/EleutherAI/proof-pile-2项目地址:https://github.com/EleutherAI/math-lmLLEMMA承袭了…

原链接:点此阅读原:普林斯顿开源34B数学大模型:性能媲美谷歌Minerva,参数少一半!550亿token专业数据训练

联系作者

章来源:智元

作者微信:AI_era

作者简介:智能+中国主台,致力于推动中国从互联网+迈向智能+纪元。重点关注人工智能机器人等前沿域发展,关注人机融合、人工智能和机器人对人类社会与明进化的影响,航中国智能时代。

暂无评论

暂无评论...