标签:低资源AI

陈丹琦团队降本又来了:数据砍掉三分之一,性能却完全不减
首次用元数据加速预训练原标题:陈丹琦团队降本又来了:数据砍掉三分之一,性能却完全不减文章来源:量子位内容字数:3463字陈丹琦团队新研究:元数据加速大模型预训练,数据量减少……
仅用 8 张显卡和一万块钱,清华团队用7B模型打败GPT-4o数学推理
OpenAIo1和o3模型的发布证明了强化学习能够让大模型拥有像人一样的快速迭代试错、深度思考的高阶推理能力,在基于模仿学习的ScalingLaw逐渐受到质疑的今天,基于探索的强化学习有望……
少用33%数据,模型性能不变,陈丹琦团队用元数据来做降本增效
引入URL信息的预训练方法。原标题:少用33%数据,模型性能不变,陈丹琦团队用元数据来做降本增效文章来源:机器之心内容字数:5819字普林斯顿大学陈丹琦团队新作:MeCo方法加速预……
开源推理模型阿里Marco-o1技术细节全面解读
OpenAIO1模型引发业界对大规模推理模型(largereasoningmodels,LRM)研究的热潮。前文评测结果显示开源的Marco-o1效果不错,甚至超越部分闭源产品。今天这篇小作文将全面介绍Marco-o……