突破极限:LLM能力密度惊人翻倍的Densing法则揭秘


大模型不仅有Scaling Law,还有Densing Law

突破极限:LLM能力密度惊人翻倍的Densing法则揭秘

原标题:LLM最大能力密度100天翻一倍!清华刘知远团队提出Densing Law
文章来源:机器之心
内容字数:5265字

模型的发展趋势:Scaling Law与Densing Law

近期,AI领域针对大模型的Scaling Law(尺度定律)是否达到瓶颈产生了分歧。一方面,有观点认为Scaling Law已经“撞墙”,无法继续依赖数据和参数规模的堆叠来提升性能;而另一方面,OpenAI的CEO Sam Altman则认为其潜力尚未穷尽。

1. Densing Law的提出

清华大学刘知远教授团队提出了新的概念——Densing Law(密度定律),该定律表明大模型的能力密度(即模型性能与参数规模的比率)随时间以指数级增长。研究显示,自2023年以来,大模型的能力密度约每3.3个月翻一倍,即每100天用一半的参数量即可实现当前最优模型的性能。

2. 重要推论

基于Densing Law,研究团队提出了以下几个重要推论:

  • 模型推理开销随时间指数级下降。
  • 大模型能力密度正在加速增强。
  • 模型小型化揭示了端侧智能的巨大潜力。
  • 无法仅依靠模型压缩算法增强模型能力密度。
  • 模型高性价比的有效期不断缩短。

3. 能力密度的计算

研究团队引入了参考模型的概念,通过比较不同参数规模下模型的性能,建立了参数量与性能之间的映射关系。目标模型的能力密度被定义为有效参数量与实际参数量的比值。

4. 未来的发展方向

Densing Law揭示了AI发展中的新阶段,强调电力、算力与智力三大核心引擎的快速增长。随着模型能力密度的提升,AI技术的可持续发展也提供了新的可能性,尤其是在边缘计算与云计算的协同下,预计将实现“AI无处不在”的愿景。

综上所述,清华大学的研究为大模型的发展提供了新的视角,强调能力密度的重要性,并指出未来在模型设计与应用上需持续探索与创新。


联系作者

文章来源:机器之心
作者微信:
作者简介:专业的人工智能媒体和产业服务平台

版权声明:atcat 发表于 2024-12-11 12:03:30。
转载请注明:突破极限:LLM能力密度惊人翻倍的Densing法则揭秘 | 86AIGC导航

暂无评论

暂无评论...