产品名称:Fox-1
产品简介:Fox-1是TensorOpera推出的一系列小型语言模型(SLMs),包括Fox-1-1.6B和Fox-1-1.6B-Instruct-v0.1。Fox-1模型在3万亿个网络抓取的文档数据上预训练,在50亿个指令遵循和多轮对话数据上微调。Fox-1采用3阶段数据课程和深度架构设计,具有256K的扩展词汇量和GQA机制,提高了效率和性能。
详细介绍:
Fox-1是什么
Fox-1是TensorOpera推出的一系列小型语言模型(SLMs),包括Fox-1-1.6B和Fox-1-1.6B-Instruct-v0.1。Fox-1模型在3万亿个网络抓取的文档数据上预训练,在50亿个指令遵循和多轮对话数据上微调。Fox-1采用3阶段数据课程和深度架构设计,具有256K的扩展词汇量和GQA机制,提高了效率和性能。Fox-1模型在包括ARC Challenge、HellaSwag、MMLU、GSM8k等在内的多个标准语言模型基准测试中展现出卓越的性能,超越参数规模是其两倍的模型。
Fox-1的主要功能
- 文本生成与理解:Fox-1能处理和生成各种文本任务,如文本摘要、翻译、问答等。
- 指令遵循:Fox-1-1.6B-Instruct-v0.1特别针对指令遵循任务进行微调,能理解和执行用户的直接指令。
- 多轮对话:模型在多轮对话数据上进行微调,能在对话系统中使用,提供连贯和相关的回应。
- 长上下文处理:采用Rotary Positional Embeddings (RoPE) 和3阶段数据课程,Fox-1能有效处理长达8K的序列,适合处理长文档和长篇文本。
- 高效率推理:Fox-1在保持较小模型规模的同时,实现与更大模型相当的推理速度和吞吐量。
Fox-1的技术原理
- 3阶段数据课程:Fox-1的预训练包括新颖的3阶段数据课程,逐步增加训练样本的块长度从2K到8K,优化长上下文处理能力。
- 深度架构设计:Fox-1采用32层自注意力层的深度架构,相比其他模型更深,增强了模型的推理能力。
- 分组查询注意力(GQA):将查询头分组,每个组共享相同的键值头,提高训练和推理速度,减少内存使用。
- 共享输入输出嵌入:Fox-1共享输入和输出嵌入层,减少模型参数数量,提高权重利用率。
- 扩展词汇量:模型用256K的词汇量,相比标准词汇量,能更有效地编码信息,减少未知词的概率,提高下游任务性能。
- 预归一化:Fox-1用RMSNorm进行预归一化,有助于提高训练效率。
- RoPE位置编码:Fox-1采用RoPE,有助于编码 token 之间的相对位置依赖。
Fox-1的项目地址
- 项目官网:tensoropera-unveils-fox
- HuggingFace模型库:
- arXiv技术论文:https://arxiv.org/pdf/2411.05281
Fox-1的应用场景
暂无评论...