LFM2-2.6B-Exp基于Liquid AI第二代Liquid Foundation Models(LFM2)系列的2.6B基本模型,经由过程纯强化进修(RL)方法进行后练习优化,无需监督微调暖启动或大年夜型教师模型蒸馏。该模型持续了LFM2的混淆架构优势,结合短程门控卷积和分组查询留意力(GQA),支撑32K高低文长度,专为边沿设备(如手机、笔记本、物联网设备)设计,实现高效本地安排。
Liquid AI 正式宣布了其最新实验性模型LFM2-2.6B-Exp,这一仅有2.6B(26亿)参数的小型开源模型,在多项关键基准测试中表示出色,尤其在指令跟随才能上超出了参数量高达数百亿的DeepSeek R1-0528。
Liquid AI强调,该实验检查点重要针对指令跟随、常识问答和数学推理等范畴进行优化,实用于代理工作流、RAG检索、数据提取、创意写作和多轮对话等场景。

最新基准测试成果显示:
- IFBench(指令跟随基准):得分大年夜幅领先同级模型,甚至超出参数量263倍的DeepSeek R1-0528。
- GPQA(研究生级常识问答):达到约42%,远超传统3B模型。
- IFEval(指令严格遵守):跨越88%,击败浩瀚10B+参数模型。
- GSM8K(数学推理):得分高达82%以上,优于Llama3.23B和Gemma3系列。
此外,该模型在CPU上的预填充和解码速度是竞品的2倍,内存占用极低,支撑bfloat16量化,真正实现“手机级PhD推理”。

发表评论 取消回复