Liquid AI 宣布推出 LFM2.5-1.2B-Thinking 推理模型,仅占用手机 900 MB 的内存,却能供给一致体积下最快的推理速度和最佳的推理质量。
根据介绍,LFM2.5-1.2B-Thinking是LFM2.5 系列的最新成员。它是一个拥有 12 亿参数的模型,专门针对推理义务进行练习。它会在生成谜底之前生成思虑轨迹,体系地解决问题。该模型应用 LFM 独特的推理速度优势,生成更高质量的谜底。
与 LFM2.5-1.2B-Instruct 比拟,LFM2.5-1.2B-Thinkin 有三项才能大年夜幅晋升:数学推理(MATH-500 上的 63→88)、指令遵守(Multi-IF 上的 61→69)和对象应用(BFCLv3 上的 49→57)。

通知布告称,尽管参数量削减了 40%,但 LFM2.5-1.2B-Thinking 在大年夜多半推理基准测试中表示与 Qwen3-1.7B 相当甚至更优。此外,它兼具高质量和高效的测试时计算才能。与 Qwen3-1.7B(思虑模式)比拟,它在供给更高整体机能的同时,所需的输出 token 更少。
在推理阶段,LFM2.5-1.2B-Thinking 不仅在速度和内存效力方面跨越了 Qwen3-1.7B,甚至跨越了 Granite-4.0-H-1B 等混淆架构。

且 LFM2.5-1.2B-Thinking 在须要大年夜量自立性和推理的义务(例如对象应用、数学运算、编程)、以及长高低文推理方面的表示也十分出色。

发表评论 取消回复