迎接大年夜家收看《RWKV 社区最新动态》,本期内容收录了 RWKV 社区 2025 年 12 月的最新动态。
12 月动态省流版(TL;DR)
-
谢邀,起首感激 RWKV 社区的支撑,我们方才举办了 RWKV8 ROSA 开辟者大年夜会:
RWKV 模型消息动态
- RWKV7-G0b 13.3B 宣布
-
RWKV 学术研究动态
- RWKV-SKF: A recurrent architecture with state-space and frequency-domain filtering for dissolved oxygen predicting and revealing influencing mechanisms(基于 RWKV 的消融氧猜测,揭橥于 JCR Q1 分区的 Information Sciences)
- Robin: RWKV Accelerator using Block Circulant Matrices based src="https://images.weserv.nl/?url=https://oscimg.oschina.net/oscnet/up-dd5feb667d3a16b4c286c1d63d68a2fc78c.png">
具体报道:RWKV7-G0b 13.3B 宣布:RNN 的新一步
RWKV 学术研究动态
RWKV-SKF
- 论文名称:RWKV-SKF: A recurrent architecture with state-space and frequency-domain filtering for dissolved oxygen predicting and revealing influencing mechanisms
- 论文链接:https://www.sciencedirect.com/science/article/abs/pii/S0020025525011557
- 宣布日期:2025-12-24
该研究基于 RWKV 架构,提出了 RWKV-SKF 框架,经由过程融合状况空间卡尔曼滤波与频域傅里叶滤波,有效处理传感器噪声与周期性动态,以晋升消融氧猜测精度。实验证实该模型机能优胜,并能揭示关键影响机制。
论文揭橥于 Information Sciences(JCR Q1 分区),在情况监测范畴应用表示出色。

Robin
- 论文名称:Robin: RWKV Accelerator using Block Circulant Matrices based src="https://images.weserv.nl/?url=https://oscimg.oschina.net/oscnet/up-ce3956565bf0ae7104483773a071351b566.png">
DME-RWKV
- 论文名称:DME-RWKV: An Interpretable Multimodal Deep Learning Framework for Predicting Anti-VEGF Response in Diabetic Macular Edema
- 论文链接:https://www.mdpi.com/2306-5354/13/1/12
- 宣布日期:2025-12-21
本研究基于 RWKV 架构提出了 DME-RWKV 模型,用于猜测糖尿病黄斑水肿(DME)患者对抗 VEGF 治疗的反响。该模型融合了 OCT 和超广角成像,并结合因果留意力进修等办法,在生物标记物瓜分和治疗反响猜测义务上均表示出色,具有高精度和可解释性。
论文模型新鲜高效,揭橥于 Bioengineering。

SemanticBBV
- 论文名称:SemanticBBV: A Semantic Signature for Cross-Program Knowledge Reuse in Microarchitecture Simulation
- 论文链接:https://arxiv.org/abs/2512.10231
- 宣布日期:2025-12-11
该论文提出 SemanticBBV,应用轻量级 RWKV 编码器生成语义签名,以解决传统 BBV 无法跨法度榜样重用常识的问题。它经由过程 Set Transformer 聚合嵌入并结合练习,实现了跨法度榜样机能估计,明显加快了微架构模仿。
论文明显加快了微架构模仿,揭橥于 ASP-DAC 2026。

EG-Net
- 论文名称:EG-Net: Edge-Global aware network for accurate skin lesion segmentation
- 论文链接:https://www.sciencedirect.com/science/article/abs/pii/S1746809425018142
- 宣布日期:2025-12-01
该研究应用 RWKV 构建边沿-全局特点融合模块,以加强皮肤病变瓜分的全局高低文建模才能。结合边沿特点提取与通道加强解码器,EG-Net 有效解决了病变界线模糊问题,在多个公开数据集上实现了超出 SOTA 的精度与泛化性。
论文后果出色,揭橥于中科院 2 区的 BSPC。

AFF-UNet-RWKV
- 论文名称:AFF-UNet-RWKV: A Lightweight Model for High-Quality Deblurring in Medical Imaging
- 论文链接:https://madison-proceedings.com/index.php/aetr/article/view/4338
- 宣布日期:2025-11-20
本文提出的 AFF-UNet-RWKV 模型,经由过程集成 RWKV-lite 空间混淆器来捕获长程空间依附,并结合 AFF 模块融合编解码器特点,实现了高效的医学图像去模糊。该轻量级模型在 PSNR 和 SSIM 指标上均优于传统办法,展示了优胜的恢复机能。
论文在多项指标上均优于传统办法,展示了卓越的恢复机能。

RWKVSR
- 论文名称:RWKVSR: Receptance Weighted Key-Value Network for Hyperspectral Image Super-Resolution
- 论文链接:https://ieeexplore.ieee.org/document/11222729
- 宣布日期:2025-10-30
RWKVSR 引入了 RWKV 架构用于高光谱图像超分辨率,经由过程线性复杂度模块实现高效全局建模,结合偏向可分别 3D 卷积和频域损掉优化光谱一致性,在多个数据集上实现最佳机能。
论文在多个数据集上实现最佳机能,后果优良。

Fourier-RWKV
- 论文名称:Fourier-RWKV: A Multi-State Perception Network for Efficient Image Dehazing
- 论文链接:https://arxiv.org/abs/2512.08161
- 宣布日期:2025-12-09

LADY
- 论文名称:LADY: Linear Attention for Autonomous Driving Efficiency without Transformers
- 论文链接:https://arxiv.org/abs/2512.15038
- 宣布日期:2025-12-17
该研究基于 RWKV-7 模型提出首个完全线性留意力的端到端主动驾驶框架 LADY。它经由过程轻量级线性交叉留意力机制,高效融合多帧传感器数据,实现恒定计算与内存开销。实验证实 LADY 在晋升筹划机能的同时明显降低计算成本,并已在边沿设备安排验证。

FRWKV
- 论文名称:FRWKV:Frequency-Domain Linear Attention for Long-Term Time Series Forecasting
- 论文链接:https://arxiv.org/abs/2512.07539
- 宣布日期:2025-12-09
本年我发过的 RWKV 模型(每个参数量都是越新越明显强,请大年夜家记得永远用最新模型)。 模型下载和 GGUF 见:https://huggingface.co/BlinkDL/rwkv7-g1
📅 RWKV 模型宣布列表
模型版本 参数量 文件名 RWKV7-G0b 7.2B rwkv7-g0b-7.2b-20251220-ctx8192.pth RWKV7-G0a4 7.2B rwkv7-g0a4-7.2b-20251208-ctx8192.pth RWKV7-G1b 2.9B rwkv7-g1b-2.9b-20251205-ctx8192.pth RWKV7-G1b 1.5B rwkv7-g1b-1.5b-20251202-ctx8192.pth RWKV7-G0b 13.3B rwkv7-g0b-13.3b-20251130-ctx8192.pth RWKV7-G1a4 2.9B rwkv7-g1a4-2.9b-20251118-ctx8192.pth RWKV7-G0a4 13.3B rwkv7-g0a4-13.3b-20251114-ctx8192.pth RWKV7-G1a3 2.9B rwkv7-g1a3-2.9b-20251103-ctx8192.pth RWKV7-G0a3 13.3B rwkv7-g0a3-13.3b-20251031-ctx4096.pth RWKV7-G0a3 7.2B rwkv7-g0a3-7.2b-20251029-ctx8192.pth RWKV7-G1a3 1.5B rwkv7-g1a3-1.5b-20251015-ctx8192.pth RWKV7-G1a2 1.5B rwkv7-g1a2-1.5b-20251005-ctx8192.pth RWKV7-G0a2 7.2B rwkv7-g0a2-7.2b-20251005-ctx4096.pth RWKV7-G1a 2.9B rwkv7-g1a-2.9b-20250924-ctx4096.pth RWKV7-G1a 1.5B rwkv7-g1a-1.5b-20250922-ctx4096.pth RWKV7-G1a 0.4B rwkv7-g1a-0.4b-20250905-ctx4096.pth RWKV7-G0a 7.2B rwkv7-g0a-7.2b-20250829-ctx4096.pth RWKV7b-G1b 0.1B rwkv7b-g1b-0.1b-20250822-ctx4096.pth RWKV7a-G1b 0.1B rwkv7a-g1b-0.1b-20250819-ctx4096.pth RWKV7-G1a 0.1B rwkv7-g1a-0.1b-20250728-ctx4096.pth RWKV7-G0 7.2B rwkv7-g0-7.2b-20250722-ctx4096.pth RWKV7-G1 2.9B rwkv7-g1-2.9b-20250519-ctx4096.pth RWKV7-G1 1.5B rwkv7-g1-1.5b-20250429-ctx4096.pth RWKV7-G1 0.4B rwkv7-g1-0.4b-20250324-ctx4096.pth RWKV7-G1 0.1B rwkv7-g1-0.1b-20250307-ctx4096.pth RWKV-7 2.9B RWKV-x070-World-2.9B-v3-20250211-ctx4096.pth RWKV-7 1.5B RWKV-x070-World-1.5B-v3-20250127-ctx4096.pth RWKV-7 0.4B RWKV-x070-World-0.4B-v2.9-20250107-ctx4096.pth受 RWKV 线性留意力启发,本文提出了 FRWKV 模型,将线性留意力与频域分析相结合,用于经久时光序列猜测。该办法在频域中实现 O(T) 复杂度的线性留意力,有效应用频谱信息加强特点表示,在多个基准测试中取得了领先机能。
论文在多个基准测试中取得了领先机能,后果明显。
Fourier-RWKV 经由过程将 WKV 留意力机制扩大至频域来解决图像去雾问题。该模型融合了空间、频域与语义三种感知状况,以线性复杂度实现了 SOTA 机能,有效均衡了恢复质量与计算效力。
论文以线性复杂度实现了 SOTA 机能,后果不凡。

社区市场活动
RWKV 社区举办第二届开辟者大年夜会
2025 年 12 月 13 日,RWKV 在上海漕河泾举办了主题为《RWKV-8 与将来趋势》的 2025 RWKV DevDay。
十位来自 RWKV 开源社区的重磅嘉宾带来了深度分享,内容涵盖 RWKV-8 的核心 ROSA 机制、并发推理、端侧推理优化、评测办法,以及 RWKV 最新生态进展等多个维度。

ROSA-Tuning将 ROSA 机制与现代大年夜型说话模型相结合,使它们可以或许仅应用固定长度的留意力窗口来处理随便率性长的输入,同时实现接近完全全局留意力的机能。

项目地址:https://github.com/zyaaa-ux/ROSA-Tuning
ROSA-soft
项目地址:https://github.com/wjie98/rosa_soft
RWKV State Tuning 实战
仅需 8G 显存(一张 4060)即可练习一个可以正常进行 function call,并根据设定内容进行答复的模型!最终练习出的 state 仅 10M,搭载 2.9B 模型,边沿设备也可安排!

论文在晋升机能的同时明显降低了计算成本,表示出众。
具体报道:RWKV DevDay 2025 美满落幕,看见 RWKV-8 的无穷可能!
RWKV 社区项目动态
ROSA-tuning
具体报道:RWKV State Tuning实战:8G显存练习AI助手(带function call)
特刊:PENG Bo 的 2025 年度总结
转自知乎用户 PENG Bo,原文链接:https://www.zhihu.com/question/1974931646080836522/answer/1987541572955416201?share_code=DcUETlkRnH7K&utm_psn=1987588920150618890
受益于数据的进步,模型才能快速晋升,例如这是 G0b 13.3B 的宣布稿: 点击浏览文章
它在单显卡并行生成几十个网页的后果(看着空白的都实际内容正常,只是留白多,缩小看不到内容):

我还没开端真正的大年夜范围蒸馏/刷榜,所以 2026 年的 RWKV 会强异常多,请大年夜家等待。
以及今朝在
rwkv.cn可见 161 篇论文(还有些新的没放上来):
在 2026 年,我们会持续推动纯 RNN 的极限。迎接大年夜家存眷 RWKV 官网:
- RWKV 中国:www.rwkv.cn/
- RWKV 国际:www.rwkv.com/
此外,您在 Play Store / App Store 外区,可搜刮 RWKV chat(源代码在 GitHub),体验 RWKV 端侧离线 app(对话,图像,语音,等等):

后果例子:

📢 雇用与技巧资本
最后,我们经久招练习生(尤其是 infra、后练习、多模态),不限学历,不限线上线下,只要您有热忱+会用 AI,迎接接洽我们(您可以先加 RWKV 的各个 QQ 群,然后在群里说)。
本项目供给了一个强大年夜的、可端到端练习的ROSA(Rapid src="https://images.weserv.nl/?url=https://oscimg.oschina.net/oscnet/up-3cb38d6efad84c1e27beda04af50467570b.png">
⚡ 快速上手 RWKV 练习(单显卡几 G 显存就能玩):
- 练习代码目次: RWKV-LM/tree/main/RWKV-v7/train_temp
- 简化版练习脚本: rwkv7_train_simplified.py
- CUDA 加快内核: RWKV-CUDA/tree/main/rwkv7_fast_fused
- Albatross 项目: Albatross
⚠️ 提示:练习 RWKV 时,记得精确初始化,记得只在大年夜矩阵参数做 weight decay。
参加 RWKV 社区
迎接大年夜家参加 RWKV 社区,可以从 RWKV 中文官网懂得 RWKV 模型,也可以参加 RWKV 论坛、QQ 频道和 QQ 群聊,一路商量 RWKV 模型。
- 📖 RWKV 中文文档:https://www.rwkv.cn
- 💬 RWKV 论坛:https://community.rwkv.cn/
- 🐧 QQ 频道:https://pd.qq.com/s/9n21eravc | QQ 交换群:224287095
- 📺 BiliBili 视频教程:https://space.bilibili.com/3546689096910933

发表评论 取消回复