针对外界可能出现的“文风猎巫”,新指南特别提示,部分用户的写作风格本身就可能与大年夜说话模型类似。 是以,假如要根据困惑滥用 AI 来限制某位编辑者的编辑权限,不克不及只依附体裁或说话特点,而应重点核阅其文字是否相符维基百科核心内容方针,并结合其近期编辑记录进行综合断定。

新规今朝实用于英文版维基百科,但并非完全否定一切 AI 用处。 编辑者仍被许可在有限场景下借助大年夜说话模型,例如用来对已有文本提出基本性的语法、措辞修改建议,但前提是 AI 不克不及自行引入任何新的内容。 此外,编辑者可以应用 AI 将其他语种维基百科的条目翻译成英文,但必须遵守网站关于“LLM 帮助翻译”的既有规矩,具备足够的原文说话才能,以核实译文精确性。
在此之前,维基百科社区已与 AI 生成内容“周旋”数月,陆续出台了一系列应对办法。 社区曾经由过程新政策,许可对证量低劣的 AI 生成条目进行“快速删除”,以降低“AI 灌水内容”对全部平台质量的侵蚀。 编辑者还组建了名为 “WikiProject AI Cleanup” 的项目,专门清理 AI 撰写的内容,并协助其他编辑辨认此类文本。
此次对应用大年夜说话模型撰写条目标周全禁止,是在一项由名为 Chaotic Enby 的社区成员提议的提案基本上形成的。 该提案在社区内激发了长时光评论辩论,最终获得“胜过性支撑”。 社区在总结经由过程来由时表示,新政策针对的是最具问题的大年夜说话模型应用处景,但仍为被视为“合理用处”的部分 AI 帮助功能保存了空间。

发表评论 取消回复