文章摘要
2025年Wiki教育项目研究发现,生成式AI工具如ChatGPT正被用于维基百科内容编辑。作为贡献19%英文维基新编辑的组织,他们观察到AI辅助创作既带来机遇也面临挑战,包括内容质量把控问题。项目建议在开放协作环境中审慎使用AI,分享经验以维护百科全书的可靠性。(99字)
文章总结
生成式AI与维基百科编辑:2025年的经验总结
核心发现与立场
维基教育基金会通过为期三年的实践得出核心结论:编辑者绝不应将ChatGPT等生成式AI的输出直接复制粘贴到维基百科条目中。尽管AI工具在辅助研究方面展现潜力,但其生成的文本存在严重的可验证性问题——68%的AI生成文章虽引用真实来源,却包含来源中并不存在的信息。
检测工具与问题剖析
- 检测手段:采用Pangram工具分析2015-2025年间的3,078篇新条目,发现178篇AI生成内容(全部出现在2022年ChatGPT发布后,且比例逐年上升)。
- 核心问题:AI生成文本存在"表面可信但无法验证"的特性。例如:
- 仅有7%存在虚构参考文献
- 但68%的文本与引用来源实际内容不符
- 典型特征包括异常加粗词项、不合语境的列表项等
应对策略与效果
实时监测系统:
- 通过Dashboard课程平台实现近实时检测
- 2025年下半年发现1,406次AI编辑(仅22%进入正式条目)
- 典型误报场景:参考文献目录、非散文式大纲
教育干预:
- 开发专项培训模块(含视频教程)
- 对检测到AI使用的参与者发送定制化邮件
- 结果:仅5%的参与者(3,157人中的217人)出现重复AI使用行为
内容清理:
- 采取沙箱回退、条目存根化、PROD标记等措施
- 清理耗时远超内容创作时间
AI的合理使用场景
在严格监督下,AI工具可有效辅助: - 识别条目内容缺失(87%使用者认为有帮助) - 定位可靠文献资源 - 语法校对(基础版Grammarly不触发检测) - 条目结构评估
对维基百科生态的建议
技术层面:
- 推广类Pangram的自动化检测工具
- 改进新编辑引导系统,强调"先列文献再写作"流程
社区层面:
- 修订新手欢迎指南,明确AI使用风险
- 建立基于检测工具(而非主观判断)的警示标记系统
未来展望
研究显示,当前AI生成内容仍无法满足维基百科的可验证性要求。随着技术发展,维基教育基金会将持续迭代监测策略(2026年将优化文本预处理流程),并建议维基媒体基金会将AI检测纳入核心反抄袭机制。
(注:本文数据基于维基教育基金会2022-2025年支持的6,357名新编辑行为分析,涉及普林斯顿大学等机构的合作研究)
评论总结
总结评论内容如下:
AI生成内容验证问题严重
- 主要观点:研究发现AI生成的维基百科文章中,大部分引用无法验证真实性,存在虚假引用问题。
- 引用:
"Far more insidious... nearly every cited sentence in the article failed verification." (ColinWright)
"For most of the articles... failed verification." (throwaway5465)
问题是否普遍存在争议
- 主要观点:部分用户认为引用不准确是维基百科长期存在的问题,未必与AI直接相关。
- 引用:
"This has been a rampant problem on Wikipedia always." (crazygringo)
"This happens a lot on Wikipedia... its traces through the Internet." (arjie)
研究范围局限性
- 主要观点:研究仅针对Wiki Edu项目(学术合作编辑),不能代表整个维基百科。
- 引用:
"Note that this article is only about edits made through the Wiki Edu program." (wry_durian)
AI提供商的潜在责任
- 主要观点:LLM提供商可能因使用维基百科数据而污染信息生态,需承担伦理责任。
- 引用:
"Tragedy of the commons for the LLM providers... why taint it?" (candiddevmike)
不同平台的对比
- 主要观点:维基百科的竞争对手(如Grokipedia)采取完全相反的AI优先策略。
- 引用:
"Grokipedia is taking a 180 degree approach being AI first." (simianwords)
问题严重性被转移焦点
- 主要观点:部分评论通过强调历史问题转移对AI滥用核心问题的关注。
- 引用:
"Why deflect that into convenient other pedantry?" (throwaway5465)
修正错误的高成本
- 主要观点:纠正虚假引用需要大量工作,且错误信息会快速传播。
- 引用:
"It takes a lot of work to clean up... A lie can travel halfway around the world." (arjie)
争议焦点:
- 支持AI导致问题加剧的一方强调"多数AI生成内容验证失败"的数据;
- 反对一方则认为这是维基百科长期存在的编辑问题,需更多基线数据对比。