2026年5月14日,知名学术预印本平台arXiv宣布了一项重磅新政策:对于在论文中使用AI生成的虚假引用(hallucinated references)的作者,将实施为期一年的提交封禁。这一消息在学术界和AI社区引发了广泛讨论。
政策背景
随着ChatGPT、Claude等大语言模型在学术写作中的广泛使用,一个日益严重的问题浮出水面:AI模型在生成论文时,经常会”编造”看起来真实但实际不存在的参考文献。这些虚假引用包括不存在的论文标题、虚构的作者姓名,甚至伪造的DOI编号。
Oregon State University教授Thomas Dietterich在社交媒体上确认了这一消息,引发了超过490个HN社区讨论。arXiv作为全球最大的学术预印本平台,每天接收数千篇论文提交,虚假引用问题已经严重影响了学术文献的可信度。
新政策要点
- 封禁期限:首次违规将被禁止在arXiv上提交论文一年
- 适用范围:所有提交的论文,包括AI辅助写作的内容
- 检测方式:arXiv将使用自动化工具和人工审核相结合的方式检测虚假引用
- 责任归属:论文作者对所有引用的真实性负最终责任,不论是否使用了AI工具
对AI辅助写作的影响
这项政策并不意味着禁止使用AI辅助写作,但明确要求作者必须验证每一个引用的真实性。使用AI工具生成初稿后再人工核实引用的方式仍然被允许,但直接提交包含AI编造引用的论文将面临严厉处罚。
对于大量使用AI辅助研究的中国学术界来说,这一政策尤其值得关注。许多研究人员习惯让AI工具帮忙整理文献综述和参考文献列表,但如果不在提交前逐一核实,可能会面临封禁风险。
站长和开发者需要注意什么
虽然这项政策主要针对学术界,但对于技术博客作者和开发者社区也有重要启示:
- 技术文章引用同样需要核实:在撰写技术教程或产品评测时,引用的数据、版本号、API文档链接都需要人工验证
- AI生成内容的质量把关:如果你使用AI工具辅助写作,务必在发布前检查所有事实性信息
- 建立引用核实流程:建议在内容创作流程中加入”引用核实”环节,特别是涉及技术文档、开源项目链接、API端点等内容
学术界反应
学术社区对此政策反应不一。支持者认为这是维护学术诚信的必要措施,反对者则担心过度惩罚可能抑制AI辅助研究的合理使用。有学者指出,问题的根源在于AI模型的”幻觉”(hallucination)特性,单靠惩罚作者并不能从根本上解决问题。
不过,大多数学者认同一点:论文作者有责任确保引用的真实性,这与是否使用AI工具无关。arXiv的政策只是将这一责任以更明确的方式写入了规则。
实用建议
对于使用AI工具辅助写作的研究者和内容创作者,以下建议可以帮助避免虚假引用问题:
- 使用Google Scholar、Semantic Scholar等学术搜索引擎逐一验证每条引用
- 检查DOI编号是否真实可访问
- 不要信任AI生成的文献列表中的”看起来合理”的条目
- 建立引用管理工具(如Zotero、Mendeley)的工作流,从可靠来源导入引用
- 对于技术博客,确保所有GitHub链接、官方文档链接、版本号都是真实可访问的
本文参考来源:Thomas Dietterich 推文 | HN讨论
















暂无评论内容