菜单
你还未登录

预印本平台arXiv将对AI全权创作论文作者实施一年禁令

TechCrunch · AI科技 · 原文时间:2026-05-16 18:54:28 · 抓取:2026-05-16 19:55:01
综合评分 0/100 信号强度 0/100 相关性 0/100 可信度 0/100
摘要 / 我的正文
作为计算机科学和数学等领域广泛使用的开放预印本研究库,arXiv正加强对科学论文中大型语言模型(LLM)滥用的管控。尽管arXiv上的论文发布前未经同行评审,但其已成为科研成果传播的主要渠道之一,同时也是科研趋势数据的重要来源。此前,arXiv已采取措施应对日益增多的低质量AI生成论文,例如要求首次投稿者需获得资深作者的背书。此外,在康奈尔大学托管20余年后,arXiv正转型为独立非营利组织,以筹集更多资金解决AI生成内容质量等问题。arXiv计算机科学部门主席Thomas Dietterich于周四发布公告称,若投稿中存在“无可辩驳的证据”表明作者未检查LLM生成的结果(如“虚构参考文献”或与LLM的交互记录),则该论文作者将面临一年的arXiv禁令,解禁后后续投稿需先经知名同行评审期刊接受。此规定并非完全禁止使用LLM,而是要求作者对内容承担“全部责任”,无论内容如何生成。若研究人员直接复制粘贴LLM生成的不当语言、抄袭内容、有偏见内容、错误、不正确参考文献或误导性内容,仍需承担责任。Dietterich向404 Media表示,这一规则为“一击即中”,但需经审核人员标记问题并由部门主席确认证据后方可实施处罚,作者也可对此决定提出上诉。近期同行评审研究发现,生物医学研究中虚构引用呈上升趋势,这可能与LLM的使用有关,不过科学家并非唯一因AI生成虚构引用而被曝光的群体。
关键要点
一句话结论
(可由AI生成:一句话讲清这条新闻对你意味着什么)
可借鉴点
(可由AI生成:这条新闻能迁移到哪些业务/审查/写作场景)
证据锚点
(如:判决法院/案号/专利号/关键时间点)
后续跟踪
(如:上诉进展/和解条款/监管动作/同类案件)
证据与引用
原文链接:https://techcrunch.com/2026/05/16/research-repository-arxiv-will-ban-authors-for-a-year-if-they-let-ai-do-all-the-work/
来源:TechCrunch
原文时间:2026-05-16 18:54:28 抓取:2026-05-16 19:55:01
知识面板
分类
AI科技
来源
TechCrunch
原文时间
2026-05-16 18:54:28
抓取时间
2026-05-16 19:55:01

综合评分
0/100
信号强度
0/100
相关性
0/100
影响度
0/100
可信度
0/100