在科学出版的象牙塔内,一场悄无声息的变革正在瓦解传统的守门机制。长期以来,同行评审被视为确保科学严谨性的“黄金标准”,依赖于领域内专家耗费数小时甚至数天的时间,对同行的手稿进行细致入微的评估。然而,瑞士出版巨头Frontiers最新发布的一项调查数据揭开了学术界一个日益公开的秘密:如今,超过半数的研究人员正在使用人工智能辅助同行评审,且这一比例正在迅速攀升。面对这一既成事实,“禁止使用”的传统禁令显得苍白无力,学术界正被迫在一个充满算法辅助的新现实中重新校准其道德指南针。
影子评审员的崛起
这并非零星的个案,而是一场系统性的行为转移。Frontiers对来自111个国家的约1600名学者进行的调查显示,超过50%的受访者承认在同行评审过程中使用过AI工具。更令人玩味的是,近四分之一的受访者表示,在过去一年中,他们使用AI的频率显著增加。这一数据不仅证实了学术界流传已久的猜测,更标志着ChatGPT等大型语言模型(LLM)已经深度嵌入科研工作的核心流程。
具体来看,AI在评审过程中的角色已经从单纯的语言润色演变为实质性的内容评估。调查发现,在这些“AI辅助评审员”中,有59%的人使用工具来撰写评审报告的草稿,29%的人依靠AI来总结长篇大论的手稿、寻找逻辑漏洞甚至核对参考文献的准确性。甚至有28%的受访者利用AI的模式识别能力来标记潜在的学术不端行为,如抄袭或图像造假。
这种趋势的背后是科研人员面临的巨大压力。随着全球论文发表数量呈指数级增长,审稿邀请如雪片般飞来,而审稿本身往往是一项无偿的义务劳动。在这种“不发表就出局”的高压环境下,能够快速提炼要点、润色语言甚至生成初稿的AI工具,自然成为了许多学者难以抗拒的诱惑。正如西北大学范伯格医学院的研究伦理专家穆罕默德·侯赛尼所言,这项调查不仅仅是一个统计数据,它是对当前学术生态中AI接受度的一次真实测温。




