听说学术圈里有人开始用AI来看论文了,编辑部真的就保不住这一块了吗?2月24日,《中国药房》编辑部就曝光了个事儿,说有些审稿专家直接把AI拿出来代劳审稿。这个平台的保密性到底怎么样,没人知道,所以如果随便就用了,很可能既不能保证论文质量,还会把作者的原创成果给泄露出去。他们还要求,如果收到的稿件不是你熟悉的领域,要赶紧退回去说明原因;要是用了AI工具辅助审核,得把工具名和具体用法都交代清楚。 这个声明一下子就火了,因为大家还是头一回听说学术圈里居然允许AI帮忙看论文。前阵子大家还在吵能不能用AI写文章,现在连看文章都用上了,升级得也太快了!其实看论文本来就是AI最擅长的事。像梳理文献、检查逻辑、比对方法、核对引用这些机械的活儿,机器的优势太大了。 对于审稿人来说,AI能帮你快速找到明显的结构问题、统计错误或者表述漏洞。它还能提示和之前研究的相似之处。从理性角度看,它简直就是专门为审稿打造的工具。这种现象也不是中国独有的。斯坦福大学做过研究,分析了顶级AI会议的审稿意见,发现ChatGPT出现之后,同行评论里的AI含量暴涨到16.9%,之前大概只有2%。 这下学校那些禁止使用AI的声明听起来有点无奈。学生心里肯定在想:就算我不用AI写文章,老师也可能会用它来改文章。AI已经融入学术圈的生态里了。 不过AI的存在感变强是不是坏事?还得两说。真的是人的判断比机器强吗?人的表达一定比“带点机器味”的语言更有说服力?现在的大环境下,估计很多人心里都没底了。 虽然AI可能不太敢想敢做,但它在逻辑一致性和细节核查上确实更稳定、更靠谱。用AI来描述分子、研究细胞早就很普遍了。在这种情况下拒绝使用AI估计不太现实了,重要的是重新找到自己在学术中的位置。 比如实验数据全是AI算出来的,最后由谁来下结论?如果论文都是AI审核过的,最终的决定谁来做? 有时候人可能会觉得自己变成了AI的打工仔。名义上还是研究者和审稿人,其实就是给机器的结果盖个章。 但其实人在学术中的意义不是为了争口气,而是确保有价值的成果能出来。人是最后一道关卡,也是唯一需要对结果负责的环节。 在这个技术为王的时代我们没办法拒绝AI也没必要为此感到羞耻。就像《中国药房》说的那样:“如果用了外部AI工具辅助审核,请说明工具名和具体用途。”关键就是搞清楚怎么用。 论文保密不保密、结果怎么负责、哪些环节允许用AI都要清楚标出来。 只有当使用边界透明责任明确时AI才能真正变成辅助工具; 人也不会在AI面前不知所措既不神化它把判断权交出去也不妖魔化它凭空增加防备。