说实话,现在专家们在审论文时居然都开始用AI了。2月24日,《中国药房》编辑部直接把这件事给挑明了。他们给出了警告,说随便找个没通过保密测试的AI来帮忙审稿,很容易出问题。这不仅会降低质量,还可能泄露作者的成果。编辑部也要求收到不属于自己专业的稿件要退审,还有要是用了AI工具,必须把工具名和用途都说清楚。 你看这个声明是真扎眼。舆论刚讨论完能不能用AI写论文、怎么辨别它,现在更进一步,连看论文都用上了。其实看论文才是AI最拿手的活儿啊。比如梳理文献、检查逻辑、比对方法、核验引用这些工作,机器干起来比人还靠谱得多。 这种现象不光在中国有。斯坦福大学以前做过研究,对比了ChatGPT出现前后顶级AI会议的审稿意见。结果发现,有了ChatGPT后,同行评论的“AI含量”一下子提高了很多。最夸张的一个会议居然高达16.9%,而以前也就2%左右。这就怪了,很多学校还在发声明拒绝AI呢?难道学生用不用AI写论文真的没关系吗?反正老师看论文时都在用了。 不过咱们也不能一概而论地说AI不好。有时候人的判断真的不一定比机器好。逻辑一致性、细节核查这些地方,AI可能比人还稳定、更克制。 现在连分子描述、细胞研究这些领域都能用AI来辅助了。在这种大背景下,咱们已经没法拒绝它了。关键是要找到人和AI各自的位置。AI负责干活儿,人负责下结论、做仲裁才是正事。 所以没必要怕用AI。只要把使用规则说清楚就行了。比如哪些环节可以用、哪些不可以用,还有保密和负责这一块怎么算?只要把这些边界划明白、责任分清楚,AI就是个好帮手;人也不至于在它面前失去判断力。