GPT-4 竟成 Nature 审稿人?斯坦福清华校友近 5000 篇论文实测,超 50% 结果和人类评审一致

[休闲] 时间:2024-04-28 11:11:10 来源:蓝影头条 作者:综合 点击:167次
【新智元导读】斯坦福学者发现,竟结果GPT-4 对于 Nature、成N测超ICLR 的审斯坦审论文给出的审稿意见,竟然和人类审稿人有超过 50% 的稿人相似性。看来让大模型来帮我们审论文,福清并不是华校和人天方夜谭啊。

GPT-4,友近已经成功晋身审稿人!篇论

最近,文实来自斯坦福大学等机构的类评研究者把数千篇来自 Nature、ICLR 等的竟结果顶会文章丢给了 GPT-4,让它生成评审意见、成N测超修改建议,审斯坦审然后和人类审稿人给出的稿人意见相比较。

论文地址:https://arxiv.org/ abs / 2310.01783

结果,福清GPT-4 不仅完美胜任了这项工作,甚至比人类做得还好!

在它给出的意见中,超 50% 和至少一名人类审稿人一致。

并且超过 82.4% 的作者表示,GPT-4 给出的意见相当有帮助。

论文作者 James Zou 总结道:我们仍然需要高质量的人工反馈,但 LLM 可以帮助作者在正式的同行评审之前,改进自己的论文初稿。

GPT-4 给你的意见,可能比人类都好

所以,怎样让 LLM 给你审稿呢?

非常简单,只要从论文 PDF 中提取出文本,喂给 GPT-4,它就立刻生成反馈了。

具体来说,我们要对一个 PDF 提取、解析论文的标题、摘要、图形、表格标题、主要文本。

然后告诉 GPT-4,你需要遵循业内顶尖的期刊会议的审稿反馈形式,包括四个部分 —— 成果是否重要、是否新颖,论文被接受的理由,论文被拒的理由,改进建议。

从下图可以看到,GPT-4 给出了非常有建设性的意见,反馈包括四部分。

这篇论文有什么缺陷?

GPT-4 一针见血地指出:虽然论文提及了模态差距现象,但并没有提出缩小差距的方法,也没有证明这样做的好处。

研究者对 3,096 篇 Nature 系列论文和 1,709 篇 ICLR 论文的人类反馈和 LLM 反馈进行了对比。

两阶段评论匹配管线会分别提取出 LLM 和人类反馈中的评论点,然后执行语义文本匹配,来匹配 LLM 和人类反馈之间的共同评论点。

下图就是一个具体的两阶段评论匹配管线。

对于每条配对评论,相似度评级都会给出理由。

研究者将相似度阈值设为 7,弱匹配的评论就会被过滤掉。

在 Nature 和 ICLR 两个数据集中,论文和人类评论的平均 token 长度分别如下。

这项研究有美国 110 个 AI 机构和计算生物学机构的 308 名研究员参与。

每位研究者都上传了自己撰写的论文,看了 LLM 的反馈,然后填写了自己对于 LLM 反馈的评价和感受。

结果显示,研究者普遍认为,跟人类评审的结果相比,LLM 生成的反馈与之有很大的重叠,通常很有帮助。

如果说有什么缺点的话,就是在具体性上稍差一些。

如下图所示,对于提交给 Nature 的论文,大约三分之一(30.85%) 的 GPT-4 意见与人类审稿人意见重合。

在 ICLR 论文中,超过三分之一(39.23%) 的 GPT-4 意见与人类审稿人意见重合。

LLM 与人类审稿人,偏重略有不同

以下是对同一篇 ICLR 论文的 LLM 评论和人类评论,可以看出,LLM 的眼光很毒辣,评论很一针见血。

比如与先前研究的对比上,人类审稿员表示:

比较是有缺陷的。尤其是 GNN 方法的标签一致性和中心一致性损失都没有考虑到。更公平的比较应该是使用两种损失都考虑到的 GNN 方法。

而 GPT-4 的评价是:

论文缺乏与现有方法的彻底的比较。虽然作者对于一些方法比较了基线,但还需要更全面的比较。

在理论可靠性上,人类审稿人给出了这样的意见 ——

恕我直言,理论的证明太琐碎了。最终结论是如果相似度合适,预测的动作就是准确的。由于模型正在学习正确的相似度,也就相当于说模型 h 如果经过良好的训练,输出就是正确的。这是显然的事。

而 GPT-4 的意见是:

作者应该提供更多理论分析,来比较信息传递和一致性约束之间的联系,这样能让读者更易于理解。

在研究的可复现性上,人类审稿员希望论文能够提供代码,好让其他读者也能复现实验。

GPT-4 对此也给出了相同意见:「作者应该提供有关实验设置的更多详细信息,来确保研究的可复现性。」

参与调查的用户普遍认为,LLM 的反馈可以帮助提高评审的准确性,减少人类评审员的工作量。而且大多数用户打算再次使用 LLM 反馈系统。

有趣的是,相比人类审稿人,LLM 审稿员有自己独有的特点。

比如,它提及影响因子的频率,是人类审稿人的 7.27 倍。

人类审稿人会更可能要求补充额外的消融实验 ablation experiments,而 LLM 则会注重于要求在更多的数据集上进行实验。

网友们纷纷表示:这项工作很了不起!

也有人说,其实我早就这么干了,我一直在用各种 LLM 帮我总结和改进论文。

有人问,所以 GPT 评审会不会为了迎合如今的同行评审标准,让自己有偏见呢?

也有人提出,量化 GPT 和人类评审意见的重合,这个指标有用吗?

要知道,在理想情况下,审稿人不应该有太多重合意见,选择他们的原意是让他们提供不同的观点。

不过至少,这项研究让我们知道,LLM 确实可以用作改论文神器了。

三步,让 LLM 给你审稿

1. 创建一个 PDF 解析服务器并在后台运行:

conda env create -f conda_environment.yml

conda activate ScienceBeam

python -m sciencebeam_parser.service.server --port=8080  # Make sure this is running in the background

2. 创建并运行 LLM 反馈服务器:

conda create -n llm python=3.10

conda activate llm

pip install -r requirements.txt

cat YOUR_OPENAI_API_KEY > key.txt  # Replace YOUR_OPENAI_API_KEY with your OpenAI API key starting with "sk-"

python main.py

3. 打开网页浏览器并上传你的论文:

打开 http://0.0.0.0:7799 并上传论文,就可以在大约 120 秒内得到 LLM 生成的反馈。

作者介绍

Weixin Liang(梁伟欣)

Weixin Liang 是斯坦福大学计算机科学系的博士生,以及斯坦福人工智能实验室(SAIL)的成员,由 James Zou 教授的指导。

在此之前,他在斯坦福大学获得电子工程硕士学位,师从 James Zou 教授和 Zhou Yu 教授;在浙江大学获得计算机科学学士学位,师从 Kai Bu 教授和 Mingli Song 教授。

他曾在亚马逊 Alexa AI、苹果和腾讯进行过实习,并曾与 Daniel Jurafsky 教授、Daniel A. McFarland 教授和 Serena Yeung 教授合作过。

Yuhui Zhang

Yuhui Zhang 是斯坦福大学计算机科学系的博士生,由 Serena Yeung 教授的指导。

他的研究方向是构建多模态人工智能系统和开发从多模态信息中获益的创意应用。

在此之前,他在清华大学和斯坦福大学完成了本科和硕士学业,并与 James Zou 教授、Chris Manning 教授、Jure Leskovec 教授等出色的研究人员合作过。

Hancheng Cao(曹瀚成)

Hancheng Cao 是斯坦福大学计算机科学系六年级的博士生(辅修管理科学与工程专业),同时也是斯坦福大学 NLP 小组和人机交互小组的成员,由 Dan McFarland 教授和 Michael Bernstein 教授指导。

他于 2018 年以优异成绩获得清华大学电子工程系学士学位。

2015 年起,他在清华大学担任研究助理,导师为李勇教授和 Vassilis Kostakos 教授(墨尔本大学)。2016 年秋,他在马里兰大学杰出大学教授 Hanan Samet 教授的指导下工作。2017 年夏,他作为交换生和研究助理在麻省理工学院媒体实验室人类动力学小组工作,由 Alex 'Sandy' Pentland 教授 Xiaowen Dong 教授指导。

他的研究兴趣涉及计算社会科学、社会计算和数据科学。

参考资料:

https://arxiv.org/abs/2310.01783

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,所有文章均包含本声明。

(责任编辑:时尚)

    相关内容
    精彩推荐
    热门点击
    友情链接