某院医生用 ChatGPT 在 4 个月内狂写 16 篇论文,其中 5 篇已发表

[娱乐] 时间:2024-04-20 07:31:51 来源:蓝影头条 作者:焦点 点击:10次
本文作者:吞吞

1 个月写 4 篇论文是某院什么体验?怕是茶饭不思、夜不能寐、医生用废寝忘食、个月夜以继日,内狂也不一定赶得出来。写篇

当科室里有位大佬,论文在 4 个月的其中时间里产出了 16 篇论文,让人真的篇已忍不住想问,「恁这是发表咋弄(nèng)的嘞?」

「无他,唯 ChatGPT 尔。某院」大佬缓缓张开手心,医生用但却不是个月想和你击掌,「已经发表了 5 篇。内狂」

自 ChatGPT 及其他人工智能工具问世以来,写篇就不断有学者尝试将其应用到学术领域。论文各大高校、顶刊也从一开始的明令禁止,到逐渐开放使用。

人工智能,会改变科研的「游戏规则」吗?

使用 ChatGPT,4 个月写了 16 篇论文

这位「高产」的医生名为 Som Biswas,是美国田纳西大学健康科学中心的一名放射科医生。

2022 年 11 月,Biswas 第一次从媒体上了解到 ChatGPT,当做研究的老本行遇上人工智能的新潮流,缘分从这一刻就开始了。「如果 ChatGPT 可以用来写故事和笑话,为什么不能用它来研究或发表严肃的文章呢?」[1]

图源:参考资料 2

说干就干,Biswas 尝试让 ChatGPT 编写了一些关于放射学医学写作的片段,这恰好是 Biswas 本就熟悉的领域。经过几次来回尝试,Biswas 在撰写每个段落前给 ChatGPT 一些指示,最终产出了一篇完整的论文。

今年 2 月,这篇论文被发表在 Radiology (IF= 29.146),题为 ChatGPT and the Future of Medical Writing。

Biswas 在这篇论文的前言部分中表示,「人工智能已经有与人类作家不相上下、甚至更胜一筹的水平,具有让医疗写作领域发生革命性变化的潜力。」[2]

从那时起,ChatGPT 似乎给 Biswas 打开了一扇新世界的大门,从 1 月到 5 月,四个月时间里,Biswas 已经用 ChatGPT 编写了至少 16 篇论文,其中 5 篇发表在 4 种不同期刊上。[1]

今年 4 月,他在 Pediatric Radiology 上发表了一篇关于 ChatGPT 应用的文章,通过举例展示了 ChatGPT 能够给出平均有效辐射剂量、CT 参数等信息,且能够根据临床实际情况进行调整。[3]

论文截图

Biswas 也从不避讳,在提交论文时都会声明该文章是由 ChatGPT 全部或部分撰写的,他本人的观点及讨论则会标注来自「人类作者」。一位期刊审稿人表示,许多论文作者即使借助了人工智能的帮助也并不会承认,「至少 Biswas 承认了自己在使用 ChatGPT,我们应该给他相应的认可。」[4]

不过,尝到甜头的 Biswas 渐渐开始「跨界」,论文主题不再局限于放射科。他承认,自己使用 ChatGPT 编写了有关军事、教育、农业、社交媒体、保险、法律和微生物学等领域的论文,其中部分也得到了发表,包括一篇关于计算机编程的论文,以及关于全球变暖和公共卫生的两封致编辑的信。[4]

顶刊解除禁令,但「硬伤」无法忽视

Biswas 并不是唯一一个利用 ChatGPT 实现论文高效率写作的人。Nature 一篇报道中,两位科学家借助人工智能工具 ChatGPT,在不到一个小时的时间内完成了数据收集、编写数据分析代码、解释结果、并生成一篇完整论文[5]。

不过,随之而来的一项担忧是,不少使用者都发现 ChatGPT 存在虚构内容、参考文献的行为。

一项研究审查了 ChatGPT 生成的放射学文章(与已发表或正在同行评审中的文章进行对比),经过两名放射科医生独立分析,发现 5 篇文章中有 4 篇内容明显不准确,且引用了虚构的文献;另一篇论文质量较好,介绍和讨论部分完成度都非常高,然而所有的参考文献都是虚构的。该研究作者在文中警告称,这些虚构的内容「对没有经验的读者来说可能看起来是真实的」。[6]

论文截图

另一方面,「高产」也让人担心期刊的投稿会被大量低质量的文章淹没[5]Annals of Biomedical Engineering 期刊的主编表示,自 ChatGPT 被应用以来,投稿数量指数上升,「给编辑的信」从以往几乎为零,到现在每周两三封,「但有时 10 篇内容都长得一模一样,只是改了几个用词。」[4]

不过,学界对 ChatGPT 的态度似乎正在放松。

今年 3 月,牛津、剑桥、布里斯托、爱丁堡等 8 所罗素大学成员宣布禁止使用 ChatGPT。但 7 月,牛津大学、剑桥大学、伯明翰大学等 24 所英国顶尖高校组成的罗素大学集团又宣布解除 ChatGPT 使用禁令,并推出了详细的使用原则,支持和规范学生和研究人员使用生成式 AI。

图源:罗素大学集团网站截图

同样地,今年 1 月,Science 系列期刊曾在编辑政策中明确规定,论文中不得包含任何 AI 工具生成的文本、数字和图像,AI 程序也不能被列为作者,违反相关政策的行为等同于篡改图像和剽窃等学术不端。

而当地时间 11 月 16 日,Science 系列期刊发布新的编辑政策:对于论文中的图像和文本,只要在「方法」部分按要求披露,即可使用生成式人工智能(AI)和大语言模型。

图源:Science 网站截图

在学术领域,ChatGPT 的应用可能也不止于撰稿。

还是那位高产的 Biswas 医生,今年九月,他又在 Yale Journal of Biology and Medicine 发表了一篇使用 ChatGPT 进行同行评审的可行性研究。

对比 ChatGPT 生成的评论以及人工评论,该研究认为,ChatGPT 具备能够提升审稿效率、确保审稿标准一致性等优势,但同时 ChatGPT 可能难以深入理解高度专业化的主题,不具备充分评估复杂研究结果的科学有效性或准确性的专业知识,目前也无法审查图像数据。

11 月 8 日, 预印本平台 bioRxiv 宣布了一试点项目,使用名为 large language models(LLMs)的文本生成神经网络来给出网站上所有新预印本的概述,针对从一般到专家的不同阅读水平创建了三个简短的摘要。

bioRxiv 联合创始人表示,如果该试点成为一项成熟的服务,bioRxiv 可能会考虑定期让作者参与内容的校对和批准[9]。目前,为了尽量减少错误带来的后果,该项目尚未推广到 medRxiv。

策划:yuu.|监制:carollero、gyouza

题图来源:视觉中国

(责任编辑:综合)

    相关内容
    精彩推荐
    热门点击
    友情链接