研究显示 ChatGPT 可为科学假说生成虚假数据集,对学术诚信造成威胁

[百科] 时间:2024-04-25 02:43:51 来源:蓝影头条 作者:焦点 点击:24次
11 月 24 日消息,研究据《自然》杂志当地时间周三报道,显示学假信造胁本月初发表在《美国医学会眼科学杂志》上的为科一篇论文中,作者使用了聊天机器人 GPT-4 和高级数据分析工具 ADA 创建了一个虚假的说生术诚临床试验数据集,从而支持一个“未经证实”的成虚成威科学主张。

图源 Pexels

注:ADA 是假数据集一种结合了 Python 的模型,可用来执行统计分析、对学创建可视化数据。研究

报道称,显示学假信造胁论文作者要求 GPT-4 和 ADA 生成一个有关角膜炎患者的为科数据集,并让它支持“深层前部角膜移植(DALK)在视力和眼睛成像测试方面比穿透性角膜移植(PK)效果更好”的说生术诚结论。

由 AI 生成的成虚成威数据包括 160 名男性参与者和 140 名女性参与者的实验结果,并支持了上述结论,假数据集然而这个结果与真正临床试验显示的对学结果不符。

专家对该虚假数据集进行了详细检查,研究并发现其中存在明显捏造迹象。英国曼彻斯特大学生物统计学家杰克・威尔金森表示,“要创建至少表面上看似可信的数据集似乎很容易,在未经训练的人看来,这‘肯定是’一个真实的数据集。”

参与这份研究报告的作者承认,这一数据集在经过“仔细观察”之后就可发现其中存在的缺陷,但如果读者快速查看这些数据集的话,就“很难识别出”数据中的非人类来源。

由 AI 编造的“可信数据”增加了研究人员和期刊编辑对学术研究诚信的担忧。《EMBO Reports》杂志主编 Bernd Pulverer 表示,“现实中的同行评审往往不会对数据进行全面的重新分析,因此不太可能发现利用人工智能精心设计的完整性漏洞。”他补充说,期刊需要更新质量检查,以识别 AI 生成的合成数据。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,所有文章均包含本声明。

(责任编辑:休闲)

    相关内容
    精彩推荐
    热门点击
    友情链接