如今,论文的学术学术作者已经坦白承认他们使用聊天机器人来起草文章,成为了生成式AI对学术界的界的较量界最新示例,引发了学术伦理问题。人使IOP Publishing的撰写同行评审和研究诚信主管Kim Eggleton表示:“这违反了我们的伦理政策。”
2015年以来,论文Cabanac一直致力于揭示其他未公开声明用人工智能技术的学术学术已发表论文,当时AI技术还只是界的较量界一种好奇。随着计算机能够生成更加逼真、人使类似人类的撰写作品,这一斗争变得更加艰巨。论文但这仅加强了Cabanac的决心,他已经帮助揭示了数百份由AI生成的手稿。
一些小心掩盖痕迹的作者不会留下明显的线索,但幸运的是,像Cabanac这样的侦探仍然可以找到很多迹象。他最近还揭发了另一篇发表在《Resources Policy》期刊上的论文,其中包含了几个明显的痕迹。该期刊表示已经“意识到了这个问题”,并正在调查此事件。
此外,AI模型经常会混淆事实,并且可能太愚蠢,无法准确地复述科学论文中涉及的数学和技术术语,就像《Resources Policy》的研究中包含的毫无意义的方程式一样。
ChatGPT还可能会凭空制造虚假主张,这种现象或许过于宽容地被描述为“幻觉”。一个丹麦教授最近发现,一篇预印论文部分由AI生成,因为它引用了他名下不存在的论文。
考虑到同行评审过程的严格性,AI制作的伪造论文竟然能够过关,这实在令人震惊。
(责任编辑:时尚)