斯坦福大学研究发现,AI 聊天机器人 ChatGPT 的表现很不稳定

[热点] 时间:2024-04-28 13:06:41 来源:蓝影头条 作者:休闲 点击:145次
9 月 7 日消息,斯坦斯坦福大学的学研现一项新研究发现,热门生成式人工智能(AI)聊天机器人 ChatGPT 的天机能力在几个月内有所波动。

斯坦福大学的器人团队评估了 ChatGPT 在几个月内如何处理不同的任务。他们发现,的定ChatGPT 的表现不稳能力随时间的推移而出现了不一致。目前,斯坦ChatGPT 有两个版本 —— 免费的学研现 GPT-3.5 模型和更智能、更快速的天机付费 GPT-4 版本。 研究人员发现,器人GPT-4 在 3 月份能够有效地解决数学问题,的定识别质数的表现不稳准确率为 97.6%。三个月后,斯坦其准确率下降到了 2.4%。学研现而另一方面,天机GPT-3.5 却变得更好,从 7.4% 的准确率提高到了 86.8%。

研究人员还注意到,在编写代码和视觉推理方面也有类似的波动。斯坦福大学计算机科学教授 James Zou 称:“当我们调整一个大型语言模型来提高它在某些任务上的表现时,那可能会有很多意想不到的后果,可能会损害这个模型在其他任务上的表现…… 这个模型回答问题的方式有各种各样的相互依赖性,这可能导致我们观察到的一些恶化行为。”

研究人员认为,结果并不能真正反映 ChatGPT 性能的准确性状态,而是显示了微调模型带来的意外后果。本质上,当修改模型的一部分来改善一个任务时,其他任务可能会受到影响。为什么会这样很难确定,因为没有人知道 ChatGPT 是如何运作的,而且它的代码也不是开源的。

随着时间的推移,研究人员注意到,ChatGPT 的回答不仅变得不太准确,而且还停止了解释其推理过程。

由于 ChatGPT 的运作方式,要研究和衡量它的表现可能很困难,这项研究强调了观察和评估驱动 ChatGPT 等工具的大型语言模型(LLM)性能变化的必要性。该研究已经在 arXiv 上发布,并正在等待同行评审,附链接在此。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,所有文章均包含本声明。

(责任编辑:时尚)

    相关内容
    精彩推荐
    热门点击
    友情链接