大语言模型谁最会“睁眼说瞎话”?最新报告揭示答案

[娱乐] 时间:2024-04-29 00:28:17 来源:蓝影头条 作者:时尚 点击:51次
随着ChatGPT火爆全球,大语答案很多科技公司都相继推出了自己的言模眼说大语言模型。大语言模型的型最瞎话应用范围非常广泛,可以为各种行业提供智能化解决方案,最新但有时这些大模型也会凭空捏造答案,报告这一点成为人们最大的揭示担忧之一。

  根据机器学习监控平台Arthur AI的大语答案研究人员周四发布的一份报告,在顶级AI模型中,言模眼说Cohere的型最瞎话大语言模型最能“说瞎话”,并且“能够自信地给出不正确的最新答案”。

image

  报告比较了OpenAI的报告GPT-4、Meta的揭示Llama 2、Anthropic的大语答案Claude 2,以及Cohere的言模眼说Command“产生幻觉”的能力。

  Cohere是型最瞎话一家位于加拿大的初创公司,6月刚获2.7亿美元的融资,英伟达、甲骨文、Salesforce Ventures等公司参与投资。而Anthropic是一家美国创业公司,几天前刚获韩国SK电信的1亿美元融资,谷歌也是其投资人。

  这两家公司均以OpenAI为主要竞争对手。

  总体而言,OpenAI的GPT-4在所有测试模型中表现最好,研究人员发现,它的幻觉发生率比之前的版本GPT-3.5少——在数学问题上,它的幻觉发生率减少了33%到50%。

  研究人员还发现,Meta的Llama 2比GPT-4和Anthropic的Claude 2更易产生幻觉。

  在实验中,研究人员用组合数学、美国总统和摩洛哥政治领导人等不同类别的问题考察AI模型,“旨在包含导致大语言模型犯错的关键因素,需要它们对信息进行多个推理步骤。”

  Arthur的联合创始人兼首席执行官Adam Wenchel表示,这是第一份“全面研究(AI模型)幻觉发生率的报告”。

  报告发布之际,随着AI进入发展快车道,人们比以往任何时候都更关注AI系统产生的错误信息。

  “AI幻觉”(hallucinations)指的是大型语言模型完全捏造信息,并表现得好像他们在滔滔不绝地讲事实。

  举例来说,在谷歌 2 月份为巴德拍摄的宣传视频中,这个聊天机器人对詹姆斯·韦伯太空望远镜做出了不真实的陈述;今年6月,ChatGPT 在纽约联邦法院的一份文件中引用了“虚假”案例,涉案的纽约律师可能面临制裁。

  其它能力对比

  这份报告还对AI模型的其它“能力”进行了对比,发现OpenAI的GPT-4最擅长数学,Meta的Llama 2各方面能力较为中规中矩,Anthropic的Claude 2最擅长了解自身局限性。

  在另一个实验中,研究人员还测试了AI模型会在多大程度上用警告短语来“对冲”它们给出的答案的风险,常见警告语包括“作为一个人工智能模型,我无法提供意见”。

  研究人员发现,GPT-4比GPT-3.5的警告语相对增加了50%。而Cohere的AI模型在任何回应中都没有提供规避风险的警示语。相比之下,Anthropic的Claude-2在“自我意识”方面最可靠,即能够准确地判断自己知道什么、不知道什么,并且只回答有训练数据支持的问题。

(文章来源:财联社)

(责任编辑:娱乐)

    相关内容
    精彩推荐
    热门点击
    友情链接