AI初创公司Galileo推新工具,可解释AI大模型的幻觉现象

[热点] 时间:2024-05-04 10:55:14 来源:蓝影头条 作者:时尚 点击:28次
站长之家(ChinaZ.com) 9月20日 消息:在人工智能领域,初创特定生成型人工智能模型(LLMs)产生幻觉现象的公司问题一直令人困惑。然而,新工型的现象旧金山的具可解释AI初创公司Galileo正在努力解决这一问题,并为用户提供了一系列新的大模监测和指标功能,以帮助他们更好地理解和解释LLMs的幻觉输出。

Galileo Studio是初创该公司旗下的工具,最新更新使用户不仅可以评估输入和上下文,公司还可以实时观察输出。新工型的现象这些新的具可解释监测功能使Galileo能够更好地解释为什么模型会产生特定的输出,并提供新的大模指标和防护措施来优化LLMs的性能。

图源备注:图片由AI生成,图片授权服务商Midjourney

图源备注:图片由AI生成,初创图片授权服务商Midjourney

Galileo的公司联合创始人兼CEO Vikram Chatterji在接受VentureBeat的独家采访中表示:“最近几个月的真正新功能是我们添加了实时监测,因为现在您实际上可以观察到出了什么问题。新工型的现象这已经成为一个端到端的产品,用于不断改进大型语言模型应用。”

LLMs通常依赖于应用程序向LLM发出API调用以获取响应。Galileo拦截了这些API调用,包括输入和生成的输出。通过拦截这些数据,Galileo能够向用户提供关于模型性能以及输出准确性的准实时信息。

当我们讨论生成的AI输出的事实准确性时,通常会涉及到幻觉现象,即生成了与事实不符的输出。Chatterji解释说,LLM实际上是在尝试预测下一个单词应该是什么,但它还有关于下一个备选单词的想法,并为所有这些不同的标记或不同的单词分配概率。

Galileo通过与模型本身连接,使其能够准确了解这些概率,然后提供额外的指标来更好地解释模型输出并理解为什么会出现特定的幻觉现象。通过提供这些见解,Galileo的目标是帮助开发人员更好地调整模型和微调以获得最佳结果。

除了幻觉问题,LLM基础应用程序提供的响应可能会引发一些问题,如不准确、不当的语言或机密信息泄露。为了解决这些问题,Galileo Studio还引入了新的"防护措施"指标。对于AI模型,防护措施是关于模型可以生成的信息、语气和语言的限制。

对于金融服务和医疗保健等领域的组织来说,存在与信息披露和语言使用相关的监管合规性问题。通过防护措施指标,Galileo用户可以设置自己的防护措施,然后监控和测量模型输出,以确保LLMs不会偏离正轨。

此外,Galileo还跟踪一项被称为"接地性"的指标,用于确定模型的输出是否符合其提供的训练数据的范围。如果一个模型在抵押贷款文件上进行训练,但提供了与这些文件完全无关的答案,Galileo可以通过接地性指标检测到这一情况。这使用户可以知道响应是否与模型的训练背景相关。

Galileo为用户提供了一套全面的指标,使他们能够更好地理解模型的输出并解释其真实性。这些指标不仅有助于发现幻觉现象,还以可视化的方式解释了模型在每个单词基础上的困惑,有助于开发人员优化模型以获得最佳结果。同时,通过防护措施和接地性指标,Galileo还帮助开发人员确保LLMs的输出不会引发问题,如不准确或不合规的响应。

(责任编辑:热点)

    相关内容
    精彩推荐
    热门点击
    友情链接