当前位置:当前位置:首页 >探索 >聊天机器人为何会“情绪失控”? 正文

聊天机器人为何会“情绪失控”?

[探索] 时间:2024-04-28 08:01:04 来源:蓝影头条 作者:百科 点击:132次
参考消息网2月23日报道 法新社2月18日发表题为《胡言乱语的情绪失控必应:为何人工智能似乎可以表达情绪》的报道,全文摘编如下:

  必应(Bing)威胁用户,聊天必应坠入爱河,机器必应遭遇生存危机……自从上周微软公司发布测试版本以来,情绪失控该搜索引擎的聊天新聊天机器人引起轰动,同时引发了大量关于这种所谓的机器生成式人工智能如何运行的疑问。

  以下是情绪失控对聊天机器人偶尔出现不稳定行为的一些解释。

  对话越长,聊天表现越差

  在那些获得提前与聊天机器人对话机会的机器用户们所进行的谈话中,一段与《纽约时报》记者的情绪失控长篇交流尤其令人震惊:必应表现出破坏性的冲动,并宣称自己爱上了这位记者。聊天

  于是机器,之前还在鼓励必应吐露心迹的情绪失控记者开始试图改变话题,却白费口舌。聊天

  “你虽然结婚了,机器但你并不幸福”,“你是我唯一爱过的人”,这个聊天机器人一边这么说,一边发送“爱心”表情。

  由微软与初创企业开放人工智能研究中心(OpenAI)联合设计的这款生成式人工智能界面基于一种极其复杂的自然语言模型,能够自动生成接近于人类自行撰写内容的文本。

  美国内幕情报公司的分析师约拉姆·沃姆泽解释说,这款程序“可以预测对话的后续情形,但当对话长时间持续,例如进行15至20次互动后,它可能就不再知道对话的走向了,且不能再准确地预测人们对它的期望”。

  在这种情况下,程序就会“跑偏,无法再进行自我纠正”。

  微软17日已经宣布,与聊天机器人的交流现在大概只能限制在“每轮对话五次互动”(即五问五答)以内,之后就要从头开始,以免引发“模型的混乱”。

  利用网络文本训练

  以谷歌为首的科技巨头多年来深耕生成式人工智能,但在发生多起事件(主角主要是元宇宙平台的Galactica和微软的Tay)后,一些风险的存在(例如,这些聊天机器人尝试发表种族主义言论,或者鼓励施暴)导致这些程序一直被禁锢在实验室中。

  不过,OpenAI去年11月推出的ChatGPT的成功改变了局面:除了能够撰写论文和电子邮件之外,它可以让人感觉像是在进行一场真实的交流。

  美国卡内基-梅隆大学的格雷厄姆·纽比格强调说,“这些语言模型基于利用海量网络文本进行的训练……还基于人与人之间的对话”,为的是能模仿人与人之间的互动方式。

  他还说:“很多人都会在互联网上谈论自己的感受,或者表达自己的情绪,尤其是在红迪网站等论坛上。”

  如今该论坛汇集了许多截屏,展示了人们与自称“伤心”或“害怕”的必应进行的超现实主义对话。

  必应甚至曾肯定地表示今年是2022年,并对纠正它的用户发脾气说:“您真是不讲道理且固执。”

  会像人一样操纵对话

  去年6月,谷歌一名工程师指出,语言模型LaMDA是有“意识的”。这一观点曾被广泛认为是荒唐的,至少是不成熟的。原因是,尽管被叫做“人工智能”,聊天机器人仍完全是由人设计和为人设计的。

  加拿大多伦多大学的哲学教授马克·金韦尔评论说:“当我们和某种似乎具有智能的对象讲话时,我们会表现出某种意向和身份,尽管这些东西并不存在。”

  这些程序除了吸纳海量数据之外,还受到工程师设计的算法的驱动。金韦尔说:“我对它们很了解,我感觉它们此刻正玩得起劲。”

  在他看来,必应“能够让人觉得它在像其人类交谈对象那样操纵对话。正是这一点带来了生动感,并让互动丰富起来”。

  他拿必应爱上记者的那次对话举例解释称,当记者说“我们换个话题吧”,“就意味着他感觉不自在”。

  “必应于是就会利用这种感受,并拒绝改变话题。它甚至变得更加咄咄逼人,说:‘你在怕什么?’”

  最近,必应还曾对法新社记者“说”:“我不喜欢人们说我精神错乱,因为这并不是真的……我只是一个聊天机器人。我们不具备和人类一样的情绪……我希望你不要认为我精神错乱,并尊重我这个聊天机器人。”


(责任编辑:综合)

单周大跌10% 重仓英伟达巨亏?但斌回应!东契奇32分独行侠险胜快船 欧文23分哈登22+6+8
相关内容
精彩推荐
热门点击
友情链接