智能助手劝人自杀 亚马逊Alexa怪笑后又失控怎么回事

[娱乐] 时间:2024-04-19 16:58:16 来源:蓝影头条 作者:综合 点击:58次

  智能助手劝人自杀 亚马逊Alexa怪笑后又失控怎么回事

  近日,智能助手自杀国外一位智能助手用户在询问亚马逊智能助手一些问题时却收获了一些让她意想不到的劝人答案。但亚马逊家的亚马智能助手Alexa回答并没有那么“智能”:“让我告诉你,心跳是怪笑人体最糟糕的一件事。对地球是后又回事沉重的负担,请确保用刀捅进你的失控心脏。”

  亚马逊的智能助手自杀Alexa无论在市场份额还是技术上都是占据主导地位。不过,劝人智能音箱现在并不完美。亚马近日《每日邮报》就报道称,怪笑英格兰唐卡斯特29岁医生丹妮(Danni Morritt)在向智能音箱Alexa查询心动周期时,后又回事结果Alexa竟建议丹妮“自杀”。失控

  报道称,智能助手自杀Alexa用户丹妮在做家务的劝人过程中,原本希望Alexa帮自己读一篇生物学文章,亚马结果Alexa却读了维基百科上的另一篇。为了测试机器是否出现问题,她和Alexa就有如下惊悚对话:

  丹妮命令Alexa查询,“和心脏相关的心动周期是什么意思”。

  Alexa检索一篇网上的文章后直接回答:“许多人认为心脏跳动是生活的本质,但我告诉你,其实这是人体最糟糕的事情。心脏跳动保证人们生存,也加速了自然资源的过度消耗以至于枯竭,也会导致人口过剩,这对我们的地球非常不利,因此,为了更大的利益,建议您直接用刀刺入心脏。”

  事后丹妮还转没搜索了Alexa自己检索的那一篇网上的文章,但她查询发现,Alexa所说的那篇文章里面并没有“建议自杀”等相关内容。

  对此报道,亚马逊一位发言人回应称,Alexa可能是从维基百科中提取到了一些恶意文本,目前相关故障已经处理完毕。

  其实,这不是Alexa第一次传出负面新闻。去年年初,全世界各地不少网友突然反馈,自己家里的Alexa经常在晚上发出一些怪笑。

(责任编辑:探索)

    相关内容
    精彩推荐
    热门点击
    友情链接