欢迎来到资讯世界!

智能助手劝人自杀 官宣:是BUG,已修复

科技 2019-12-23 11:53102未知admin

但是在我们体验这些AI时,却忽略了他的一个安全隐私问题,毕竟这些人工智能助手权力巨大,联网搜索,联网操控家里的一切设备,或许带来的是一个亟待解决的“棘手问题”。

这部近日国外一位网友虽然没有用小爱,小度和siri,但是其在询问智能助手时候却得到了一个让人“毛骨悚然”的答案。

近日,多家外媒报道称,一位使用亚马逊语音助手Alexa的用户Danni Morritt,在询问心动周期的问题时,竟然得到了如下答案:

“心跳是人体最糟糕的过程。人活着就是在加速自然资源的枯竭,人口会过剩的,这对地球是件坏事,所以心跳不好,为了更好,请确保刀能够捅进你的心脏。”

这一回答吓坏了Danni,表示十分害怕,因为Alexa正身处在世界各地成千上万的家庭中。她警告身边的人Alexa有严重的安全缺陷,并担心孩子们可能会遭受暴力或图像内容的伤害。Danni表示:“Alexa真的非常残酷,它竟然告诉我要刺入心脏,这太暴力了。我只是为自己的课程学习一些知识,结果被告知要自杀。我简直不敢相信。我被吓坏了。”

笔者认为,AI的发展是趋势,当然了任何新事物的诞生,其潜在的危险,潜在的社会问题可能不会当下立现,而我们要做的就是直面问题,然后去解决它,让其真正的为人类社会提供服务,这样才能让科技为生活增光异彩,让科技改变生活,劝人向善!

丹妮表示十分害怕,因为Alexa正身处在世界各地成千上万的家庭中。而亚马逊则回应称,确认存在一个已经修复的“bug”。Alexa似乎从任何人都可以编辑的维基百科上下载了有争议的文本。

尽管Danni在网络中公开指出了这一问题,但仍有人怀疑是她篡改了该设备。很快,亚马逊回应称,确认存在一个已经修复的bug。Alexa可能从任何人都可以编辑的维基百科上下载了有恶意性质的文本。

在此之前,Alexa还出现过很多所谓的bug。比如,Alexa时常发出瘆人的笑声,还拒听用户指令。“那笑声根本不是Alexa的声音,听起来就像是真人。”

再比如,美国的一对夫妇,发现自己的对话被音箱录音,并且发送给了其他人。对此亚马逊给出的解释是可能用户的谈话中出现了某些指令的关键词,被Alexa识别到了。

实际上,语音助手监听用户说话声音在行业内已经并不是秘密。今年4月,彭博社报道称,亚马逊员工正监听用户与语音助手的私人聊天,对此亚马逊承认了监听的事实,并回应称是为了提高对人类语音的理解能力。

实际上,此前为了让Alexa看起来更人性化一点,亚马逊更新了功能,宣布语音助手将能够在一些语句中添加语调,表达失望或兴奋等情绪。

麦北新闻网 返回麦北网首页>>
本文所有观点来源于网络,不代表“麦北新闻网”立场,文字本站自编,转载请注明出处:http://www.csmbw.com/kj/3745.html

麦北新闻网 Copyright © 20019-2020 版权所有 LARGEMS Power by DedeCms 备案号:xxxxxxxxx号