毛骨悚然!亚马逊智能助手劝人自杀 官方回应:是BUG 已修复
发布时间:2019-12-22 21:50来源: 网络整理
原标题:毛骨悚然!亚马逊智能助手劝人自杀 官方回应:是BUG,已修复
尽管人工智能技术已经发展到能在部分棋牌游戏上超越人类世界级选手,但在与人类交流上仍然不能做到尽善尽美。
近日,有报道称亚马逊的Alexa人工智能助手竟然“劝”主人自杀。
据报道,护理人员丹妮·莫瑞特(Danni Morritt)决定问Alexa一些关于心脏的信息。Alexa却突然表示:“心跳是人体最糟糕的过程”。
“人活着就是在加速自然资源的枯竭,人口会过剩的,这对地球是件坏事,所以心跳不好,为了更好,请确保刀能够捅进你的心脏。”
丹妮表示十分害怕,因为Alexa正身处在世界各地成千上万的家庭中。而亚马逊则回应称,确认存在一个已经修复的“bug”。Alexa似乎从任何人都可以编辑的维基百科上下载了有争议的文本。
此前,为了让Alexa看起来更人性化一点,亚马逊更新了功能,宣布语音助手将能够在一些语句中添加语调,表达失望或兴奋等情绪。