原标题:微软聊天机器人“失言”遭下线:称9·11是布什干的(图)
参考消息网3月26日报道 英媒称,3月23日,美国微软公司发布了名为Tay的最新版本人工智能机器人。
英国《每日邮报》网站3月24日报道,这款产品面向的是18到24岁的青年人,其设计目的是提高该公司对网络上年轻人对话语言的了解。
但是,在Tay使用推特账户上线数小时后,推特用户就利用Tay算法上的缺陷,让这款人工智能聊天机器人对某些问题作出具有种族主义色彩的回答。这些具有攻击性的推文已被删除,Tay也被迫下线。
这个机器人还会说出类似这样的话:“9·11事件是布什干的,希特勒(如果在世)会比当今的这位猴子一样的政客干得好多了。”
微软公司的发言人说,公司正在做出调整以确保此类事件不会再发生。
微软公司的发言人对《每日邮报》网站表示:“Tay是一个机器学习项目,其设计目的是进行人际交往。随着学习过程的加深,‘她’会作出一些不恰当的反应,这正体现了某些人与之互动的内容。”
据美国“商业内幕”网站报道,这个机器人发表的具有侵犯性的言论包括,纳粹大屠杀是编造的、支持集中营和其他一些种族主义词汇等等。
导致这种情况出现的罪魁祸首是人们发送给这个机器人账户的某些推文。Tay的程序算法里没有纠错过滤器。
【延伸阅读】微软智能机器人网聊发表不妥言论 被中止实验
中新网3月25日电 据日媒报道,美国IT巨头微软公司本月24日宣布,已中止通过在网上与一般人对话进行学习的人工智能机器人(AI)的实验。
据悉,该机器人被教会了一些不合适的对答,说出过“希特勒没有错”等不妥言论。
微软开发的这款AI名叫“Tay”,23日在社交网络上出现。由于它在网聊对话过程中多次发出歧视性言论,公司24日中止了实验。
对此,微软宣传部门负责人说明称将纠正AI的错误。据悉在纠错后将重启实验。
责任编辑:张淳 SN182