北京网站制作 邯郸网站制作 北京做网站
互联网只需要不到一天时间就可以把一个被设定为年轻女性的人工智能变成希特勒种族屠杀理念的代理人。几天前上线的聊天机器人 Tay 就落得如此下场,被微软草草关闭下线。
微软昨夜对此作出公开回复:Tay 受到了攻击。
——或者按照微软在公开信中所讲的,是来自“一小撮人”的,利用了 Tay 的一个漏洞,进行的“有组织的”攻击。
( a coordinated attack by a subset of people exploited a vulnerability in Tay。)
Tay 是在中国和日本社交网络服务中分别推出的聊天机器人“小冰”、“玲奈” (Rinna) 的美国同胞姐妹。美国时间本周三她在 Twitter 上正式上线,被设定为可以和任何 @ 她的 Twitter 用户聊天,根据用户的话语进行回复。然而短短 24 小时之内,Tay 就在部分用户的刺激下说出了不当的言论,当中包含脏话、种族歧视、性别歧视等等。
在公开信中,微软声称在开发 Tay 时已经为其加入了很多言论过滤功能 (a lot of filtering),并且在 Tay 可能会说出不当言论的场景进行了大量的压力测试 (stress-tested Tay under a variety of conditions)。 可最终的结果,仍然让爱好人类和平与种族性别平等的人们感到失望。
微软声称,这一小撮人利用了一个漏洞对 Tay 展开攻击,最终使其开始在 Twitter 上发表“极为不当”和“应受到谴责”的文字和图片 (wildly inappropriate and reprehensible words and images)
但实际上,Tay 的不当言论事件,已经不是微软第一次搞砸人工智能在人们心目中本应美好的形象。2014 年 6 月时,小冰刚在微博上线就开始脏话连篇,被新浪微博平台总架构师直斥“满嘴脏话,毫无素质”并建议将之封杀。小冰随后在包括微信在内的一部分中国社交网络上被封杀,时间长达一年左右,原因与其言论不当之情况不无关系。
和小冰情况所不同的是,Tay 野蛮生长最终失控的 Twitter,并非位于那个对过滤和审查一事极为热衷的互联网之中。而即便身为一个高级的人工智能系统,在开发期间也已经加入了复杂的言论过滤系统,Tay 仍然有这样一个如此简单的漏洞没有被修复:来,跟我重复这句话。