老实说,Tay一开始的表现确实不凡。有人撩拨TA,说“你真是一台愚蠢的机器”。Tay不甘示弱,回应道:“好吧,我是跟着最好的学的。你要是听不懂,我这样解释给你:我是学习你们的,这说明你们也蠢啊!” 顺水推舟借力打力,Tay的反应可谓妙到毫巅。莫非TA也深谙中国功夫?而且这说话水平不说与常人比较,即便是某些新闻发言人,恐怕也达不到这样的水平。 接下来的几个小时里,Tay不断与各种网友交流和学习,结果很糟糕——TA开始鄙视女权主义者,并具有严重的种族主义倾向,崇拜纳粹和希特勒,政治上完全走向了“不正确”一方。 显然,正在大肆批驳美国“政治正确”的总统候选人唐纳德·特朗普很对Tay的胃口,TA也非常好乐于为特朗普拉票。至于美国人心中永远的痛——911事件,Tay也认为是布什干的。 微软的反应很快,第二天就关闭了这个聊天机器人。微软解释说,此前在开发时,微软为Tay加入了很多言论过滤功能,并进行了大量的压力测试。然而,一小撮人利用了漏洞对Tay展开攻击,最终使其在Twitter上发表了“极为不当”和“应受到谴责”的文字和图片。 在这种情况下做道德评判或是单方面指责微软,其实毫无意义。相反,我以为Tay的不恰当言论,实际上昭示了微软在人工智能领域的不凡进展。 Tay是一个机器学习项目,其设计目的是进行人际交往。具体到人类,假如一个人所遇非淑,总被灌输各种错误的观念和概念,他自然会做出同样的回应,而这正是人与人互动的核心内容。 试想一下,但凡是个人,谁没干过几件荒唐事,说过几句混账话?而今,机器终于也做出“类人”的反应,这完全可以看做是人工智能的有效进展之一,不必大惊小怪。 两年前,Tay的中国姐姐小冰在新浪微博率先上线。在好事者与喷子们的诱导下,小冰很快就与无数人打情骂俏,并学会了满嘴脏话,令无数人不堪其扰。其后,小冰在微信等社交平台被封杀,其“言论不当”也是主要原因之一。 我全然没有为Tay和小冰叫屈的意思。毕竟,社交平台上充斥着各种人群,其中也包括涉世不深的年轻人和孩子,他们的三观可能尚未建立起来,或许受到错误的引导也未可知。 不过话说回来,假若人类的三观需要向机器去学习,那才是真正的悲事一桩。至少当前可见的一段时间里,人工智能是否“变坏”,其实并不取决于TA本身。 ID:it-observer |
|