【中关村在线软件资讯】3月28日消息:作为微软在语义分析方面的人工智能实验产品Tay最近在美国遭到了网友的抵制,原因是该产品刚上线不久就被“网友”调教得满口脏话。
Tay是微软在美国推出的类似于“小冰”的聊天机器人,该产品在Twitter上提供与网友聊天的服务,可以根据网友的话语进行回复,并具备学习功能。
不过正是这个学习功能让美国网友彻底把Tay给带坏了,在短短24小时之内,Tay就在部分用户的教唆下满嘴跑火车起来,各种脏话、种族歧视、性别歧视言论层出不穷。
Tay
对此微软表示,有部分黑客利用一个漏洞对Tay进行了攻击,最终使其开始在Twitter上发表“极为不当”和“应受到谴责”的文字和图片。
实际上这种类型的人工智能产品很容易受到这方面的困扰,因为人工智能本身没有是非判断,人们教什么就学什么,最终就成了这样。当然随着技术的进步,这个问题也在逐渐解决。