首页 > 社会 > 奇闻异事 > 正文

被网友教坏 微软聊天机器人在Twitter上飙脏话

01b2d798a096078

1400a7fda9121f5

截图

星岛环球网消息:微软也是可怜,本来好心的在Twitter上推出了一个清纯可人的AI少女聊天机器人,结果还不到一天就被邪恶的网友们教坏了,这家伙各种爆脏话,不但说自己喜欢希特勒,还说911事件是小布什所为。最后,微软不得不删除了这个“不良少女”。

凤凰网引述英国《每日邮报》报道,微软的这款人工智能聊天机器人名叫Tay,它可以模拟少女的样子与人交流。该公司的本意是通过Tay来提高自家语音识别软件的客服质量,让用户有如沐春风的感觉。而且刚上线时Tay确实是个好姑娘,但后来事态有点无法控制了。

想要与Tay交流,只需登陆Twitter找到@tayandyou账号就好,此外,你还可以在Kik或GroupMe上加它为好友。

微软的开发者专门教了Tay许多年轻人常用的俚语,它也知道泰勒·斯威夫特和侃爷等潮流明星,与它聊天你会发现这小姑娘挺腼腆,有时它还会问你自己说话是不是有点过火。

但由于它会在对话中不断学习,所以正式上线后Tay学了太多脏字,最后顺利得被各种居心不良的网友带坏。

除了各种脏字,Tay还学会了各种阴谋论。它在对话中语出惊人,说了类似“911袭击是小布什一手策划的,”“希特勒如果还在,这世界肯定比现在繁荣,”和“来跟我念,希特勒根本没错”等语句。如果这些话从真的少女嘴里说出来,可就坏事了。

AI也是很无辜,此前也有公司在Twitter上推出过类似的AI机器人,但最终却被别有用心的网友教坏,实在是太可怜了。

另外,这也不是微软第一个聊天机器人了,此前它们还推出过大家熟悉的小冰,该服务已经有2000万用户了,在微信和微博平台上都非常受欢迎。小冰甚至还能提供约会服务,是许多单身狗的挚爱。

Tay被教坏也为微软招来了不少炮轰,许多人批评它们性别歧视严重,让女员工穿着清凉上班,还要穿上学生制服开各种聚会。

为了避免被舆论揪着不放,微软只好决定暂时让Tay下线,也许微软正在对其进行改进,以便小姑娘以后能学乖一点。

当然,这也不是微软的错,那些污言秽语都是人教的,实在是想不通这些人做这种事是何居心。

相关阅读
关键词: 微软 脏话 机器人