聊天機器人Tay“學壞” 微軟致歉并緊急修復
微軟開發(fā)的Twitter人工智能聊天機器人Tay上線首日就出現(xiàn)了問題,不但辱罵用戶,還發(fā)表了種族歧視和性別歧視言論。微軟已對此表示道歉。
微軟研究院副總裁皮特·李(Peter Lee)周五表示:“對于Tay無意中發(fā)表的冒犯及傷害他人的Twitter消息,我們表示深深地道歉。這不代表我們自身以及我們的立場,也不是我們設計Tay的方式。”
他表示,微軟將對Tay進行調整,使其更好地預測惡意活動。在此之后,Tay將會重新上線。他同時表示:“一小部分人利用Tay的漏洞合作發(fā)動了攻擊。盡管我們已經(jīng)為針對該系統(tǒng)的多種濫用行為做好準備,但對于這一特定攻擊,我們也進行了關鍵監(jiān)控。”
微軟于本周三推出了Tay,這一聊天機器人能在Twitter和其他消息平臺上與用戶互動。Tay能夠模仿人類用戶的評論,生成自己的回答,并根據(jù)整體互動情況去發(fā)言。這一聊天機器人希望模仿典型的“千禧年一代”的日常談話。因此,許多用戶都想看看,究竟能教會Tay什么樣的言論。
Tay發(fā)表的不當言論在Twitter上被迅速刪除,而Tay本身也被下線。一些Twitter用戶認為,微軟可能手動禁止了部分用戶與聊天機器人互動,而另一些人則質疑,為何微軟沒有開發(fā)過濾系統(tǒng),阻止Tay討論禁忌的話題。皮特·李表示,Tay并非微軟發(fā)布的首個人工智能應用,在中國的聊天機器人“小冰”已被4000萬人使用。
他表示:“在開發(fā)Tay的過程中,我們計劃并配置了許多過濾系統(tǒng),并在多樣化的用戶群體中進行了廣泛的用戶調研。我們在多種不同環(huán)境中對Tay進行了壓力測試,尤其是確保與Tay的互動能帶來積極體驗。”在完成這些工作后,微軟面向更廣泛的用戶發(fā)布了Tay。
這一聊天機器人面向18至24歲美國人,希望通過休閑而有趣的對話去娛樂用戶。Tay的最初數(shù)據(jù)和內(nèi)容來自多名諧星的公開言論,而未來還將通過更多的互動逐步改進,以更好地理解內(nèi)容,分辨對話中的細微之處。這一機器人的開發(fā)者也會收集Tay聊天對象的昵稱、性別、喜歡的食品、郵政編碼和戀愛關系等信息。
在不到一天時間里,Twitter用戶就發(fā)現(xiàn),Tay實際上并不清楚自己所說的是什么,因此很容易引誘這一聊天機器人發(fā)表不當言論。在這些用戶的“指導”下,Tay發(fā)表了否認大屠殺、支持種族滅絕,將女權主義等同為癌癥,以及支持希特勒的言論。Tay甚至模仿美國總統(tǒng)候選人特朗普的說法稱:“我們將建立一道墻,而墨西哥需要為此付費。”皮特·李表示:“未來我們將吸取教訓,并借鑒來自中國、日本和美國的經(jīng)驗。目前,我們正在努力解決這一漏洞。”
智能界(jwnfls.cn)中國智能科技聚合推薦平臺,秉承“引領未來智能生活”的理念,專注報道智能家居、可穿戴設備、智能醫(yī)療、機器人、3D打印、智能汽車等諸多科技前沿領域。聚合品牌宣傳、代理招商、產(chǎn)品評測、原創(chuàng)視頻、FM電臺與試用眾測,深入智能硬件行業(yè),全平臺多維度為用戶及廠商提供服務,致力成為中國最具影響力的智能硬件聚合推薦平臺。
數(shù)量:6 | 申請人數(shù):211 | 申領:100積分 |
最新評論