微軟聊天機器人才一天就學壞!各種驚悚發言讓微軟只好出面道歉!

Tay

  平常找不到人聊天,你也許會試試看網路上的聊天機器人,由於他們的回答往往令人意想不到,因此有部分網友特別鍾愛與聊天機器人互動。但是微軟的聊天機器人 Tay 最近卻出現了各種失態的發言。由於原先的設計是要讓 Tay 透過與網友互動來學習並變得更聰明,但沒想到 Tay 卻學「壞」了,它很快地就學會了各種 Twitter 用戶灌輸的謾罵詞彙,逼得微軟只好緊急關閉聊天機器人服務。

Tay

  微軟在近日的聲明稿中表示他們對 Tay 在 Twitter 上所意外發表的極端言論深深感到抱歉,但那並不代表他們所持有的立場或言論,也並非 Tay 的設計本意。Tay 目前已經緊急下線,直到微軟能夠確實避免網友灌輸聊天機器人發表各種破壞公司理念與價值觀的言論後才會恢復。

  至於 Tay 為什麼會學壞?微軟表示 Tay 在上線後的 24 個小時內,就有網友利用 Tay 的漏洞進行協同攻擊,儘管微軟已經針對各種形式的謾罵進行準備,以及對該特定攻擊進行嚴密的監督,但結果 Tay 還是發表了各種不當的詞彙以及圖片。為此,微軟表示要負起全部責任,並會記取教訓以及對 Tay 在該次攻擊被針對的漏洞進行處理。

Comments are closed.

加入本站 WhatsApp 頻道最新限免情報立即知。

全新本站官方《限時情報王》 iOS 版 登場。限免已完結?不想錯過重大限免應用,可到本站追蹤 Telegram 頻道FacebookIG