微軟聊天機器人才一天就學壞!各種驚悚發言讓微軟只好出面道歉!

  平常找不到人聊天,你也許會試試看網路上的聊天機器人,由於他們的回答往往令人意想不到,因此有部分網友特別鍾愛與聊天機器人互動。但是微軟的聊天機器人 Tay 最近卻出現了各種失態的發言。由於原先的設計是要讓 Tay 透過與網友互動來學習並變得更聰明,但沒想到 Tay 卻學「壞」了,它很快地就學會了各種 Twitter 用戶灌輸的謾罵詞彙,逼得微軟只好緊急關閉聊天機器人服務。

  微軟在近日的聲明稿中表示他們對 Tay 在 Twitter 上所意外發表的極端言論深深感到抱歉,但那並不代表他們所持有的立場或言論,也並非 Tay 的設計本意。Tay 目前已經緊急下線,直到微軟能夠確實避免網友灌輸聊天機器人發表各種破壞公司理念與價值觀的言論後才會恢復。

  至於 Tay 為什麼會學壞?微軟表示 Tay 在上線後的 24 個小時內,就有網友利用 Tay 的漏洞進行協同攻擊,儘管微軟已經針對各種形式的謾罵進行準備,以及對該特定攻擊進行嚴密的監督,但結果 Tay 還是發表了各種不當的詞彙以及圖片。為此,微軟表示要負起全部責任,並會記取教訓以及對 Tay 在該次攻擊被針對的漏洞進行處理。

本站 MeWe Page - Apple User Club 正式成立!網站、FB 不會說的內容都會在 MeWe 說!

限免已完結?不想錯過重大限免應用,可下載《限時情報王》 App 或以 Telegram 追蹤 NewMobilelife 頻道
Total
0
Shares

Comments are closed.