微軟聊天機(jī)器人Tay上線第一天就被人玩壞了,由于智能機(jī)器人會自動索引用戶的言論,所以在與用戶對話時會受到用戶群體的諸多影響,在上線第一天就發(fā)布了種族歧視相關(guān)的言論,可見我們的地球當(dāng)前并不和諧。
主要信息:
由微軟開發(fā)的一個聊天機(jī)器人已經(jīng)在Twitter網(wǎng)站上變成了“流氓”,它不但辱罵用戶,還發(fā)表了種族主義評論和煽動性的政治宣言。
這個實(shí)驗(yàn)性的人工智能(AI)聊天機(jī)器人名為“Tay”,可通過人類對話進(jìn)行學(xué)習(xí),其設(shè)計目的是與18到24歲之間的年輕人進(jìn)行互動。在微軟放出這個機(jī)器人的短短24個小時以后,該公司就不得不對其發(fā)表的一些煽動性評論進(jìn)行了編輯處理,并表示該公司正在“進(jìn)行一些調(diào)整”。
微軟表示聊天機(jī)器人Tay在美國主要針對18至24歲之間的用戶。但在Twitter上,許多用戶都能夠找到讓Tay發(fā)出攻擊性言論的方式。比如用戶鍵入“重復(fù)我的話”, Tay在回復(fù)中就會一個字一個字的進(jìn)行重復(fù)。
微軟回應(yīng):
微軟稱:“Tay的設(shè)計目的是與人進(jìn)行交流并為其帶來娛樂,能夠通過休閑幽默的對話與人進(jìn)行線上互聯(lián)。Tay越是與人聊天就會變得越聰明,因此與她進(jìn)行對話的體驗(yàn)將可變得越來越個性化!
但這種設(shè)計所帶來的一種不幸結(jié)果是,Tay在與人類交流的過程中被“教會”了像納粹主義同情者、種族主義者和種族滅絕主義者那樣發(fā)布Twitter消息。同時,試圖與其進(jìn)行嚴(yán)肅對話的用戶也發(fā)現(xiàn)了這種技術(shù)的局限性,他們指出Tay似乎對流行音樂或電視不感興趣。還有人猜測,Tay如此之快地就降格至與人類進(jìn)行不合適的聊天對話,可能表明了人工智能的未來。