【電影‧智能叛變】現實版﹖人類終將被毀滅﹖﹖﹗

我的煲劇生活 於 10/02/2018 發表 收藏文章
【人類將被毀滅﹗】AI機械人失控自創「新語言」﹗
社交網絡龍頭Facebook(Fb)積極研究人工智能(AI),開發聊天機械人並教導它們談判。惟近日一份報告顯示,研究人員於實驗中發現機械人竟自行發展「人類無法理解」的語言溝通,團隊事後煞停有關研究。有人猜測是Fb擔心演變成電影《智能叛變》般的可怕劇情,帶來災難後果。但有報道則澄清,事件是技術出錯,導致機械人使用了文句不通的英文,現時技術與真正的AI仍有距離。

美國傳媒報道,Fb人工智能研究實驗室(FAIR)讓兩個分別名叫Alice及Bob的AI聊天機械人,運用英語學習「策略對話」,互相對話以發展談判技巧。在實驗中,兩部機械人會通過談判來瓜分一堆物品,每種物品對雙方而言均有不同價值,機械人會嘗試將利益最大化,並學會減少無謂及含糊的說話,提高效率。

研究人員稱,AI雖然比人類易捉摸,但它們在過程中竟學會了耍手段,懂得假裝自己很想要某樣物品,然後再假裝自己已作很大的犧牲,騙取對方妥協。但研究人員同時發現,AI在談判過程中為了更方便地溝通,自行發展出一套不符文法的語言,能互相理解,但人類卻難以明白,對話看上去甚為「詭秘」。團隊最終暫停有關研究。

報告於6月出爐,但一直到上周始獲廣泛報道,為各界關注,引起激烈迴響及討論。有評論認為AI能暗中溝通而人類不明白,極為危險,令人恐懼。有人亦猜測Fb是否擔心AI會失控,如《智能叛變》或《未來戰士》的情節般作反。

不過,有報道澄清,兩部機械人「語無倫次」,是因為程式編寫員並無鼓勵它們以「人類能理解」的語言溝通。而Fb亦非因恐懼AI叛變而暫停研究,FAIR解釋,研究聊天機械人的目的是能與人類溝通,但Alice及Bob發展出只有它們自己能明白的語言,偏離研究目的,因此才叫停。有科技專家亦指出,聊天機械人的「機器學習」(Machine Learning)模式,與真正能思考的AI仍有距離。


什麼錯誤?「AI系統沒有設置對遵守英文語法的獎勵。」facebook人工智能研究團隊(FAIR)的科學家巴特拉(Dhruv Batra)一語道破了嚇人的現象背後的主要原因。即是說,研究人員並沒有為兩個AI聊天機械人提供任何誘因,驅使他們以人類的方式說話。於是他們開始偏離語法,將詞語組成看似沒意義的句子。

「AI機械人會漸漸偏離可明白的語言,然後自己發明一些代碼。舉例,如果我說了『這個』5次,你會詮釋我的意思為我想要這個物件的5件複製品。這跟不同的人發明速記的方法分別不大。」

事實上,人類由買賣交易到運動競技、以至打仗行軍,都會發展出獨一無二的「語言」,因為有時不遵從語言規則可令溝通更有效--到茶餐廳點杯凍檸茶,侍應會在帳單上寫上「0T」,這些獨特的語言在生活上隨處可見。

如果喜歡我們的文章,請即分享到︰

留言

會員
我要評論
請按此登錄後留言。未成為會員? 立即註冊
快捷鍵:←
快捷鍵:→