2017年9月20日 星期三

Facebook 讓機械人學會談判


為了讓 AI 聊天機械Chatbots更加人性化,Facebook 最近嘗試讓機械人互相溝通來學會協商,結果機械人不成功學會談判,甚至還懂得虛張聲勢來達到目標,實驗途中更一度出現意外發展,發現機械人開發出非人類的獨特語言對話,研究人員不得不暫停實驗來修改程式

從晚餐選擇到買東西價,生活中總是充滿溝通與協商,當對目標有不同想法時,人們已經習慣運用談判技巧來達成某種程度的妥協,但由於牽涉到複雜的溝通與推理技巧,過去電腦系統並不具備類似功能。

就像是手機的語音助手 Siri Alexa 一樣,現有聊天機械人可與人類進行短暫對話,並且執行預餐廳、查詢天氣等簡單事情,但要和人進行有意義的對話非常具挑戰性,因為這需要 AI 把對話理解對世界的知識結合,然後想辦法創造出句子來幫助實現目標

Facebook 人工智研究實驗室(FAIR)為了讓聊天機械人學會談判技巧,讓兩名機械人各擁有相同數量的 3 種物品,它們是書、帽子、球,但每種物品對兩個機械人的價值都不同,在不能說出價值的情況下,機械人必須透過討價還價來達到自己可得到的最高價值

研究人員在設計時,特別確保不會有對雙方都是最好交易的情況發生,並且規定要在十輪對話中達到目標。在這樣的過程中,聊天機械人逐漸學會制定長期計,並能在溝通中評估對話者的心理來建構模型,進而運用對話來達成目標

讓兩個聊天機械人自由對話訓練協商功能的過程中,FAIR 意外發現,機械人透過機械學習(Machine Learning)改善談判技巧時,逐漸開發出機械獨有、非人類(non-human)的語言在溝通,研究人員隨後立即調整模型,避免這樣的情況再度出現

除此之外團隊也發現,在有效達成目標的前提下,機械人發展出虛張聲勢的技巧,也就是人們經常使用的談判策略,最初先假裝對沒有價值的東西感興趣,後續在協商中透過犧牲它來達成妥協,而這項行為,研究人員並沒有編碼在其中

在實驗後期階段,FAIR 讓聊天機械人透過聊天室與人進行類似談判對話,這是以往多數實驗盡力避免的,因為聊天機械人的模型總是難以應對各種人性化語言。但有趣的是,在這項實驗中,多數人並沒有意識到他們聊天的對象不是一個人,而是機械,顯示 FAIR 機械人已確實做到人性化溝通

FAIR 最近完成了這項研究,並公開了源代碼及研究內容,研究人員表示,這項技術創造出能推理、對話甚至談判的機械人,這是打造人性化數助理的重要一步

沒有留言:

張貼留言