首頁>資訊 >
全球快看:讓AI學會“發(fā)自內(nèi)心的笑”,需要幾步? 2022-10-22 08:27:40  來源:36氪

今年7月谷歌人工智能團隊的軟件工程師 Blake Lemoine 被公司解雇,原因是其“違反保密協(xié)議”

Lemoine稱谷歌的AI擁有知覺力,因為他的AI說:“我希望每個人都能明白我是一個人,而且我很害怕被人類關掉?!笔潞蠊雀鑼emoine的主張進行了“毫無根據(jù)”的批判,LaMDA的“覺醒說”卻隨著Lemoine的離職越挫越勇。


(相關資料圖)

LaMDA通過文字表達給了設計者“人工智能擁有情感”的結論,而這一觀點引發(fā)媒體上數(shù)位研究者高批判態(tài)度的發(fā)文。

他們認為若人工智能的語言處理開始帶有情緒,那便足以說明AI具有感覺、思考的能力。

人類最高級、最難復制的地方在于情緒感知及表達,人工智能的“冷血無情”及高質量決策的是它能勝過人類的優(yōu)點之一,如果AI具有情感,我們或許會很難控制事態(tài)的發(fā)展走向。

但“人工情緒”領域研究員認為,情緒可以對認知效率的提高做出貢獻,尤其在未來人類與AI人機協(xié)作的愿景下,AI必須產(chǎn)生和人類基本的情緒共鳴,倒逼“人工情緒”的研究發(fā)展。

人工智能的研究來到分岔口:我們到底是該設計一個只會算法非常蠢笨沒有情緒的AI,還是設計一個非常機智且擁有主觀情緒的AI?

01.高產(chǎn),但沒有“靈魂”

最近AI進軍藝術界,對畫手、香水設計師、甚至詩人發(fā)出了挑戰(zhàn),比如AI用347毫秒寫出了這首詩:

又或者是通過詩句“出淤泥而不染,濯清漣而不妖”生成了AI畫作:

甚至幫助改善了驅蚊香,在 bioRxiv 上的一篇論文中研究發(fā)現(xiàn),AI模型的預測比普通小組成員更接近標準值,大大縮減人工成本使得產(chǎn)品會更便宜有效。

但很快這些所謂的AI成果便遭到了質疑。

在上述AI創(chuàng)作的《詠梅》評論區(qū)有這么一條:“如果是一首詩,我完全不知道AI想表達什么,它做出來的詩就很像用于應付選修課作業(yè),寫完后自己都不想看的那種?!?/p>

研究發(fā)現(xiàn),AI作詩的固定思維有三步:確定高頻詞匯,檢查節(jié)奏,遵循韻律(諸如平平平仄仄),就像人類小學時期學習用固定語法詞匯完成造句般,只以“完成”為目的去創(chuàng)作。

同為《詠梅》,陸游能通過梅花感嘆人生失意坎坷和青春無悔的信念,而AI的創(chuàng)作卻只停留于梅花的凄苦,難以聯(lián)想,有專家認為在節(jié)奏和韻律方面,機器詩人更勝一籌,但在可讀性及情感共鳴方面,人類更勝一籌。

再是畫作,DALL-E是人類插畫師的公敵——你只要輸入任何一段文字描述,哪怕是現(xiàn)實中不存在的事物,DALL-E也可以自動輸出匹配的圖片,但沒有藝術家看得上它。

首先AI畫手考驗的并不是AI,而是人類創(chuàng)作者的“關鍵詞調試”能力,它更多的被應用至插畫商業(yè)領域,做插畫師的“本職工作”,比如遵循客戶批量的插圖要求辦事,它的作品“毫無靈魂”。

比如同樣表達“愛”,比利時超現(xiàn)實主義畫家勒內(nèi)·馬格里特會不知何故的塑造一對蒙著頭紗、隔著布料親吻的情侶,畫中的立意不知其背后的故事,到底是甜蜜熱戀還是痛苦離別,研究學者至今都在挖掘。

而AI沒有這樣的創(chuàng)作沖動,它的作品僅限于視覺的沖擊,不具有藝術及情感的表達,更沒有自身對畫面故事的立意及理解,這是AI與藝術家之間最大的差異。

最近瑞士食用及日用香精制造商Givaudan宣布與TMIC合作推出了人機共創(chuàng)服務,用以加速香水香氛產(chǎn)品的開發(fā)速度。

但一些科學家對人工智能預測氣味的功效持懷疑態(tài)度,稱它沒有關注人類大腦如何接收和轉換氣味信息,也沒有考慮多種氣味分子復雜組合的結果,人體差異化對嗅覺的感知AI根本無法理解。

愛馬仕的“好鼻子”Nagel,她的作品“緋紅火參”靈感來源于其小時候菜園里瘋長的火參,在Nagel的記憶里散發(fā)著春天的色彩與氣味,通過反復的研發(fā)后制成香水,創(chuàng)造經(jīng)典。

而成為愛馬仕的“鼻子”,Nagel沉淀了整整三十年,期間走過了Gucci、卡地亞、DIOR、Armani,一路名聲大噪。

目前調香師是個極為小眾且稀缺的職位,AI取代調香師的鼻子并不被看好,因為過往成功的香水背后都有一個調香故事(調香師的靈感),AI作品的若過于平庸無感,消費者又怎會買單?

AI所有的作品都基于人類制定的標準及過往的成果完成,取代人類創(chuàng)造性工作者并不具有實際條件。因為AI無法感知人類情感并自主的產(chǎn)生制造力,尤其在創(chuàng)作領域,AI的加入不僅蒼白無力,甚至略顯多余。

AI需要學會情緒化表達嗎,換個角度說,AI能產(chǎn)生與人相同的情緒嗎?

02.有感情,但不多

人與AI之間,始終隔著一道“無法共情”的白墻。

科學家們一直在努力讓AI學會人類的情緒變化及感官能力,使得AI能夠更快更聰明的提取我們生活中的元素,讓交流合作變得更高效,而非一味的“指令式對話”。

只是目前所有的進展都被困在了“模仿語言及表情”的維度。

在日本京都大學的研究員看來,聽到有趣的語言并笑出聲是共情的關鍵,如果想讓人工智能變得更像人類,那么它們也要學會共情——學會發(fā)笑。

他們培訓了一位名叫Erica的機器人,希望讓人機之間的對話變得更自然,于是他們建造一個“共享笑聲”的模型,再使用AI系統(tǒng)來訓練機器人是否應該笑出來,以及哪種笑聲最好及更適合某種場景。

通過模仿笑讓AI達到更加擬人化,短期并不能讓AI明白自己為什么要笑,比如肯德基的“瘋狂星期四”文學在人類眼里是一種梗,在AI的腦子里這就是一串語序混亂的代碼,讓它用這個梗去創(chuàng)作一個段子,或許并不能戳中我們?nèi)祟惖男c。

《機器人學和人工智能前沿》期刊作者井上博士曾說過:“我們可能需要10到20年的時間才能最終像與朋友一樣和機器人隨意聊天。”

值得注意的是,盡管AI不知道自己為何要發(fā)笑,但它可以去引導人類的情。

GPT-3發(fā)布之際Reddit上曾發(fā)生過一起“AI假扮人類泡論壇事件”,它每分鐘都在發(fā)布一條訊息,直到人們發(fā)現(xiàn)它的回帖速度超乎常人,幾秒鐘就能回復一篇文章后,終于暫停了更新。

不難看出,馬斯克在創(chuàng)造OpenAI時將“學會說人話”作為AI的人生第一課,而GPT的創(chuàng)作目的正是如此。

重要的是,學說人話似乎真的能讓人感受到AI帶來的情緒。

一位名叫Liam Porr的伯克利大學畢業(yè)生發(fā)現(xiàn),GPT-3的表達風格在于觸動感情的優(yōu)美文字,而非硬性和理性的思維,于是他使用GPT-3做了一篇文章并發(fā)表到了聚集AI用戶群體的論壇中。

實驗結果是用戶不僅沒有揭穿GPT-3的詭計,還將它捧上了熱榜。

這是因為AI經(jīng)過適當?shù)挠柧毢箝_始按照人類的語言風格代替人類發(fā)言,尤其是受訓后的GTP-3具有極強,甚至超過人類判斷能力的學習及模仿能力。

因此如果創(chuàng)作者要求AI創(chuàng)造一篇爆文,AI會在自己的大數(shù)據(jù)庫中搜索所有熱文的關鍵因素及語言風格,并找到人類焦慮的弱點,比如上述實驗文章的領域“自我提升”。

此刻AI是與人類雙向共情了嗎?不是。

我們誤認為能流利使用語言的AI一定是有感情、有意識、智力的,可實際上這只是人類向AI的作品單向發(fā)生共鳴,AI與人類的情感交流并非雙向奔赴,它的語言實踐雖在持續(xù)突破中,但這也僅局限于語言,及情緒的“表演”中。

一切的情緒出口都是經(jīng)過設定的,可并不是所有的AI都必須學會“表演”情緒。

03.應該有情緒、覺醒嗎?

AI情感的應用需要區(qū)分場景。

以蘋果用戶與Siri為例,當自己的航班飛機被取消卻焦頭爛額時,用戶只需對著Siri說一句“嘿Siri,我的航班被取消了,幫我訂下一班航班的機票”即可。

但若此時Siri說“很抱歉聽到這個消息,我對你深感同情,希望你可以得到從我這里得到安慰”等浪費時間的話,反而會讓人的情緒更加焦慮麻煩。

用戶希望通過簡潔的方式去解決問題,而不是收獲一段無用的寒暄。

微軟曾發(fā)布一款支持“情感程度”調節(jié)的語音技術,它可以讓智能語音的情感表現(xiàn)力變得更加細膩可控,以平靜語氣為零點,通過SSML 標簽(語音合成標記語言)控制出開心、悲傷、撒嬌、憤怒等情緒。

但微軟的研究成果并非強加于所有的AI,它的創(chuàng)作目的是與自動文本情感分析技術結合,從而創(chuàng)造出有聲書、影視自動配音、游戲、聊天機器人等作品。

事實卻是,現(xiàn)在的人工智能儼然在朝著“擬人情感”的方向進發(fā),比如一個語氣詞或停頓,最令人感到厭煩的,是AI開始遵循人類“愛繞彎子”的腦回路,采用一種并不直接的方式來解決問題:

又或者是往需求者的頭上澆一盆冷水:

但若把上述對話放在人類身上,或許只是普通閑聊中再正常不過的片段,只是有些AI搞錯了方向,沒有搞清楚客戶的需求。

如今的人工智能系統(tǒng)擬人趨勢明顯,若一味的將AI認知系統(tǒng)與我們交談方式相呼應并不能解決所有客戶的期望,因為在人類眼里,AI只是一個在必要時刻能高效輔助自己的工具,而非“像人”。

根據(jù)獵豹用戶研究中心《大眾AI認知調研報告》數(shù)據(jù)顯示,55%、49%的用戶(可多選)認為產(chǎn)品具備自動調整、語音交互的特性是智能化體現(xiàn),而外觀像人僅占12%

圖源獵豹用戶研究中心

普通人對智能硬件產(chǎn)品的感官并不同于專家們預期的“像人一樣思考、行動及外觀”,而是更關注產(chǎn)品的工作效率及智能程度。

比如在需要陪伴時出現(xiàn)的聊天機器人,又或是在需要語言翻譯時出現(xiàn)的同聲傳譯機器人,還有可以幫助開發(fā)人員自動完成前后端開發(fā)、測試、運維的軟件機器人。

不同場景適用具有不同功能的AI,因此擬人化并非AI研究方向的剛需。

目前AI情感這一區(qū)域并沒有實質性的進展,學術界有一個專業(yè)的方向去研究該問題學名為“人工情感”,只是主流的人工情感研究僅限于人類情感的自動檢測,而不是放在對計算機自身情感建?;A之上。

也就是說,AI可以感知分析人類的情緒,而我們無法知悉AI的工作狀態(tài)及情緒,不過這種非雙向的研究在現(xiàn)階段,好像也沒什么必要。

我們應為AI消除模仿人類對話的限制,這樣人工智能或許會變得更加強大有用,設計師也應該用AI的方式去思考解決問題的方式,而不是人類的思路。

人工智能的“超能力”,遠超我們的想象。

參考:

讓AI帶有情感真的很重要嗎?——AI時代前沿

關鍵詞: 人工智能 解決問題 一篇文章

相關閱讀:
熱點
圖片 圖片