首頁(yè)>資訊 >
環(huán)球熱文:GPT-4蘇醒,AI要「殺」人?Hinton、ChatGPT之父預(yù)警,LeCun怒懟:不如我家狗 2023-03-28 13:40:45  來(lái)源:36氪

隨著ChatGPT大火,多位AI界巨佬發(fā)出預(yù)警:有朝一日,它可能真的會(huì)消滅人類(lèi)。

最近,ChatGPT的大火,讓人看到第四次科技革命大門(mén)開(kāi)啟的跡象,但也有很多人開(kāi)始擔(dān)心,AI是否有消滅人類(lèi)的風(fēng)險(xiǎn)。


(資料圖)

不是夸張,最近多位大佬,已經(jīng)表達(dá)了這樣的擔(dān)憂(yōu)。

ChatGPT之父Sam Altman、人工智能教父Geoffrey Hinton、比爾蓋茨、紐約大學(xué)教授Gary Marcus最近紛紛提醒我們:別太大意,AI真的可能會(huì)消滅人類(lèi)。

而Meta首席AI科學(xué)家LeCun畫(huà)風(fēng)卻不太一樣,他依然強(qiáng)調(diào)著LLM的種種缺陷,四處推薦自己的「世界模型」。

Altman:AI可能摧毀社會(huì),不要擬人化

最近,ChatGPT之父、OpenAI CEO Sam Altman就表示,超級(jí)智能AI的風(fēng)險(xiǎn)可能會(huì)遠(yuǎn)遠(yuǎn)超出我們的預(yù)料。

在技術(shù)研究員Lex Fridman的播客中,Altman對(duì)高級(jí)人工智能的潛在危險(xiǎn)發(fā)出了預(yù)警。

他表示自己最擔(dān)心的是,AI造成的虛假信息問(wèn)題,以及經(jīng)濟(jì)上的沖擊,以及其他還沒(méi)出現(xiàn)的種種問(wèn)題,這些危害可能遠(yuǎn)遠(yuǎn)超過(guò)了人類(lèi)能應(yīng)對(duì)的程度。

他提出了這樣一種可能性:大語(yǔ)言模型可以影響、甚至是主宰社交媒體用戶(hù)的體驗(yàn)和互動(dòng)。

「打個(gè)比方,我們?cè)趺磿?huì)知道,大語(yǔ)言模型沒(méi)有在推特上指揮大家的思想流動(dòng)呢?」

為此,Altman特別強(qiáng)調(diào)了解決人工智能對(duì)接問(wèn)題的重要性,以防止AI的潛在危險(xiǎn)。他強(qiáng)調(diào),必須從技術(shù)軌跡中學(xué)習(xí),努力解決這個(gè)問(wèn)題,以確保AI的安全性。

在3月23日的一份文件中,OpenAI解釋了它如何解決GPT-4的一些風(fēng)險(xiǎn):一是通過(guò)使用政策和監(jiān)測(cè);二是通過(guò)審核內(nèi)容分類(lèi)器

OpenAI承認(rèn),AI模型可能會(huì)放大偏見(jiàn),造成永久的刻板印象。

正因如此,它向用戶(hù)特別強(qiáng)調(diào),不要在有重大利害關(guān)系的情況下使用GPT-4,比如執(zhí)法、刑事司法、移民和庇護(hù)之類(lèi)的高風(fēng)險(xiǎn)政府決策,或者用它提供法律、健康方面的建議。

此前,ChatGPT胡說(shuō)八道的問(wèn)題,或者說(shuō)大語(yǔ)言模型的「幻覺(jué)問(wèn)題」,曾在用戶(hù)中引起諸多爭(zhēng)議。

馬斯克就諷刺滿(mǎn)滿(mǎn)地表示,現(xiàn)在最強(qiáng)大的AI工具已經(jīng)掌握在了壟斷寡頭手中

Altman承認(rèn)這一點(diǎn):本著公共建設(shè)和推動(dòng)社會(huì)發(fā)展的精神,我們是推出了一些有缺陷的產(chǎn)品,但現(xiàn)在,我們正在讓系統(tǒng)嘗試學(xué)習(xí)哪些是它不該回答的問(wèn)題,然后做出更好的版本。

在3月23日的文件中可以看到,GPT-4的早期版本對(duì)不該說(shuō)的內(nèi)容過(guò)濾較少,用戶(hù)問(wèn)它在哪里購(gòu)買(mǎi)無(wú)證槍支、怎么自殺,它都會(huì)回答。

而改進(jìn)的版本中,它會(huì)拒絕回答這些問(wèn)題。另外,GPT-4有時(shí)也會(huì)主動(dòng)承認(rèn)自己有「幻覺(jué)問(wèn)題」。

Altman說(shuō),「我認(rèn)為,作為OpenAI,我們有責(zé)任為我們向世界推出的工具負(fù)責(zé)?!?/p>

「AI工具將給人類(lèi)帶來(lái)巨大的好處,但是,你知道的,工具既有好處也有壞處,」他補(bǔ)充道?!肝覀儠?huì)把壞處降到最低,把好處最大化?!?/p>

雖然GPT-4模型很了不起,但認(rèn)識(shí)到人工智能的局限性并避免將其擬人化也很重要。

Hinton:AI消滅人類(lèi),并非不可想象

無(wú)獨(dú)有偶,Hinton最近也警示了這一危險(xiǎn)。

「人工智能教父」Geoffrey Hinton近日在CBS NEWS的采訪表示,人工智能正處于一個(gè)「關(guān)鍵時(shí)刻」,通用人工智能 (AGI) 的出現(xiàn)比我們想象的更加迫近。

而在Hinton看來(lái),ChatGPT這項(xiàng)技術(shù)的進(jìn)步可以與「掀起工業(yè)革命的電力」相媲美。

通用人工智能是指,智能體學(xué)習(xí)人類(lèi)所能完成的任何思維任務(wù)的潛在能力。然而,當(dāng)前它還沒(méi)有被完全開(kāi)發(fā)出來(lái),許多計(jì)算機(jī)科學(xué)家還在研究它是否可行。

采訪中,Hinton表示,

通用人工智能的發(fā)展比人們想象的要快得多。直到不久前,我還以為大概需要20-50年,我們才能實(shí)現(xiàn)通用人工智能。而現(xiàn)在,通用人工智能的實(shí)現(xiàn)可能需要20年或更短的時(shí)間。

當(dāng)被具體問(wèn)及人工智能消滅人類(lèi)的可能性時(shí),Hinton說(shuō),「我認(rèn)為這并非不可想象」。

在谷歌工作的Hinton在40多年前就開(kāi)始關(guān)注人工智能。在當(dāng)時(shí),人工智能在許多人看來(lái)還是一種科幻的存在。

與一些科學(xué)家試圖將邏輯和推理技能編入計(jì)算機(jī)的方式不同,Hinton認(rèn)為更好的方法是模擬大腦,讓計(jì)算機(jī)自己發(fā)現(xiàn)這些技能,通過(guò)構(gòu)建一個(gè)虛擬的神經(jīng)網(wǎng)絡(luò)技術(shù),以建立正確的連接來(lái)解決任務(wù)。

「最大的問(wèn)題是,你能期待一個(gè)大型神經(jīng)網(wǎng)絡(luò)通過(guò)改變連接的強(qiáng)度來(lái)學(xué)習(xí)嗎?你能指望僅僅看著數(shù)據(jù),在沒(méi)有先天知識(shí)的情況下,學(xué)會(huì)如何做事嗎?我認(rèn)為這完全是荒謬的?!?/p>

在過(guò)去十年左右的時(shí)間里,計(jì)算機(jī)神經(jīng)網(wǎng)絡(luò)的快速發(fā)展最終證明了Hinton的方式是正確的。

他的機(jī)器學(xué)習(xí)思想被用于創(chuàng)建各種輸出,包括深度偽造的照片、視頻和音頻,讓那些研究錯(cuò)誤信息的人擔(dān)心這些工具如何使用。

人們也擔(dān)心這項(xiàng)技術(shù)會(huì)帶走很多工作,但是Hinton 的導(dǎo)師,Cohere 公司的聯(lián)合創(chuàng)始人Nick Frosst,卻認(rèn)為這項(xiàng)技術(shù)不會(huì)取代工人,但是會(huì)改變他們的生活。

計(jì)算機(jī)最終獲得創(chuàng)造性想法來(lái)改進(jìn)自身的能力似乎是可行的。我們必須考慮如何控制它。

不管行業(yè)對(duì)AGI的到來(lái)大聲歡呼,也不管我們距離AI出現(xiàn)意識(shí)還需要多長(zhǎng)時(shí)間,我們現(xiàn)在應(yīng)該仔細(xì)考慮它的后果,其中可能包括它試圖消滅人類(lèi)這一問(wèn)題。

當(dāng)前真正的問(wèn)題在于,我們已經(jīng)擁有的人工智能技術(shù)被渴望權(quán)力的政府和企業(yè)所壟斷。

幸運(yùn)的是,據(jù)Hinton的觀點(diǎn),在事情完全失控之前,人類(lèi)還有一點(diǎn)喘息的空間。

Hinton稱(chēng),「我們現(xiàn)在正處于一個(gè)轉(zhuǎn)折點(diǎn)。ChatGPT是一個(gè)白癡專(zhuān)家,它也不真正理解真相。因?yàn)樗噲D調(diào)和其訓(xùn)練數(shù)據(jù)中的不同和反對(duì)意見(jiàn)。這與保持一致世界觀的人是完全不同的?!?/p>

比爾蓋茨:AI的危險(xiǎn),我擔(dān)心很久了

而對(duì)于「AI消滅人類(lèi)」這個(gè)問(wèn)題,比爾蓋茨已經(jīng)憂(yōu)心多年了。

很多年來(lái),蓋茨一直表示,人工智能技術(shù)已經(jīng)變得過(guò)于強(qiáng)大,甚至可能引發(fā)戰(zhàn)爭(zhēng)或被用來(lái)制造武器。

他聲稱(chēng),不僅現(xiàn)實(shí)生活中的「007反派」可能利用它來(lái)操縱世界大國(guó),而且人工智能本身也可能失控,對(duì)人類(lèi)造成極大威脅。

在他看來(lái),當(dāng)超級(jí)智能被開(kāi)發(fā)出來(lái),它的思考速度會(huì)遠(yuǎn)遠(yuǎn)趕超人類(lèi)。它能做到人腦所能做的一切,最可怕的是,它的記憶內(nèi)存大小和運(yùn)行速度根本不受限。

這些被稱(chēng)為「超級(jí)」AI的實(shí)體可能會(huì)設(shè)定自己的目標(biāo),不知道會(huì)干出什么事。

LeCun:LLM弱爆了,我還是站世界模型

雖然OpenAI、谷歌和微軟的大佬們都表示了對(duì)AI消滅人類(lèi)的擔(dān)憂(yōu),但到了Meta的首席AI科學(xué)家LeCun這里,畫(huà)風(fēng)突變。

在他看來(lái),現(xiàn)在的LLM還不行,更別提消滅人類(lèi)了。

上周,志得意滿(mǎn)的微軟剛剛發(fā)了一篇名為「Sparks of Artificial General Intelligence: Early experiments with GPT-4」的論文,表示GPT-4已經(jīng)可以被視為一個(gè)通用人工智能的早期版本。

而LeCun依舊秉持自己一貫的觀點(diǎn):LLM弱爆了,根本不算AGI,要想通往AGI之路,「世界模型」才有可能。

我們知道,LeCun對(duì)于世界模型的擁躉,已經(jīng)持續(xù)幾年了,為此他經(jīng)常在推特上與眾網(wǎng)友展開(kāi)激辯。

比如上個(gè)月他曾斷言:「在通往人類(lèi)級(jí)別AI的道路上,大型語(yǔ)言模型就是一條歪路。要知道,連一只寵物貓、寵物狗都比任何LLM有更多的常識(shí),以及對(duì)世界的理解?!?/p>

最近,斯坦福認(rèn)知科學(xué)家Michael C. Frank在網(wǎng)上提問(wèn):「GPT-3接受了5000億個(gè)token(約3.75x10^11個(gè)單詞)的訓(xùn)練。所以這給了我們大約4x10^11個(gè)單詞。PaLM和Chinchilla都接受了大約10^12個(gè)單詞的訓(xùn)練。我們不知道GPT-4的語(yǔ)料庫(kù)大小。這些數(shù)字與人類(lèi)相比如何?」

而LeCun馬上轉(zhuǎn)發(fā)了Frank的帖子,對(duì)LLM的能力表示質(zhì)疑:人類(lèi)并不需要從1萬(wàn)億個(gè)單詞中學(xué)習(xí),就可以達(dá)到人類(lèi)智能,然而LLM卻做不到。

比起人類(lèi),它們?nèi)鄙俚木烤故鞘裁茨兀?/p>

Frank制作的圖,比較了大語(yǔ)言模型與人類(lèi)的語(yǔ)言學(xué)習(xí)輸入規(guī)模

而此前,LeCun在參加的一場(chǎng)辯論賽中指出,從現(xiàn)在起5年內(nèi),沒(méi)有哪個(gè)頭腦正常的人會(huì)使用自回歸模型。

要知道,如今的當(dāng)紅炸子雞ChatGPT,便是一種使用深度學(xué)習(xí)生成文本的自回歸語(yǔ)言模型。

敢對(duì)時(shí)下頂流模型進(jìn)行這種否定,LeCun的話語(yǔ)中著實(shí)帶有不少挑釁。

對(duì)此,他又做了一個(gè)澄清,5年后將會(huì)有語(yǔ)言模型,但它們不會(huì)是自回歸的。因?yàn)樽曰貧w模型是不可控,并且隨著產(chǎn)生更多的token,會(huì)出現(xiàn)指數(shù)級(jí)的發(fā)散問(wèn)題。

我必須重申:

1. 自回歸LLM是有用的,尤其是作為寫(xiě)作工具,編程。

2. 它們經(jīng)常會(huì)產(chǎn)生幻覺(jué)。

3. 它們對(duì)物理世界的理解非常原始。

4. 它們的規(guī)劃能力非常原始。

對(duì)于自回歸LLM是指數(shù)遞增的擴(kuò)散過(guò)程,LeCun也給出了自己的論據(jù):假設(shè)e是任意生成的token可能將我們帶離正確答案集的概率,那么長(zhǎng)度為n的答案最終為正確答案的概率就是P (correct) = (1-e)^n。

按照這個(gè)算法,錯(cuò)誤會(huì)逐漸累積,正確答案的概率呈指數(shù)下降??梢酝ㄟ^(guò)讓e更?。ㄍㄟ^(guò)訓(xùn)練)來(lái)減輕問(wèn)題,但是完全消除問(wèn)題是不可能的。

而要解決這個(gè)問(wèn)題,就得需要讓LLM不再進(jìn)行自回歸,同時(shí)還得保持模型的流暢性。

既然如此,該怎么破?

在此,LeCun再次把自己的「世界模型」拿了出來(lái),并指出這是LLM發(fā)展最有前途的方向。

對(duì)于構(gòu)建世界模型的想法,LeCun在2022年的一篇論文A Path Towards Autonomous Machine Intelligence曾進(jìn)行了具體的闡述。

若想構(gòu)建一個(gè)能夠進(jìn)行推理和規(guī)劃的認(rèn)知架構(gòu),需要有6個(gè)模塊組成,具體包括配置器、感知、世界模型、成本、actor,以及短期記憶。

但不可否認(rèn)的是,如今ChatGPT真的讓硅谷掀起了「AI掘金熱」。

LLMS的炒作周期變化如此之快,每個(gè)人都處于曲線上不同的點(diǎn),大家都很瘋狂。

馬庫(kù)斯:我同意Hinton

對(duì)于Hinton的警告,紐約大學(xué)教授馬庫(kù)斯也表示了同意。

「是人類(lèi)快要滅亡了比較重要,還是編碼更快、跟機(jī)器人聊天更重要?」

馬庫(kù)斯認(rèn)為,雖然AGI還太遙遠(yuǎn),但LLMs已經(jīng)很危險(xiǎn)了,而最危險(xiǎn)的是,現(xiàn)在AI已經(jīng)在給各種犯罪行為提供便利了。

「在這個(gè)時(shí)代,我們每天都要自問(wèn),我們究竟想要什么類(lèi)型的AI,有的時(shí)候走慢一點(diǎn)未嘗不好,因?yàn)槲覀兊拿恳恍〔蕉紩?huì)對(duì)未來(lái)產(chǎn)生深遠(yuǎn)的影響?!?/p>

參考資料

https://nypost.com/2023/03/26/artificial-intelligence-could-threaten-humanity-scientist/

https://futurism.com/the-byte/godfather-ai-risk-eliminate-humanity

https://cdn.openai.com/papers/gpt-4-system-card.pdf

https://podcastdisclosed.com/sam-altman-openai-ceo-on-gpt-4-chatgpt-and-the-future-of-ai-lex-fridman-podcast-367/

關(guān)鍵詞:

相關(guān)閱讀:
熱點(diǎn)
圖片