智東西(公眾號(hào):zhidxcom)
編譯 |? 吳浪娜
編輯 |? 漠影

智東西10月12日消息,據(jù)《華爾街日?qǐng)?bào)》今天報(bào)道,圖靈獎(jiǎng)得主、Meta首席AI科學(xué)家楊立昆接受了該媒體的采訪,他認(rèn)為許多專家夸大了AI的力量和危險(xiǎn),他希望人們了解這一點(diǎn)。在采訪中,他稱有關(guān)AI這項(xiàng)技術(shù)生存危機(jī)的警告“完全是胡說八道(that’s complete B.S.)”。

楊立昆是引發(fā)當(dāng)今的AI熱潮的重要人物之一。但當(dāng)其他杰出的技術(shù)專家告訴我們,我們即將擁有超越人類智能的計(jì)算機(jī),甚至人類可能被其取代時(shí),楊立昆卻堅(jiān)定地成為了AI熱潮中最有資歷的懷疑論者。

在社交媒體、演講和辯論中,這位紐約大學(xué)教授兼Meta的人工智能大師與那些鼓吹生成式AI具有超人潛力的支持者和預(yù)言家們展開了爭(zhēng)論,包括埃隆·馬斯克(Elon Musk)和楊立昆的兩位同行先驅(qū)。杰弗里·辛頓(Geoffrey Hinton)和約書亞·本吉奧(Yoshua Bengio)與楊立昆一起擁有“AI教父”的非官方頭銜,其中辛頓是楊立昆近40年的朋友,在本周獲得了諾貝爾物理學(xué)獎(jiǎng),他曾多次就AI的生存威脅發(fā)出警告。

楊立昆認(rèn)為,當(dāng)今的AI模型雖然有用,但遠(yuǎn)不能與我們的寵物的智力相媲美,更不用說與我們?nèi)祟愊啾攘?/span>。當(dāng)《華爾街日?qǐng)?bào)》記者問他,我們是否應(yīng)該擔(dān)心AI很快會(huì)變得非常強(qiáng)大以至于對(duì)我們構(gòu)成危險(xiǎn)時(shí),他打趣道:“請(qǐng)?jiān)徫艺f臟話,但那完全是胡說八道?!?/p>

他的工作成果以及他是在一家大型科技公司中成就顯著的AI研究實(shí)驗(yàn)室之一的領(lǐng)導(dǎo)人,這讓楊立昆的觀點(diǎn)更有分量。

楊立昆告訴記者,他對(duì)AI產(chǎn)生興趣的部分原因是斯坦利·庫布里克(Stanley Kubrick)1968年的科幻經(jīng)典電影《2001:太空漫游》中的流氓人工智能HAL 9000。他在巴黎北部長(zhǎng)大,在從索邦大學(xué)獲得博士學(xué)位后,他在傳奇的貝爾實(shí)驗(yàn)室工作,從晶體管到激光等許多發(fā)明都誕生于此。2003年,他加入紐約大學(xué)擔(dān)任計(jì)算機(jī)科學(xué)教授,十年后,他成為當(dāng)時(shí)的Facebook的AI研究主管。

2019年,楊立昆、辛頓和本吉奧一起獲得了圖靈獎(jiǎng),這是計(jì)算機(jī)科學(xué)的最高獎(jiǎng)項(xiàng)。這個(gè)獎(jiǎng)項(xiàng)使這三人被稱為“AI教父”,以表彰他們?cè)谏窠?jīng)網(wǎng)絡(luò)方面的基礎(chǔ)性工作,神經(jīng)網(wǎng)絡(luò)是許多當(dāng)今最強(qiáng)大的AI系統(tǒng)的基礎(chǔ),從OpenAI的聊天機(jī)器人到自動(dòng)駕駛汽車。

楊立昆最新采訪:AI威脅論是胡說八道,堆砌芯片和數(shù)據(jù)不能實(shí)現(xiàn)AGI▲2019年,楊立昆(中間)與本吉奧(最左邊)和辛頓(最右邊)共同獲得了計(jì)算機(jī)科學(xué)領(lǐng)域的最高獎(jiǎng)項(xiàng)圖靈獎(jiǎng)(圖源:《華爾街日?qǐng)?bào)》)

如今,楊立昆繼續(xù)在紐約大學(xué)與他的博士生一起發(fā)表論文,同時(shí)他作為Meta的首席AI科學(xué)家,領(lǐng)導(dǎo)著世界上資金雄厚的AI研究組織之一。他經(jīng)常與Meta CEO馬克·扎克伯格(Mark Zuckerberg)見面并通過WhatsApp聊天,扎克伯格正將Meta定位為AI熱潮中對(duì)抗蘋果和OpenAI等其他科技巨頭的力量。

在現(xiàn)實(shí)生活中,楊立昆有一種讓人消除戒心的魅力:調(diào)皮、機(jī)智,隨時(shí)準(zhǔn)備說出他認(rèn)為是自己領(lǐng)域的殘酷真相。64歲的他看起來既時(shí)尚又有點(diǎn)邋遢,這很適合一位曾經(jīng)的巴黎人,他的眼鏡是經(jīng)典的黑色雷朋鏡框。

坐在Meta位于紐約市的一個(gè)衛(wèi)星辦公室的會(huì)議室里,他散發(fā)著溫暖和親切的自信,帶著那種讓你覺得自己也參與了這個(gè)笑話的笑容發(fā)表他的尖銳觀點(diǎn)。

一、楊立昆否認(rèn)AI威脅論,稱現(xiàn)有AI不如一只寵物貓

楊立昆與競(jìng)爭(zhēng)對(duì)手和朋友都進(jìn)行過爭(zhēng)論。今年春天,他在海外社交平臺(tái)X上與馬斯克就科學(xué)研究的本質(zhì)發(fā)生了激烈爭(zhēng)辯。

楊立昆還在公開場(chǎng)合與辛頓和本吉奧就他們反復(fù)發(fā)出的AI對(duì)人類構(gòu)成危險(xiǎn)的警告表示不同意。

本吉奧說,他在很多問題上與楊立昆意見一致,但在公司是否可以被信任以確保未來的超人類人工智能(superhuman AIs)不會(huì)被人類惡意使用,或者超人類人工智能不會(huì)產(chǎn)生自己的惡意意圖這一問題上存在分歧。

“我希望他是對(duì)的,但我認(rèn)為我們不應(yīng)該僅僅依靠公司之間的競(jìng)爭(zhēng)和利潤動(dòng)機(jī)來保護(hù)公眾和民主,”本吉奧說,“這就是為什么我認(rèn)為我們需要政府的參與?!?/p>

楊立昆認(rèn)為AI是一個(gè)強(qiáng)大的工具。在整個(gè)采訪中,他列舉了許多AI在Meta變得極其重要的例子,并使Meta的規(guī)模和收入達(dá)到了目前約1.5萬億美元的價(jià)值。AI是Meta工作中不可或缺的一部分,從實(shí)時(shí)翻譯到內(nèi)容審核,除了其基礎(chǔ)AI研究團(tuán)隊(duì)(稱為FAIR)之外,Meta還有一個(gè)以產(chǎn)品為重點(diǎn)的AI小組GenAI,正在追求其大型語言模型的更好版本。

“這對(duì)Meta的影響確實(shí)非常巨大。”他說。

同時(shí),他確信當(dāng)今的AI在任何有意義上都不是智能的——而且該領(lǐng)域的許多其他人,尤其是在AI初創(chuàng)公司中,準(zhǔn)備以他認(rèn)為荒謬的方式推斷其最近的發(fā)展。

如果楊立昆的觀點(diǎn)是正確的,這對(duì)當(dāng)今一些最熱門的初創(chuàng)公司來說意味著麻煩,更不用說那些向AI投入數(shù)百億美元的科技巨頭了。他們中的許多人都寄希望于這樣一種想法,即當(dāng)今基于大語言模型的AI,如OpenAI的那些,正處于在短期內(nèi)創(chuàng)造所謂的“通用人工智能”(AGI)的道路上,這種AI將遠(yuǎn)遠(yuǎn)超過人類水平的智能。

OpenAI的薩姆·阿爾特曼(Sam Altman)上個(gè)月在一篇博客中提到,我們可能在“幾千天內(nèi)”擁有AGI。馬斯克則認(rèn)為可能在2026年實(shí)現(xiàn)。

楊立昆認(rèn)為這樣的說法可能為時(shí)過早。今年5月,一位即將離職的OpenAI研究人員談到需要學(xué)習(xí)如何控制超智能人工智能時(shí),楊立昆進(jìn)行了反駁。“在我看來,在‘緊急弄清楚如何控制比我們聰明得多的AI系統(tǒng)’之前,我們需要先設(shè)計(jì)一個(gè)比家貓更聰明的系統(tǒng)?!彼赬上回復(fù)道。

他喜歡貓的比喻。他說,畢竟貓科動(dòng)物擁有物理世界的心理模型、持久的記憶、一些推理能力和計(jì)劃能力。而這些品質(zhì)在當(dāng)今的“前沿”AI中都不存在,包括Meta自己制造的AI。

自1986年就認(rèn)識(shí)楊立昆的萊昂·博圖(Léon Bottou)說,楊立昆是一種“善意的固執(zhí)”,也就是說,他愿意傾聽別人的觀點(diǎn),但會(huì)一心一意地追求他認(rèn)為構(gòu)建AI的正確方法。

亞歷山大·里夫斯(Alexander Rives)曾是楊立昆的博士生,后來創(chuàng)立了一家AI初創(chuàng)公司,他說楊立昆的挑釁是經(jīng)過深思熟慮的?!八羞@樣的歷史,即真的能夠看到該領(lǐng)域在思考問題方式上的差距,并指出這一點(diǎn),”里夫斯說。

二、楊立昆認(rèn)為只是堆砌芯片和數(shù)據(jù)的規(guī)模并不能實(shí)現(xiàn)AGI

楊立昆認(rèn)為真正的AGI是一個(gè)有價(jià)值的目標(biāo)——Meta也在努力實(shí)現(xiàn)這個(gè)目標(biāo)。

“在未來,當(dāng)人們與他們的AI系統(tǒng)、智能眼鏡或其他任何東西交談時(shí),我們需要這些AI系統(tǒng)基本上具有人類水平的特征,真正具有常識(shí),并真正像人類助手一樣表現(xiàn)?!彼诓稍L中說。

但他接著補(bǔ)充道,創(chuàng)造一個(gè)如此有能力的AI可能需要幾十年的時(shí)間——而當(dāng)今的主導(dǎo)方法無法讓我們實(shí)現(xiàn)這一目標(biāo)。

生成式AI熱潮是由大語言模型和類似的系統(tǒng)推動(dòng)的,這些系統(tǒng)在海量數(shù)據(jù)上進(jìn)行訓(xùn)練以模仿人類表達(dá)。隨著每一代模型變得更加強(qiáng)大,一些專家得出結(jié)論,只要將更多的芯片和數(shù)據(jù)投入到開發(fā)未來的AI中,就能使它們變得更有能力,最終與人類智能相匹配或超越人類智能。這就是在構(gòu)建越來越多的專用芯片池以訓(xùn)練AI方面進(jìn)行大量投資的背后邏輯。

楊立昆認(rèn)為當(dāng)今AI系統(tǒng)的問題在于它們的設(shè)計(jì)方式,而不是它們的規(guī)模。他說,無論科技巨頭在全球的數(shù)據(jù)中心中塞進(jìn)多少GPU,當(dāng)今的AI都不會(huì)讓我們實(shí)現(xiàn)AGI。

他的賭注是,對(duì)于以不同方式工作的AI的研究將為我們開啟一條通往人類水平智能的道路。這些假設(shè)的未來AI可能有多種形式,但目前讓楊立昆興奮的項(xiàng)目之一是在FAIR進(jìn)行的從現(xiàn)實(shí)世界的視頻中提取信息的工作。這個(gè)想法是創(chuàng)建以類似于幼年動(dòng)物的方式學(xué)習(xí)的模型,通過從其所接收的視覺信息中構(gòu)建一個(gè)世界模型。

用于ChatGPT和其他聊天機(jī)器人的大語言模型將來可能在使用一系列其他技術(shù)和算法構(gòu)建的具有常識(shí)和類人類能力的系統(tǒng)中只發(fā)揮很小的作用。

他說,當(dāng)今的模型實(shí)際上只是在預(yù)測(cè)文本中的下一個(gè)單詞。但它們?cè)谶@方面非常擅長(zhǎng),以至于欺騙了我們。而且由于它們巨大的存儲(chǔ)容量,它們似乎在進(jìn)行推理,但實(shí)際上它們只是在重復(fù)已經(jīng)訓(xùn)練過的信息。

“我們習(xí)慣于這樣的想法,即能夠表達(dá)自己或操縱語言的人或?qū)嶓w是聰明的——但這不是真的,”楊立昆說,“你可以操縱語言但并不聰明,而這基本上就是大語言模型所展示的。”

結(jié)語:三位“AI教父”的對(duì)于AI威脅論持不同意見

曾經(jīng)一同獲得2018年度圖靈獎(jiǎng)的三位“AI教父”,如今對(duì)于AI的認(rèn)識(shí)與思考逐漸產(chǎn)生了分歧。

楊立昆否認(rèn)AI威脅論,認(rèn)為此類言論是“胡說八道”,現(xiàn)有的AI沒有人類想象中強(qiáng)大,實(shí)現(xiàn)AGI也為時(shí)尚早,想要?jiǎng)?chuàng)造出超越人類的智能則有更長(zhǎng)的路要走。

而另外兩位科學(xué)家,辛頓和本吉奧,則不斷敲響警鐘,呼吁大眾、企業(yè)和政府對(duì)AI背后的道德和倫理進(jìn)行深刻反思。

辛頓曾提出AI威脅論,他在諾貝爾獎(jiǎng)?lì)C獎(jiǎng)典禮電話采訪中談道,很擔(dān)心AI會(huì)失去控制并取代人類,OpenAI應(yīng)該把安全研究放在首位。他還曾說過,AI可能創(chuàng)造出超越人類的智能,這可能會(huì)導(dǎo)致人類處于劣勢(shì)。

本吉奧在今天發(fā)布的最新采訪視頻中說道:“我們不清楚如何避免這些系統(tǒng)變得自主,并有自己的保護(hù)目標(biāo),我們可能會(huì)失去對(duì)這些系統(tǒng)的控制。所以我們可能正在走上一條創(chuàng)造比我們更強(qiáng)大的怪物的道路?!?/p>

來源:《華爾街日?qǐng)?bào)》、雅虎