智東西(公眾號:zhidxcom)
編譯 |? 程茜 陳駿達(dá)
編輯 |? Panken

智東西9月14日報道,近日,美國著名女脫口秀主持人奧普拉·溫弗瑞(Oprah Winfrey)錄制了一檔45分鐘的AI特別節(jié)目,主題為“AI與我們的未來”。嘉賓包括OpenAI聯(lián)合創(chuàng)始人兼CEO薩姆·阿爾特曼(Sam Altman)、微軟聯(lián)合創(chuàng)始人比爾·蓋茨(Bill Gates)、YouTube知名科技博主馬庫斯·布朗利(Marques Brownlee,又稱MKBHD)和現(xiàn)任FBI局長克里斯托弗·雷伊(Christopher Wray)等人。

這檔節(jié)目也是OpenAI發(fā)布傳說中“草莓”模型的部分預(yù)覽版——OpenAI o1預(yù)覽版后,阿爾特曼首次公開露面。OpenAI o1擁有進化的推理能力,在物理、生物、化學(xué)問題的基準(zhǔn)測試中準(zhǔn)確度甚至超過了人類博士水平。這些無一不引發(fā)人們對AI安全的擔(dān)憂。

在對話中,作為目前這家最受矚目的AI創(chuàng)企的CEO,阿爾特曼強調(diào)了對AI系統(tǒng)進行安全測試的重要性,并透露他每隔幾天就會和政府官員就此碰面討論。

但同時,阿爾特曼也分享了AI能通過數(shù)據(jù)來學(xué)習(xí)并理解概念以及“AI將幫助我們解決一切問題”等極具爭議性的觀點,并在奧普拉提及他面對的信任危機時轉(zhuǎn)移話題。

蓋茨則強調(diào),10年內(nèi)AI會極大地改變教育和醫(yī)療領(lǐng)域。然而,他并未提及這些改變可能并非全都是正面的。有研究顯示,AI在醫(yī)療中的應(yīng)用可能給診斷和治療效果帶來負(fù)面影響。

其它嘉賓則關(guān)注了深度偽造造成的危害和“超級智能帶來的全新風(fēng)險”。

這檔節(jié)目在發(fā)布前后引起軒然大波,許多網(wǎng)友和批評家質(zhì)疑該節(jié)目在嘉賓選擇上過于單一,阿爾特曼與蓋茨都是從本場AI熱潮中直接受益的利益相關(guān)方,他們對AI的觀點可能有所偏頗。此外,部分嘉賓在節(jié)目中過度強調(diào)AI的遠(yuǎn)期危害,可能導(dǎo)致公眾忽視AI目前已經(jīng)對環(huán)境、社會造成的現(xiàn)實影響

一、阿爾特曼再度開啟“推銷員”模式,稱AI能解決“一切問題”

阿爾特曼是接受奧普拉采訪的第一位嘉賓,他提出了一個頗具爭議的觀點:當(dāng)今的AI是通過訓(xùn)練數(shù)據(jù)來學(xué)習(xí)概念的。

在向節(jié)目觀眾解釋AI的原理時,阿爾特曼說道:“我們向系統(tǒng)展示一千個單詞的序列,并要求它預(yù)測接下來的內(nèi)容,反復(fù)重復(fù)這一過程,系統(tǒng)就能學(xué)會預(yù)測,進而學(xué)會背后的概念,這就是模型的底層邏輯?!?/p>

許多專家并不同意這一說法。最近,OpenAI發(fā)布了傳說中“草莓”模型的部分預(yù)覽版——OpenAI o1預(yù)覽版。此類系統(tǒng)和之前的GPT系列模型確實可以高效、準(zhǔn)確地完成下一詞預(yù)測的任務(wù),但許多研究者認(rèn)為這種模型只是統(tǒng)計機器——它們只是學(xué)習(xí)數(shù)據(jù)模式,沒有意圖,只是做出有根據(jù)的猜測。

阿爾特曼稱,AI對經(jīng)濟發(fā)展的影響程度之大是前所未有的,稱到2035年,“AI能幫助我們解決一切問題”。假設(shè)我們能讓模型變得極為安全,但也無法改變AI融入經(jīng)濟的速度,他認(rèn)為:“人們想要更多、更好(的AI),似乎有某股強大的力量在推動其發(fā)展”。

不過,高盛和紅杉在近期都曾指出AI領(lǐng)域存在投資和收益不匹配的問題。

二、阿爾特曼強調(diào)AI監(jiān)管,避而不談信任危機

阿爾特曼可能夸大了當(dāng)今AI的能力,他也同時強調(diào)了對這些系統(tǒng)進行安全測試的重要性:“我們需要做的第一件事就是要讓政府開始研究如何對這些系統(tǒng)進行安全測試,類似于飛機和藥物那樣的測試?!?/p>

但他的重點可能是后半句話:“如果我們現(xiàn)在能研究清楚這些問題,就能在之后發(fā)展出適合的監(jiān)管框架?!睋Q言之,他可能并不希望在當(dāng)下就出現(xiàn)完整的監(jiān)管體系。

OpenAI CEO對話脫口秀女王:避談信任危機,自稱與政府往來密切,鼓吹A(chǔ)I全能

▲阿爾特曼接受采訪(圖源:ABC)

在過去的幾年中,阿爾特曼常常以支持AI監(jiān)管的形象示人,在本次采訪中,他說到:“我個人可能每隔幾天就會和政府里的某個人交談一次。

不過,在面臨歐洲和美國加州地方政府的實際監(jiān)管政策時,阿爾特曼卻選擇反對。OpenAI的強力競爭對手Anthropic一開始雖然反對加州AI安全法案的初稿,但積極參與了修訂工作,OpenAI并未提出具體修改意見。

奧普拉還質(zhì)問阿爾特曼,他作為OpenAI的“頭目”(ringleader),之前曾被董事會以不信任為由開除,人們?yōu)槭裁匆^續(xù)相信他?阿爾特曼回避了這個問題,他只提到其公司正在努力逐漸建立信任。

阿爾特曼曾在多個場合提到,人們不應(yīng)該相信他或者任何一個人能確保AI造福世界。不過,他不同意有些人稱他為“世界上最有權(quán)勢和最危險的人”,他稱自己有機會和責(zé)任推動AI朝著對人類有利的方向發(fā)展。

三、深度偽造技術(shù)風(fēng)險激增,青少年成侵害對象

在節(jié)目中,奧普拉和MKBHD談?wù)摿松疃葌卧斓脑掝}。

為了證明合成內(nèi)容的可信度,MKBHD將OpenAI的視頻生成模型Sora的樣本片段與幾個月前AI系統(tǒng)生成的片段進行了比較。Sora的視頻效果遙遙領(lǐng)先,這表明該領(lǐng)域的進步非常迅速。MKBHD還現(xiàn)場利用語音合成器生成了一段自己繞口令的音頻。

OpenAI CEO對話脫口秀女王:避談信任危機,自稱與政府往來密切,鼓吹A(chǔ)I全能

▲YouTube科技博主MKBHD現(xiàn)場演示深度偽造技術(shù)(圖源:ABC)

奧普拉對這項技術(shù)感到擔(dān)憂,但MKBHD認(rèn)為就像之前的種種技術(shù)那樣,在開始階段總是會存在混亂,但人類最終總是能解決問題。

來自美國人道技術(shù)中心的崔斯坦·哈里斯(Tristan Harris)和阿扎·拉斯金(Aza Raskin)在節(jié)目中強調(diào)了“超級智能帶來的全新風(fēng)險”。然而,過去已有AI界人士批評,過分強調(diào)遙遠(yuǎn)的“超級智能”,可能會導(dǎo)致社會忽視近期的AI風(fēng)險,如AI的環(huán)境影響。

美國FBI現(xiàn)任局長雷伊談到AI詐騙日益盛行的情況。美國網(wǎng)絡(luò)安全公司ESET的數(shù)據(jù)顯示,2022年至2023年間,性勒索案件增加了178%,部分原因是AI技術(shù)。

雷伊說:“有人冒充同齡人瞄準(zhǔn)青少年群體,然后使用(AI生成的)的圖片說服孩子發(fā)送真實照片作為回報。一旦他們拿到這些照片,就將其用來威脅孩子們。”雷伊還談到了美國總統(tǒng)大選的虛假信息。他認(rèn)為“現(xiàn)在還不是恐慌的時候”,但強調(diào)了每個人都有責(zé)任加強對AI使用的關(guān)注和謹(jǐn)慎

四、蓋茨看好AI教育、醫(yī)療應(yīng)用,但偏見與濫用頻發(fā)

奧普拉還采訪了微軟聯(lián)合創(chuàng)始人比爾·蓋茨(Bill Gates),他認(rèn)為10年內(nèi)AI會極大地改變教育和醫(yī)療領(lǐng)域。

蓋茨說:“AI就像是坐在就診現(xiàn)場的第三人,記錄診斷結(jié)果,并提出處方建議。醫(yī)生不需要再面對電腦屏幕,而是可以與患者互動,讓軟件確保診斷結(jié)果得到完整記錄?!?/p>

OpenAI CEO對話脫口秀女王:避談信任危機,自稱與政府往來密切,鼓吹A(chǔ)I全能

▲蓋茨在節(jié)目中談?wù)揂I與醫(yī)療和教育(圖源:ABC)

然而,由于醫(yī)療、醫(yī)藥領(lǐng)域的樣本通常為白人男性,用這些數(shù)據(jù)來訓(xùn)練AI可能造成偏見。2023年發(fā)布在學(xué)術(shù)期刊《自然》子刊上的一項研究表明,AI系統(tǒng)在某些情況下降低了手術(shù)的效果,特別是在涉及少數(shù)族裔的手術(shù)中。

在教育領(lǐng)域,蓋茨認(rèn)為AI可以在課堂上“隨時待命”并且給任何水平的孩子提供激勵,但實際上許多教室里的情況并非如此。

英國安全互聯(lián)網(wǎng)中心的調(diào)查顯示,超過一半的孩子稱曾看到同齡人以不當(dāng)方式使用生成式AI,如創(chuàng)建看起來可信的虛假信息或冒犯性的圖像。

聯(lián)合國教科文組織(UNESCO)去年底曾敦促各國政府規(guī)范生成式AI在教育領(lǐng)域的使用,包括對用戶實施年齡限制以及對數(shù)據(jù)保護和用戶隱私設(shè)置限制。

五、節(jié)目安排引發(fā)軒然大波,網(wǎng)友質(zhì)疑奧普拉“拉偏架”

其實,在這檔特別節(jié)目發(fā)布之前,就有不少網(wǎng)友和批評家對其嘉賓安排和內(nèi)容提出質(zhì)疑。

部分網(wǎng)友認(rèn)為,在AI界阿爾特曼等人顯然算不上最權(quán)威的專家。OpenAI前首席科學(xué)家伊爾亞·蘇茨克維(Ilya Sutskever)可能更了解AI,而OpenAI的強力競爭對手Anthropic的創(chuàng)始人達(dá)里奧·阿莫蒂(Dario Amodei)也應(yīng)該被邀請,以體現(xiàn)對AI不同的看法。

OpenAI CEO對話脫口秀女王:避談信任危機,自稱與政府往來密切,鼓吹A(chǔ)I全能

▲網(wǎng)友吐槽奧普拉AI特別節(jié)目的嘉賓人選(圖源:X平臺)

起訴Stability AI和Runway AI等公司、并讓Runway AI于不久前“刪庫跑路”的藝術(shù)家卡拉·奧爾蒂斯(Karla Ortiz)認(rèn)為,這檔節(jié)目應(yīng)該找一些“真正的專家”來參與討論。

她還進一步分析道,這檔節(jié)目或許將會是許多人第一次獲得與生成式AI相關(guān)的信息,然而參與這檔節(jié)目的人大多是既得利益者,他們忽視了生成式AI對大眾造成的現(xiàn)實影響。她的系列帖子獲得了大量閱讀和點贊。

OpenAI CEO對話脫口秀女王:避談信任危機,自稱與政府往來密切,鼓吹A(chǔ)I全能

▲卡拉·奧爾蒂斯批評奧普拉的節(jié)目嘉賓選擇(圖源:X平臺)

前《洛杉磯時報》科技專欄作家布萊恩·莫欽特(Brian Merchant)在X平臺上將這場節(jié)目稱之為生成式AI行業(yè)困局中的一次“銷售宣傳”。

結(jié)語:批評聲浪減退但影響持續(xù),或成部分觀眾“AI第一課”

這檔節(jié)目在發(fā)布后繼續(xù)在社交媒體平臺上引發(fā)討論,反對的聲浪并未如播出前般巨大。有部分網(wǎng)友認(rèn)為,這檔節(jié)目其實是在面向“祖父母輩”群體介紹AI,并不是十分深刻。但也有網(wǎng)友認(rèn)為這正是非技術(shù)人員所需要的內(nèi)容。

OpenAI CEO對話脫口秀女王:避談信任危機,自稱與政府往來密切,鼓吹A(chǔ)I全能

▲Reddit論壇上的相關(guān)討論(圖源:Reddit)

相對較少的討論并不意味著這檔節(jié)目的影響力有限。奧普拉的觀眾群體龐大,但可能并不是社交媒體的用戶,他們十分愿意相信奧普拉和她的節(jié)目中其他嘉賓的觀點。

通觀這檔45分鐘的節(jié)目,奧普拉似乎將重點放在了AI安全問題上,卻又沒有進行深入且實際的探討,并呈現(xiàn)來自不同方面的觀點。不論這些觀點是否正確,偏頗與否,似乎已經(jīng)成為了部分觀眾的AI第一課。