智東西(公眾號:zhidxcom)
編譯 | 楊蕊伃
編輯 |?漠影

智東西9月3日消息,據(jù)VentureBeat 8月31日報道,在2024年DataGrail峰會上,Instacart首席信息安全官(CISO)David Tsao和Anthropic首席信息安全官Jason Clinton進行一場深入對話,就人工智能(AI)的快速發(fā)展所帶來的風險發(fā)出了警告。

Clinton稱:“AI的計算能力目前正處于一個指數(shù)增長的階段,而這種指數(shù)增長的趨勢非常難預(yù)測。指數(shù)的快速增長正在將AI推向未知領(lǐng)域,這意味著目前的保護措施可能很快將不再適用?!?/p>

兩位首席信息安全官強調(diào)行業(yè)需迅速強化安全措施以應(yīng)對AI的快速發(fā)展。這場討論由VentureBeat的編輯總監(jiān)Michael Nunez主持,探討了AI模型發(fā)展存在的威脅。

一、AI算力的指數(shù)級增長,遠遠超過安全框架的發(fā)展速度

Instacart首席信息安全官David Tsao和Anthropic首席信息安全官Jason Clinton一致認為,AI技術(shù)的快速發(fā)展已經(jīng)超過了安全框架的建設(shè)速度。

兩位首席信息安全官都建議企業(yè)在投資AI技術(shù)時,也要注重投資AI安全系統(tǒng)。

Clinton稱,AI模型的計算能力正呈指數(shù)級增長。

他說:“自1957年感知機問世以來,每年訓練AI模型的計算總量都比前一年增長4倍。企業(yè)若想在未來幾年保持領(lǐng)先,就必須預(yù)見到神經(jīng)網(wǎng)絡(luò)的計算量一年后將增長4倍,兩年后將增長16倍?!?/p>

他呼吁企業(yè)既要跟上現(xiàn)有技術(shù),又要為未來技術(shù)進步做好準備。

Clinto認為AI能力的快速增長正將其推向未知領(lǐng)域,當前的保護措施可能很快將不再適用。

他說:“安全措施不能只針對現(xiàn)有的模型和聊天機器人,還需要考慮到Agent架構(gòu)等前沿技術(shù)?!?/p>

二、企業(yè)應(yīng)加強AI安全系統(tǒng)的投資,以重建用戶信任

Instacart首席信息安全官David Tsao從實際應(yīng)用的角度探討了AI的安全挑戰(zhàn)。

David稱,大語言模型的不可預(yù)測性是目前業(yè)內(nèi)面臨的一個主要挑戰(zhàn)。

他解釋說:“盡管我們限制了這些模型的回答問題方式,但如果我們投入足夠的時間去引導(dǎo)和訓練它們,我們?nèi)匀豢赡苷业酵黄七@些限制的方法?!?/p>

此外,他還提到AI生成的內(nèi)容有時會出錯。他認為這種錯誤可能會減少用戶的信任,嚴重時甚至可能傷害到用戶。

David強調(diào)企業(yè)需要在技術(shù)創(chuàng)新和安全保障之間找到平衡點。

他建議:“企業(yè)應(yīng)該在AI的安全系統(tǒng)、風險控制框架和隱私保護上盡可能多地投資。”

David強調(diào),各個行業(yè)都在積極應(yīng)用AI來提高效率,但如果不規(guī)避風險,企業(yè)可能會遭受嚴重損失。

三、AI模型運作不可預(yù)測,AI風險將增加

Anthropic首席信息安全官Clinton介紹了自家公司最近進行的一項神經(jīng)網(wǎng)絡(luò)實驗,這個實驗展現(xiàn)了AI行為的復(fù)雜性。

在實驗中,一個被訓練過的模型總是將特定神經(jīng)元與金門大橋聯(lián)系起來,即使在完全不相關(guān)的情境中也是如此。

他認為這個實驗顯示了AI模型內(nèi)部運作的不可預(yù)測性。

Clinton說:“我們的神經(jīng)網(wǎng)絡(luò)已經(jīng)能夠識別其神經(jīng)結(jié)構(gòu)的異常。隨著技術(shù)的發(fā)展,現(xiàn)在發(fā)生的一切在一年或兩年以后將變得更加強大?!?/p>

隨著AI系統(tǒng)越來越深入地融入關(guān)鍵業(yè)務(wù)流程,AI風險也會增加。

Clinton認為,在未來,AI Agent不僅能聊天,還能獨立完成復(fù)雜任務(wù)。

Clinton的設(shè)想引發(fā)了關(guān)于AI驅(qū)動決策可能帶來的深遠影響的討論。

他再次警告說:“如果企業(yè)只針對現(xiàn)有的模型和聊天機器人制定計劃,而沒有為未來的AI治理做好準備,他們將遠遠落后?!?/p>

結(jié)語:AI是寶貴資產(chǎn),企業(yè)必須確保其存在安全

AI的發(fā)展勢頭不會減弱,同時,推進用以控制AI的安全措施也不應(yīng)該停滯。

Clinton總結(jié)道:“智能是一個組織中最有價值的資產(chǎn),但缺乏安全的智能將會帶來災(zāi)難?!?/p>

企業(yè)在推進AI技術(shù)的同時,需要投入相應(yīng)的資源和努力,以確保AI系統(tǒng)的安全和可靠。

一方面,業(yè)界應(yīng)該推進技術(shù)層面的防護措施,如加密技術(shù)和訪問控制,以確保用戶數(shù)據(jù)的安全和系統(tǒng)的安全。

另一方面,相關(guān)道德倫理約束、法律法規(guī)體系有待完善,如提高AI決策過程的透明度和可解釋性,以確保AI系統(tǒng)的決策能夠被用戶和社會理解和信任。

來源:VentureBeat