每日經(jīng)濟新聞 2024-12-18 17:19:18
近日,清華大學(xué)計算機科學(xué)與技術(shù)系長聘副教授崔鵬接受每經(jīng)記者采訪時稱,目前AI以大規(guī)模數(shù)據(jù)驅(qū)動為范式,肯定會碰上“數(shù)據(jù)墻”,但安全可信才是AI面臨的最大技術(shù)瓶頸。在他看來,未來3~5年是打造安全、可信AI的黃金期。在談及AI助推行業(yè)升級的話題時,崔鵬稱,我國資源稟賦最為突出的領(lǐng)域其實是工業(yè),AI與工業(yè)場景相結(jié)合,我們很重要的一步“先手棋”。
每經(jīng)記者 鄭雨航 每經(jīng)實習(xí)記者 宋欣悅 每經(jīng)編輯 蘭素英
長期以來,人工智能(AI)領(lǐng)域奉行“數(shù)據(jù)規(guī)模越大越好”的信念,但近期業(yè)界卻傳出大模型進化遭遇“數(shù)據(jù)墻”的消息。
據(jù)報道,OpenAI、谷歌和Anthropic在開發(fā)新一代模型時遭遇瓶頸,無法實現(xiàn)此前那樣的突破性進展。圖靈獎得主楊立昆(Yann LeCun)和OpenAI前首席科學(xué)家伊利亞•蘇茨克維(Ilya Sutskever)等業(yè)界大佬直言,規(guī)模法則(Scaling Law)已觸及天花板。
美國技術(shù)研究公司Epoch AI預(yù)測,互聯(lián)網(wǎng)上可用的高質(zhì)量文本數(shù)據(jù)可能會在2028年耗盡。
對公開文本數(shù)據(jù)使用量的預(yù)測 圖片來源:Epoch AI
“數(shù)據(jù)墻”是否真實存在,未來的AI將走向何處?如果真有“數(shù)據(jù)墻”,大模型研發(fā)企業(yè)又該如何找尋新的出路?就此,《每日經(jīng)濟新聞》記者近日專訪了清華大學(xué)計算機科學(xué)與技術(shù)系長聘副教授崔鵬。
崔鵬表示,目前大模型還是以大規(guī)模數(shù)據(jù)驅(qū)動為范式的,而數(shù)據(jù)總有用完的一天,肯定會碰上“數(shù)據(jù)墻”。在他看來,數(shù)據(jù)問題只是目前AI面臨的一小部分難題。更大的問題在于,目前的AI缺少泛化能力,使其缺乏安全可信性。
他認(rèn)為,未來3~5年將是打造安全、可信AI的黃金期,因為單純依靠規(guī)模法則或者蠻力法(Brute Force,指用大量計算資源和窮舉所有可能的方式來解決問題),邊際收益已經(jīng)逐漸降低,必須尋找新的突破點。
而在談及AI助推行業(yè)升級的話題時,他表示,我國資源稟賦最為突出的領(lǐng)域其實是工業(yè)。AI與工業(yè)場景相結(jié)合,反而是我們很重要的一步“先手棋”。
崔鵬于2010年獲得清華大學(xué)博士學(xué)位,長期聚焦因果推斷與AI的融合研究,在國際上自主提出并發(fā)展了因果啟發(fā)的穩(wěn)定學(xué)習(xí)理論方法體系,在智慧醫(yī)療、工業(yè)制造及互聯(lián)網(wǎng)經(jīng)濟等領(lǐng)域?qū)崿F(xiàn)重要應(yīng)用。崔鵬已在AI及數(shù)據(jù)挖掘領(lǐng)域頂級國際期刊和會議上發(fā)表論文百余篇,并先后獲得7項國際會議及期刊最佳論文獎,還(曾)擔(dān)任IEEE TKDE、IEEE TBD、ACM TIST、ACM TOMM等國際頂級期刊的編委。
崔鵬 圖片來源:受訪者供圖
NBD:您認(rèn)為目前AI發(fā)展是否達到了一個瓶頸?是否存在所謂的“墻”呢?
崔鵬:這一代AI的技術(shù)路徑,總體上仍遵循大規(guī)模數(shù)據(jù)驅(qū)動的范式,依賴于算法、算力和數(shù)據(jù)這三要素。而目前,基本所有互聯(lián)網(wǎng)中的高質(zhì)量數(shù)據(jù),都已經(jīng)投喂給了大模型。除此之外,大模型還吸收了大量的人工標(biāo)注數(shù)據(jù)。如果一直維持規(guī)模法則這樣的范式,到一定階段,AI肯定是會撞上“數(shù)據(jù)墻”的。
但如果從底層的學(xué)習(xí)機理和學(xué)習(xí)機制來看,當(dāng)前AI的泛化能力實際上是缺失的。也就是說,AI只能處理在訓(xùn)練階段已經(jīng)見過的類似案例,對于未見過類似的案例則難以應(yīng)對。
泛化能力的缺失導(dǎo)致了一個嚴(yán)重的問題:當(dāng)我們將AI應(yīng)用于開放場景時,模型往往會在未被充分訓(xùn)練過的場景下“胡說八道”。這構(gòu)成了AI面臨的最大技術(shù)瓶頸——在安全可信方面的能力缺失,也就是說,目前的AI既夠不安全也不夠可信。
NBD:那我們應(yīng)該如何解決AI的安全可信問題呢?
崔鵬:目前來看,有三個層面:探索新的學(xué)習(xí)機理,建立新的數(shù)據(jù)科學(xué)體系,還要能夠提出新的評估手段。做到三位一體,才能夠真正解決AI的安全和可信問題。
首先,傳統(tǒng)的機器學(xué)習(xí)基于“獨立同分布”的假設(shè),認(rèn)為訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)是相似的。這種假設(shè)給予機器學(xué)習(xí)明確的優(yōu)化目標(biāo),但在實際應(yīng)用中,這種假設(shè)可能會帶來一些問題,比如過擬合(模型過于依賴訓(xùn)練數(shù)據(jù),無法應(yīng)對新情況)或擬合無關(guān)的信息。特別是在大規(guī)模數(shù)據(jù)中,變量之間可能存在虛假的關(guān)聯(lián),從而影響到模型的準(zhǔn)確性。相比之下,因果統(tǒng)計會更加關(guān)注變量之間的因果關(guān)系(即明確哪些因素真正影響結(jié)果),能夠更好地應(yīng)對數(shù)據(jù)分布變化帶來的問題。
其次,我們需要轉(zhuǎn)變對數(shù)據(jù)的處理方式,發(fā)展新的數(shù)據(jù)科學(xué)體系,從被動積累數(shù)據(jù)轉(zhuǎn)變?yōu)橹鲃荧@取有效數(shù)據(jù),并使數(shù)據(jù)與智能形成互動的反饋循環(huán)——數(shù)據(jù)產(chǎn)生智能,智能又能夠定向告訴我們應(yīng)該去產(chǎn)生或者收集什么樣的數(shù)據(jù)。
第三是建立新的評估體系,以準(zhǔn)確刻畫模型的能力邊界和風(fēng)險。通過評估來明確模型風(fēng)險可能存在的具體情境,在明確這些風(fēng)險后,我們就應(yīng)當(dāng)避免在那些高風(fēng)險情境下使用AI模型來完成任務(wù)。
NBD:市面上不乏許多表現(xiàn)出色的模型,但為何在高風(fēng)險行業(yè),仍然鮮見AI的廣泛應(yīng)用呢?
崔鵬:現(xiàn)在關(guān)于AI有兩個論調(diào),一種觀點認(rèn)為,AI的發(fā)展已經(jīng)達到一個前所未有的高度,諸如AGI(通用人工智能)和ASI(超級智能)等概念開始被廣泛討論。然而,另一種觀點認(rèn)為,現(xiàn)在的AI,其實并沒有在嚴(yán)肅行業(yè)里真正解決實際問題。
AI在實際應(yīng)用中的落地面臨諸多困難,因為AI的泛化能力無法得到保證,那么其在開放場景下的安全性和可信性就無法得到保證。為什么我們敢用人去解決這些風(fēng)險比較高的任務(wù)呢?就是因為相較于現(xiàn)在的AI,人的可信性肯定要高很多。
對于AI,市面上有各種各樣的評測和榜單,但其實這些都是對模型整體能力的刻畫,但它并不足以精確描繪出模型在具體應(yīng)用場景下的能力邊界。
那么,即便模型拿到99分、甚至是99.99分的高分,也可能不足以說明它在實際應(yīng)用中是安全可信的。因為我們無法確切知曉,其風(fēng)險究竟會處于何種情況之下。因此,對于AI而言,確實需要建立一套新的評估體系,準(zhǔn)確評估和界定模型的能力邊界,這一點至關(guān)重要。
圖片來源:視覺中國-VCG41N1472123004
NBD:在2024年世界互聯(lián)網(wǎng)大會烏鎮(zhèn)峰會網(wǎng)絡(luò)安全技術(shù)發(fā)展與國際合作論壇上,有業(yè)內(nèi)人士將AI安全危機總結(jié)為“三化”,即:黑箱化(指AI系統(tǒng)內(nèi)部的決策過程對用戶和開發(fā)者來說是不透明的)、黑產(chǎn)化(導(dǎo)致深度偽造泛濫成災(zāi))和武器化(導(dǎo)致黑客攻擊愈演愈烈)。您認(rèn)為在解決“AI黑箱”的問題上,有哪些比較有效的技術(shù)手段呢?
崔鵬:從技術(shù)層面來看,AI實際上正逐步趨向于“黑箱化”發(fā)展。但是從性能角度來講,AI的能力也在不斷增強。因此,在一定程度上,可以說我們讓渡了對模型的控制權(quán),換取了其性能上的提升。
但一個新技術(shù)的出現(xiàn),到底是不是需要它完全透明、可解釋,其實也是一個問題。因為本質(zhì)上來講,一項技術(shù)是否能夠為廣大消費者所接受,并不取決于它是不是可解釋、是不是透明的,而取決于它是不是安全可信的。
比如,人們敢開車,不是因為每個人都懂發(fā)動機的發(fā)動原理;人們敢坐飛機,也不是因為每個人都懂空氣動力學(xué)。
所謂“可解釋性”,實際上是指能夠被人類所理解。而人類的解釋邏輯往往基于因果。因此,如果機器的推理邏輯與人類的推理邏輯能夠?qū)R,那整個工作機制對于人類而言,就是可解釋的。
NBD:您認(rèn)為我們什么時候能夠構(gòu)建好安全可信的AI呢?
崔鵬:我認(rèn)為,未來3~5年將是打造安全可信AI的黃金期。現(xiàn)在AI又到了一個十字路口,按照(已知)技術(shù)路徑來走,大家會越來越清楚AI的最終發(fā)展形態(tài)。因此,會有更多的人關(guān)注AI的安全可信,因為單純依靠規(guī)模法則或蠻力法,邊際收益已經(jīng)逐漸降低,必須尋找新的突破點。
實際上,目前已有一些相對成熟的技術(shù)手段,能夠在一定程度上解決這些問題。底層的基礎(chǔ)理論體系已經(jīng)構(gòu)建出來了,關(guān)鍵技術(shù)也有了,接下來要解決的就是如何將這些技術(shù)與實際應(yīng)用場景進行打磨和對齊。因此我認(rèn)為,解決這個問題所需的時間并不會太長。
但是,在安全可信的機制這一層面,相對于歐美國家,我們的投入和關(guān)注量都是相對少的。
如果我們觀察美國的科研規(guī)劃或頂尖學(xué)者們的研究方向,會發(fā)現(xiàn)他們實際上是“兩條腿在走”。一方面,是靠大規(guī)模算力、大規(guī)模數(shù)據(jù)來打造更強大的模型。但與此同時,他們也在積極探索另一條路,即如何保障AI的安全性和可信性。
“安全可信”會是2025年AI發(fā)展的一個重要趨勢。在當(dāng)前階段,乃至我國大的戰(zhàn)略中,“安全可信”都占據(jù)著舉足輕重的地位。如果這一步棋走好了,或許不能說是“彎道超車”,但可以說是“換道超車”。
NBD:AI與自動化的結(jié)合正改變一些傳統(tǒng)行業(yè)。您認(rèn)為AI會如何推動這些行業(yè)的智能升級呢?具體的應(yīng)用場景又會有哪些呢?
崔鵬:這一波大模型出來以后,它的主要應(yīng)用場景是互聯(lián)網(wǎng)。但從我國的資源稟賦講,互聯(lián)網(wǎng)可能并不一定是最有比較優(yōu)勢的“戰(zhàn)場”。我國資源稟賦最為突出的領(lǐng)域其實是工業(yè)。無論是制造業(yè)的數(shù)據(jù)量、質(zhì)量和規(guī)模,還是我們的支持力度,都遠超其他國家。AI與工業(yè)場景相結(jié)合,反而是我們很重要的一步“先手棋”。
我們現(xiàn)在講“新質(zhì)生產(chǎn)力”,那新質(zhì)生產(chǎn)力的核心是什么?其實,第四次工業(yè)革命的核心在于利用AI解決這些嚴(yán)肅行業(yè)的生產(chǎn)力問題,用智能去賦予工業(yè)更高的生產(chǎn)效率。事實上,第四次工業(yè)革命,其核心仍然是工業(yè)革命。
在第三次工業(yè)革命——我們稱之為數(shù)字化革命(其中也包括自動化)——的推動下,催生了非常復(fù)雜的工業(yè)生產(chǎn)鏈條。而在此背景下,智能化將是一個必然趨勢。因為人最不擅長的就是處理大規(guī)模、高維度的數(shù)據(jù),在面對復(fù)雜任務(wù)時,是遠遠跟不上需求的。而大模型一天就能處理幾十萬本書的信息,與人的能力完全不在一個量級。從這個角度來看,AI是大有可為的。
例如,對于極為復(fù)雜的產(chǎn)品線,一旦因故障而停機,我們可能需要花費幾小時甚至幾天的時間來進行故障排查,但成本實在太高了。我們現(xiàn)在正在做的一項工作是通過分析設(shè)備的故障代碼,利用AI技術(shù)精準(zhǔn)定位故障點,大幅度節(jié)約人力成本,提高生產(chǎn)效率。那這對于工業(yè)生產(chǎn)而言,無疑解決了非常大的問題。
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟新聞APP