每日經(jīng)濟新聞 2023-04-11 00:03:48
每經(jīng)記者 李孟林 蔡鼎 譚玉涵 每經(jīng)編輯 譚玉涵 蘭素英 盧祥勇 易啟江
因強大功能而爆紅的ChatGPT正因數(shù)據(jù)隱私和安全風險在全球掀起一場監(jiān)管風暴。
一周之內(nèi),意大利、德國、法國、愛爾蘭等8國相繼“出手”。此外,它還可能面臨全球首例AI誹謗訴訟。據(jù)悉,馬斯克此前發(fā)起的暫停訓練比GPT-4更強大的AI系統(tǒng)的公開信響應人數(shù)仍在不斷增加,截至發(fā)稿,已有超1.8萬人簽名。
意大利監(jiān)管方是出于何種考慮?AI會出現(xiàn)意識嗎?《每日經(jīng)濟新聞》記者連線愛爾蘭數(shù)據(jù)保護委員會以及中國人民大學高瓴人工智能學院教授盧志武進行解讀。
人工智能的未來,充滿巨大想象空間。圖為第六屆世界智能大會上,參會嘉賓在參觀展覽 新華社圖
8國“圍剿”ChatGPT
因強大功能而爆紅的ChatGPT正因數(shù)據(jù)隱私和安全風險在全球掀起一場監(jiān)管風暴。
繼意大利宣布暫時封禁ChatGPT之后,德國也表示正在考慮暫時禁用。緊隨其后,法國、愛爾蘭、西班牙等歐洲國家的監(jiān)管機構(gòu)也相繼表達了類似可能性。與此同時,加拿大的隱私監(jiān)管機構(gòu)已經(jīng)宣布對OpenAI展開調(diào)查,美國方面也在探討加強對AI的監(jiān)管。不僅如此,由于生成了虛假內(nèi)容,ChatGPT恐將在澳大利亞面臨全球首例誹謗訴訟。
此外,馬斯克、圖靈獎得主本吉奧等1000余名科技大佬還發(fā)表聯(lián)名公開信,呼吁所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統(tǒng)至少6個月。截至發(fā)稿,這份公開信的簽名人數(shù)已超18000人。
“我們正在關(guān)注意大利監(jiān)管機構(gòu)的行動,以了解其行動背后的理由。在ChatGPT這件事情上我們將和歐盟所有的數(shù)據(jù)保護機構(gòu)協(xié)作。”愛爾蘭數(shù)據(jù)保護委員會(DPC)對《每日經(jīng)濟新聞》記者表示。
意大利對ChatGPT的禁令,掀起了一輪針對OpenAI的監(jiān)管風暴,德國監(jiān)管機構(gòu)已計劃跟進,表示正在考慮暫時禁用ChatGPT,緊隨其后,法國、愛爾蘭、西班牙等歐洲國家的數(shù)據(jù)監(jiān)管也相繼表達了類似擔憂。
OpenAI面臨的壓力可謂與日俱增。除歐洲外,加拿大方面已經(jīng)采取行動,其隱私監(jiān)管機構(gòu)宣布因數(shù)據(jù)違規(guī)問題對OpenAI展開調(diào)查。而在美國,拜登也會見了科技顧問,討論AI帶來的風險和機遇,并表示將加強監(jiān)管。
為了打消疑慮和擔憂,OpenAI也在積極行動。當?shù)貢r間4月5日晚,OpenAI CEO薩姆·阿爾特曼表示將于次日向意大利數(shù)據(jù)保護局提交相應措施。意大利數(shù)據(jù)保護局表示將評估OpenAI的方案,該機構(gòu)同時強調(diào),他們無意阻礙人工智能技術(shù)的發(fā)展。同日,OpenAI還在官網(wǎng)發(fā)布了題為《我們保障AI安全的方法》的文章,介紹了該公司為保障安全性在六個方面進行的部署。
但在隱私和數(shù)據(jù)安全之外,ChatGPT生成錯誤事實的“幻覺”問題也開始在現(xiàn)實世界中掀起波瀾。
據(jù)路透社4月5日報道,澳大利亞赫本郡市長布賴恩·胡德(Brian Hood)稱在ChatGPT生成的內(nèi)容里,自己因賄賂東南亞官員而被判處30個月監(jiān)禁,這與事實完全不符,但“其中有些段落卻是絕對精確的,包括數(shù)字、姓名、日期、地點等”。
胡德表示,如果OpenAI不糾正ChatGPT關(guān)于其曾因賄賂入獄服刑的虛假說法,他可能會起訴OpenAI,這將是針對生成式AI的第一起誹謗訴訟。
對于意大利暫時封禁ChatGPT的做法,中國人民大學高瓴人工智能學院教授、首個中文通用多模態(tài)預訓練模型“文瀾B(tài)riVL”的主要設(shè)計者盧志武認為這并不明智。
“一個新技術(shù)總會有好的和不好的方面,不能說因為有不好的地方就把它禁掉。汽車會造成車禍,難道就因此把汽車禁掉嗎?歐洲本來在AI方面就落后于美國,與中國也有差距,禁掉之后不是會更差么?”他對《每日經(jīng)濟新聞》記者解釋稱。
“像隱私問題和AI生成內(nèi)容以假亂真的問題,可以通過法律手段去約束AI模型,這樣研發(fā)者在訓練模型時就會規(guī)避這些風險。”盧志武進一步說道。
此外,法律還可以規(guī)定使用者必須對AI生成的圖片和視頻等內(nèi)容進行標注,假如國家法律部門檢測到未標注的生成內(nèi)容,可以采取懲罰措施。“特別是新聞相關(guān)的內(nèi)容,一定不能是AI生成的,否則就亂套了,成為了假新聞。”盧志武表示。
盧志武認為,AI法律完善的目標就是讓AI的開發(fā)者和使用者都“心里有數(shù)”,但對于新生事物的法律監(jiān)管有滯后性,這在AI上也不例外。
針對AI生成內(nèi)容的事實錯誤問題,盧志武認為可以通過工程手段解決,比如先利用搜索引擎去搜索互聯(lián)網(wǎng)上的檔案性內(nèi)容,然后再利用這些內(nèi)容生成答案,這樣能在很大程度上消除事實性錯誤。
自我迭代更可怕?
數(shù)據(jù)安全和錯誤內(nèi)容是生成式AI帶來的緊迫而現(xiàn)實的問題,但尚可以通過技術(shù)和法律手段加以規(guī)避。隨著AI技術(shù)的飛速發(fā)展,人類可能面臨從未遇到過的新威脅。
近日,馬斯克、圖靈獎得主本吉奧等1000余名科技大佬發(fā)表聯(lián)名公開信,呼吁所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統(tǒng)至少6個月。公開信指出,AI最終可能超越人類,使人類失去對文明的掌控能力。截至發(fā)稿,這份公開信的簽名人數(shù)已經(jīng)超18000人。
盧志武對《每日經(jīng)濟新聞》記者稱,這份公開信的目的是呼吁大家重視大語言模型的安全性,但實際上沒有操作性,因為沒有相應的全球權(quán)威機構(gòu)出面來暫停大型AI模型的實驗。
在ChatGPT展現(xiàn)出強大的對話能力時,人類也越來越擔心:會不會AI系統(tǒng)在迅速進化的過程中“涌現(xiàn)”出自我意識?
“未來有沒有我不敢說,但至少從GPT-4來看,它是不會產(chǎn)生意識的。”盧志武對記者表示。“但我們開發(fā)AI的終極目標是實現(xiàn)AGI(通用人工智能),就是讓AI模型表現(xiàn)得像人一樣。如果要達到這個目標,那么這個過程中真的有可能失控。”
在盧志武看來,所謂的失控并不是AI出現(xiàn)意識,而是AI學會了自我迭代。“AI模型自己不停地學習,甚至創(chuàng)造出新的東西來,而這個過程又在人類的監(jiān)控之外。這種自我學習是非常容易實現(xiàn)的,我覺得這才是AI最大的威脅。”
近日,研究人員Noah Shinn和Ashwin Gopinath在預印本網(wǎng)站arxiv提交論文稱,通過引入“反思”技術(shù),GPT-4在多項高難度測試中的表現(xiàn)提升了30%。據(jù)悉,這種技術(shù)讓AI系統(tǒng)模仿人類的自我反思,并評估自己的表現(xiàn),“GPT-4在完成各種測試的時候,會增加一些額外的步驟,讓它能夠自己設(shè)計測試來檢查自己的答案,找出錯誤和不足之處,然后根據(jù)發(fā)現(xiàn)來修改自己的解決方案。”
盧志武認為,AI學會自我迭代所產(chǎn)生的后果難以具體想象,但如果一個東西在不停地變強而人類卻不知道,這是“最可怕的”。未來,假如AI模型和機器人進行結(jié)合,則AI就可以產(chǎn)生動作,“你都不知道它是不是會拿起槍來做什么事情”。
而實際上,科學家已經(jīng)在探索如何將生成式AI與機器人相結(jié)合。微軟的科學家2月份發(fā)布論文稱,他們正在研究利用ChatGPT來操控機器人,以實現(xiàn)以自然語言與機器人交互的目的,并展示了無人機和機械臂的操作案例。
封面圖片來源:新華社
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權(quán),嚴禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟新聞APP