亚洲狠狠,一级黄色大片,日韩在线第一区视屏,韩国作爱视频久久久久,亚洲欧美国产精品专区久久,青青草华人在线视频,国内精品久久影视免费

每日經濟新聞
產業(yè)趨勢

每經網首頁 > 產業(yè)趨勢 > 正文

人工智能“黑箱算法”致安全性隱患 業(yè)內建言治理與發(fā)展同步

每日經濟新聞 2021-08-04 19:15:05

◎“第二代人工智能的算法是‘黑箱算法’。這種深度學習算法本身就是不安全的,容易受到攻擊。”張鈸以識別一匹馬來舉例,人工智能是通過馬的各種各樣的局部特征在連續(xù)數據空間里面進行分類,以達到和其他動物區(qū)分開來的目的,人工智能的識別和人類視覺的認識完全不同,人工智能的算法非常脆弱,容易受到欺騙。

每經記者 可楊    實習生 湯小權    每經編輯 梁梟    

“人工智能技術發(fā)展的過程中出現(xiàn)了一個全新的問題,也就是安全問題,這主要來源于算法本身的不安全性,因而是非常難以解決的。”中國科學院院士、清華大學人工智能研究院名譽院長、瑞萊智慧首席科學家張鈸認為。

人工智能在為人們生活不斷帶來便利的同時,數據隱私、算法偏見、技術濫用等安全性問題給社會公共治理與產業(yè)智能化轉型帶來不容忽視的挑戰(zhàn)。

8月3日,由北京市經濟和信息化局和海淀區(qū)人民政府主辦的“2021人工智能產業(yè)治理論壇”在京召開,會上發(fā)布了《人工智能產業(yè)擔當宣言》。

瑞萊智慧CEO田天在會后接受《每日經濟新聞》專訪時表示,讓人工智能更好地服務于人類,是產業(yè)共同的目標,人工智能科技公司應該具備社會責任感和自律意識,積極主動開展自治工作,同時開放共享、協(xié)同治理。

第二代人工智能算法存在脆弱性

田天在接受《每日經濟新聞》記者專訪時指出,人工智能安全問題的緊迫性正在提升。

具體而言,從直觀感受上,各類人工智能安全問題正集中出現(xiàn),比如人臉識別的濫用、大數據“殺熟”、個人信息的不當索取、算法對外賣騎手的控制等問題正引發(fā)越來越多關于人工智能安全性問題的爭議。

而另一方面,伴隨人工智能產業(yè)化已經從點覆蓋到面,滲透到更多行業(yè)特定場景,尤其是一些高價值、高復雜度的場景,安全問題的“危險性”被隨之放大,。

張鈸在演講中闡述觀點稱,人工智能發(fā)展過程中出現(xiàn)的安全性問題,主要是第二代人工智能算法本身的不安全性造成的。

“第二代人工智能的算法是‘黑箱算法’。這種深度學習算法本身就是不安全的,容易受到攻擊。”張鈸以識別一匹馬來舉例,人工智能是通過馬的各種各樣的局部特征在連續(xù)數據空間里面進行分類,以達到和其他動物區(qū)分開來的目的,人工智能的識別和人類視覺的認識完全不同,人工智能的算法非常脆弱,容易受到欺騙。

張鈸認為,解決人工智能的不安全性有兩個途徑。其一是治理,從法律法規(guī)、倫理規(guī)范、行業(yè)共識等不同層面去“治標”;其二是創(chuàng)新發(fā)展,克服人工智能算法本身的不安全性,從技術創(chuàng)新層面“治本”。

治理包含兩個方面:防止對人工智能技術無意識的誤用和有意識的濫用。無意識的誤用是指人工智能算法本身帶來不安全問題是很難被預先發(fā)現(xiàn)或覺察的,使用時要避免錯用造成嚴重的后果;有意識的濫用是指利用人工智能的算法的不安全性進行惡意攻擊,需要用法律法規(guī)加以制止。而創(chuàng)新發(fā)展則指的是發(fā)展第三代人工智能,更加任重道遠,

不存在治理阻礙發(fā)展的矛盾

人工智能的發(fā)展是為了人類。縱覽人工智能技術近10年的發(fā)展,人工智能在金融、醫(yī)療、安防、教育、交通等多個領域實現(xiàn)落地,且應用場景也愈加豐富。

國家新一代人工智能治理專委會委員、聯(lián)合國教科文組織人工智能倫理特設專家組專家曾毅在論壇中表示:“我們(指行業(yè))希望人工智能以人類為本,希望它能夠賦能可持續(xù)的發(fā)展”,他闡述,“可持續(xù)的人工智能”包括技術本身的可持續(xù)性和全球可持續(xù)發(fā)展目標的實現(xiàn)。

“2021人工智能產業(yè)治理論壇”現(xiàn)場

圖片來源:每經記者 可楊 攝

“很多人說到底是治理先行還是發(fā)展優(yōu)先?它們之間從來不是競爭關系。”曾毅指出,人工智能的治理并不存在發(fā)展優(yōu)先還是治理先行的矛盾,人工智能穩(wěn)健發(fā)展的兩大前提是可持續(xù)發(fā)展和人工智能的善治,兩者深度協(xié)同。

中國社科院科技哲學研究室主任、科學技術和社會研究中心主任段偉文在演講中則重點談到了數字時代的社會信任危機與重建。他認為,數字技術與人工智能產業(yè)發(fā)展的倫理風險帶來了諸多社會信任問題,面對既先發(fā)制人也溯及既往的數字治理趨勢,人工智能企業(yè)應直面社會許可的挑戰(zhàn),認真感知公眾對科技企業(yè)的認知和評價。

段偉文建議,人工智能企業(yè)不應回避社會監(jiān)督,而是不斷思考、重塑科技的社會印象,技術改進和倫理設計要齊頭并進,攜手走向共建性的人工智能倫理治理。

基于可持續(xù)發(fā)展的愿望,《人工智能產業(yè)擔當宣言》發(fā)布。宣言由北京智源人工智能研究院、瑞萊智慧聯(lián)合發(fā)起,百度、華為、螞蟻集團、寒武紀、愛筆科技、第四范式、出門問問等人工智能行業(yè)的核心骨干企業(yè)、學術研究機構共同參與。

“我想不是所有的問題在30年之內就能夠找到答案,所以需要我們企業(yè)需要我們的學術機構形成真正多方共治的共同體,來面對人工智能將面臨的近期、遠期的問題,真正使人工智能賦能由我們人類和其他生命、環(huán)境構成的未來的和諧共生的社會。”曾毅認為,行業(yè)內亟須同步倫理監(jiān)管、技術規(guī)范、應用評估等治理共識。

封面圖片來源:視覺中國

如需轉載請與《每日經濟新聞》報社聯(lián)系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。

讀者熱線:4008890008

特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

人工智能 Ai

歡迎關注每日經濟新聞APP

每經經濟新聞官方APP

0

0