張鈸
作為引領(lǐng)第四次科技革命的戰(zhàn)略性技術(shù),人工智能(AI)給社會建設(shè)和經(jīng)濟發(fā)展帶來了重大而深遠的影響。但數(shù)據(jù)隱私、算法偏見、技術(shù)濫用等安全問題正給社會公共治理與產(chǎn)業(yè)智能化轉(zhuǎn)型帶來嚴峻挑戰(zhàn)。
AI帶來的問題,首先是科技發(fā)展的共性問題??萍际前l(fā)展的利器,也可能成為風險的源頭,AI也不例外。
AI的發(fā)展將引發(fā)新一輪產(chǎn)業(yè)革命。一方面是傳統(tǒng)產(chǎn)業(yè)的智能化,比如網(wǎng)絡(luò)搜索中采取推薦算法、用戶畫像等,可以提高服務(wù)效率和質(zhì)量。另一方面是智能技術(shù)的產(chǎn)業(yè)化,催生了新的產(chǎn)業(yè),如智能交通、智慧醫(yī)療、智慧城市、自動駕駛等。與此同時,AI的發(fā)展也帶來了新的風險和安全隱患。因此,我們既要抓AI的創(chuàng)新發(fā)展,又要抓AI的治理,兩手都要抓。
其次是AI發(fā)展與治理中的特殊性問題,具體表現(xiàn)在算法層面、數(shù)據(jù)層面與應(yīng)用層面。
從算法層面看,現(xiàn)有的AI算法較脆弱,泛化能力較差,這意味著如果將算法運用到與訓(xùn)練場景區(qū)別很大的實際場景中,就會存在安全問題。以無人駕駛為例,AI訓(xùn)練的時候不可能窮盡所有情景,所以當遇到新的突發(fā)事件便無法處理,就會造成AI技術(shù)的誤用,這有可能是無意識的誤用。同時,這種脆弱性還使得AI系統(tǒng)容易被攻擊、被欺騙,給AI技術(shù)的濫用以可乘之機。
從數(shù)據(jù)層面看,現(xiàn)在AI應(yīng)用效果很大程度上依賴數(shù)據(jù)質(zhì)量,但由此會帶來隱私泄露、數(shù)據(jù)確權(quán)等問題。如果解決不好數(shù)據(jù)安全的問題,AI產(chǎn)業(yè)也不可能健康發(fā)展。
從應(yīng)用層面看,AI技術(shù)已經(jīng)逐漸對人們的生活造成沖擊,比如為保隱私戴頭盔去售樓處的看房人、困在算法里的外賣騎手等,還有深度偽造之類可能對社會造成重大影響的技術(shù),因此AI技術(shù)必須保證安全可控。
AI的創(chuàng)新發(fā)展是大道理??v觀信息科技的發(fā)展歷史,盡管信息科技發(fā)展異常迅猛,但基本上安全可控。而AI發(fā)展卻緩慢曲折,安全問題層出不窮。
二者的差別在于,從信息革命開始,信息的三大理論就已經(jīng)建立,即圖靈機理論(1936)、香農(nóng)的通信理論(1948)、維納的控制論(1948)。正因為有了堅實的理論基礎(chǔ),才引導(dǎo)信息技術(shù)健康發(fā)展。然而,AI的發(fā)展則相反,其基礎(chǔ)理論至今沒有建立。盡管經(jīng)歷了第一代AI的符號主義模型(知識驅(qū)動)和第二代AI的亞符號(連接)主義模型(數(shù)據(jù)驅(qū)動),但它們均有很大的局限性,不能構(gòu)成AI的理論基礎(chǔ)。由于缺乏理論指導(dǎo),AI的發(fā)展處于難以控制的局面。
當前,必須解決“卡脖子”的基礎(chǔ)理論問題。因此,建立AI的理論基礎(chǔ)是我們提出“第三代人工智能”的初衷。所謂的“第三代人工智能”,其發(fā)展路徑是融合第一代的知識驅(qū)動和第二代的數(shù)據(jù)驅(qū)動的AI,在前兩代理論的基礎(chǔ)上發(fā)展“第三代人工智能”基礎(chǔ)理論,建立一個完備的AI基礎(chǔ)理論。
具體的思路上,“第三代人工智能”利用知識、數(shù)據(jù)、算法和算力4個要素,建立新的可解釋和魯棒的AI理論及方法,從而發(fā)展安全、可信、可靠和可擴展的AI技術(shù)。這樣,發(fā)展“第三代人工智能”和AI治理一起進行,以達到相輔相成、共同發(fā)展的目的。
AI剛剛拉開序幕,更精彩的大戲正要上演。全世界應(yīng)共同來發(fā)展安全可控的“第三代人工智能”,讓AI真正造福于人類。
(作者系中國科學(xué)院院士,本報記者沈春蕾根據(jù)其在2021北京智源大會上的講話整理)
《中國科學(xué)報》 (2021-06-11 第1版 要聞)