“人工智能改變了安全格局,進(jìn)一步擴大了威脅,需要從多個層面進(jìn)行風(fēng)險管控。”在近日舉辦的第三屆人工智能合作與治理國際論壇上,針對目前人工智能帶來的風(fēng)險和挑戰(zhàn),中國工程院院士、鵬城實驗室主任高文認(rèn)為,在人的層面,應(yīng)加強倫理教育;在模型算法層面,期望它可信、可控、可解釋并且被正當(dāng)使用;在數(shù)據(jù)層面,期望建立充足的系統(tǒng)防護(hù)保證數(shù)據(jù)安全。
人工智能進(jìn)入從高速增長向高質(zhì)量增長轉(zhuǎn)變的新發(fā)展階段,對人工智能技術(shù)的安全性和可靠性提出了更多新要求。
在以“人工智能治理技術(shù)”為主題的第二場主論壇討論上,與會專家共同探討如何通過技術(shù)工具實現(xiàn)人工智能可知、可信、可控和可用,以及如何將產(chǎn)業(yè)監(jiān)管要求轉(zhuǎn)化為技術(shù)解決方案,開發(fā)針對人工智能行業(yè)或應(yīng)用的治理技術(shù)與服務(wù)。
建設(shè)可信賴人工智能
高文認(rèn)為,強人工智能安全風(fēng)險來源于3個方面,一是模型的不可解釋性,二是算法和硬件的不可靠性,三是自主意識的不可控性。對于這些,一方面要在設(shè)計及應(yīng)用階段采取預(yù)防和檢測措施,另一方面要加強國際合作,相互取長補短,還要加強人才培養(yǎng)。
對于數(shù)據(jù)安全問題,他認(rèn)為隱私保護(hù)和數(shù)據(jù)有效使用是一對矛盾,需要做到平衡。鵬城實驗室所采用的“防水堡”技術(shù),為保護(hù)模型訓(xùn)練數(shù)據(jù)安全共享和使用提供了解決思路。該技術(shù)可以做到只分享價值、不分享數(shù)據(jù),在保證原始數(shù)據(jù)不移動的情況下使數(shù)據(jù)可用。
美國哥倫比亞大學(xué)常務(wù)副校長、計算機科學(xué)系教授周以真介紹了正在推動的“值得信賴的人工智能”研究議程。該議程的目的在于把人工智能、網(wǎng)絡(luò)安全和形式化方法三者聚集在一起。她指出,一些人工智能系統(tǒng)可能是脆弱和不公平的,因此需要努力實現(xiàn)可信賴的人工智能。
“可信賴計算意味著可靠性、安全性、可用性,要考慮準(zhǔn)確性、穩(wěn)健性、公平性,針對問責(zé)制、透明度、可解釋性、道德倫理等設(shè)置人工智能執(zhí)行的任務(wù)和環(huán)境。除了必要的測試、模擬和良好的軟件工程實踐外,還要構(gòu)建可信系統(tǒng)的事后驗證方法,即用數(shù)據(jù)模型、代碼程序滿足我們關(guān)心的正確性屬性、安全性屬性、活性屬性等性質(zhì),并通過列舉研究問題應(yīng)用形式化方法,嘗試實現(xiàn)人工智能系統(tǒng)的可信度。”周以真說。
清華大學(xué)智能產(chǎn)業(yè)研究院首席研究員聶再清認(rèn)為,安全可信是人工智能治理的核心訴求,安全可信的人工智能技術(shù)產(chǎn)品需要具備安全可控、數(shù)據(jù)資產(chǎn)和隱私保護(hù)、可解釋性等條件。他以車路協(xié)同感知為例,講解了自動駕駛領(lǐng)域如何通過多傳感器的協(xié)同感知,提升人工智能協(xié)同內(nèi)部可靠性,從而提高人工智能安全性。
“例如面向營養(yǎng)健康管理的可解釋個性化推薦,需要‘引導(dǎo)式’而非‘迎合式’信息推薦,提升用戶依從性并充分考慮營養(yǎng)健康因素,避免迎合式的飲食推薦。”聶再清說。
“治理技術(shù)”創(chuàng)新應(yīng)對風(fēng)險挑戰(zhàn)
近年來,人工智能應(yīng)用領(lǐng)域進(jìn)一步拓展。面對新興技術(shù)可能帶來的巨大收益和潛在風(fēng)險,與會專家高度關(guān)注其治理問題。
從技術(shù)角度或技術(shù)應(yīng)用角度,怎樣才能實現(xiàn)人工智能技術(shù)的可用、管用乃至好用?高文說:“很多技術(shù)在發(fā)展過程中,過早說哪個不能用可能會抑制技術(shù)本身的發(fā)展,現(xiàn)階段更多是從道德層面引導(dǎo),盡量把一些可能的風(fēng)險抑制工具想明白。”
聶再清認(rèn)為,創(chuàng)新和監(jiān)管之間需要平衡,一方面,從事研發(fā)的個人有責(zé)任保證將工具或創(chuàng)新控制在危險可控范圍內(nèi);另一方面社會也要集體監(jiān)督,確保某個出現(xiàn)問題的產(chǎn)品或技術(shù)能夠回滾、撤銷。
“技術(shù)可解釋性需要將技術(shù)發(fā)展與應(yīng)用場景深度結(jié)合,在不同領(lǐng)域需要不同的可解釋能力及可解釋級別,讓技術(shù)在應(yīng)用場景下發(fā)揮最好的作用。”瑞萊智慧(RealAI)公司聯(lián)合創(chuàng)始人及首席執(zhí)行官田天指出。
新技術(shù)往往會給現(xiàn)有社會倫理規(guī)范帶來沖擊,現(xiàn)階段是否有必要設(shè)計一部分可操作的具體規(guī)則,特別是將倫理準(zhǔn)則嵌入到人工智能產(chǎn)品與系統(tǒng)研發(fā)設(shè)計中?
田天表示,在發(fā)展階段需要以鼓勵為主,各種人工智能難免涉及一些模糊地帶,一方面不能一棒子打死導(dǎo)致技術(shù)無法進(jìn)步,另一方面也要設(shè)立一些紅線,制定清晰的懲罰規(guī)定確保人工智能不觸犯人類利益。在此基礎(chǔ)上,給智能應(yīng)用留有更多空間,鼓勵重視倫理,提供正向激勵,促進(jìn)合規(guī)發(fā)展。
清華大學(xué)人工智能研究院常務(wù)副院長孫茂松認(rèn)為,應(yīng)鼓勵應(yīng)用、鼓勵創(chuàng)新,在行動中及時發(fā)現(xiàn)問題,及時改正,及時總結(jié)經(jīng)驗,使人工智能技術(shù)在應(yīng)用中更好地完善和發(fā)展。
關(guān)于人類自身偏見和歧視被寫進(jìn)代碼造成人工智能偏見與歧視的問題,聶再清認(rèn)為人工智能基于數(shù)據(jù)學(xué)習(xí)獲取知識錯誤并不是觀點歧視,而是能力不足。其有可能通過引入更多知識庫或知識圖譜得到提升,而不應(yīng)該在倫理層面過分拔高,更多還是解決訓(xùn)練數(shù)據(jù)問題。
本屆論壇由清華大學(xué)主辦,清華大學(xué)人工智能國際治理研究院承辦。
來源:《中國科學(xué)報》