“數(shù)字化進入新階段,我們面臨著全新的安全挑戰(zhàn)。”1月18日,中國社會科學院大學數(shù)字中國研究院舉辦“數(shù)字時代安全科技價值”專題研討會,中國社會科學院大學數(shù)字中國研究院執(zhí)行院長呂鵬在會上說,“安全風險呈現(xiàn)出快迭代、高智能、全覆蓋的新特點。尤其是有了生成式人工智能以后,關注人工智能的安全風險更加緊迫。”
研討會上發(fā)布了《數(shù)字時代安全科技價值報告》。該報告指出,未來,安全科技將成為公共品,與人工智能(以下簡稱AI)并列成為兩項通用技術。具體來看,AI作為核心關鍵技術,將成為未來生產(chǎn)力的“發(fā)動機”。安全科技將作為“方向盤”,把新興科技控制在向善的道路上。新的安全技術發(fā)展得越好,個人與社會為數(shù)字化轉(zhuǎn)型所付出的代價也將越小。
安全科技將成為公共品
“當人們提到安全科技時,想到的往往是防病毒軟件和防火墻軟件。但全球安全科技的版圖和技術工具已遠遠超過這個范圍。”呂鵬介紹,“在網(wǎng)絡安全、系統(tǒng)安全之外,還有數(shù)據(jù)安全、終端安全、AI安全、云安全等技術門類,也包括區(qū)塊鏈、隱私計算、量子計算等前沿技術。”
浙江工業(yè)大學網(wǎng)絡空間安全研究院院長宣琦指出,本質(zhì)上,安全科技是一種伴生技術。它永遠在面向新科技、新發(fā)展。比如,伴隨AI發(fā)展提出智能安全,針對生物科技提出生物安全。新技術的發(fā)展有時非??焖?,所以安全技術的發(fā)展和創(chuàng)新也同樣在高速進行。
中國社會科學院科學技術和社會研究中心研究員段偉文認為,未來,安全科技必將成為公共品。整體來看,安全科技具有“壓艙石”與“助燃劑”的雙重價值:守住技術的安全底線,防御外部風險隱患,讓技術“難作惡”;提高技術的安全上限,降低技術運行成本,讓新技術得以規(guī)?;涞兀尞a(chǎn)業(yè)在安全的基礎上“跑起來”。
呂鵬舉例說明安全科技在產(chǎn)業(yè)發(fā)展中的應用。“北京中鐵建工物資有限公司和螞蟻蟻盾共建產(chǎn)業(yè)風控平臺,用數(shù)據(jù)智能防范上下游的協(xié)作風險,產(chǎn)生了較好的效果。”呂鵬說,“工作效率提高了50%以上,產(chǎn)業(yè)授信額度的評定科學化、可量化程度也得到大幅提高。風險預測、預警、事后風險處置等都更好更精準。”
AI安全風險主要分三類
2023年,AI大模型安全風險凸顯。AI技術在帶來強有力的新工具的同時,也帶來數(shù)據(jù)隱私、技術濫用、失控等安全問題。“加強對AI這一新興技術的潛在風險研判和防范,確保AI安全、可靠、可控,已成為產(chǎn)業(yè)發(fā)展的核心要素。”呂鵬說。
在段偉文看來,AI安全風險目前來看主要可以分為三類:內(nèi)生風險、衍生風險、外生風險。
在內(nèi)生風險方面,AI存在技術本身的脆弱性、對數(shù)據(jù)的依賴性等自身缺陷帶來的安全問題。比如,如果給數(shù)據(jù)庫不斷投喂帶有特定價值觀的數(shù)據(jù),會對AI系統(tǒng)形成嚴重干擾,產(chǎn)生“數(shù)據(jù)偏見”“觀點霸權”等問題。衍生風險是指AI系統(tǒng)因其自身脆弱性被利用或不恰當使用,可能引發(fā)其他領域的安全問題。例如生成虛假新聞、利用深度合成偽造進行詐騙等,這涉及人身安全、隱私保護等一系列社會治理挑戰(zhàn)。外生風險也就是面向AI系統(tǒng)的外部網(wǎng)絡攻擊。
《數(shù)字時代安全科技價值報告》認為,當前,安全風險變得更加復雜隱蔽、強對抗、更具破壞力,將AI驅(qū)動的業(yè)務風控系統(tǒng)建設得更強、更智能,更好地應對大規(guī)模網(wǎng)絡攻擊與入侵,成為行業(yè)健康發(fā)展的必需。過去幾年,通過應用AI來提高安全技術的效率和成功率,已經(jīng)成為技術領先企業(yè)的常態(tài)。業(yè)界開始推出“大模型質(zhì)檢”類安全產(chǎn)品,成為推進大模型安全健康發(fā)展的方式之一。
“快”“慢”結(jié)合維護大模型安全
呂鵬指出,AI技術發(fā)展給安全治理增加挑戰(zhàn)的同時,也形成AI安全治理的“新工具箱”。
談到“用AI對抗AI”的具體產(chǎn)業(yè)實踐,他介紹,一方面,可以使用智能對抗技術向大模型“投射問題”,觀察模型生成的回答,以此實現(xiàn)對AI生成圖片、視頻等多模內(nèi)容進行“真?zhèn)?rdquo;辨別和安全性檢測。另一方面,通過智能化風控技術,可以幫助大模型攔截外界的惡意提問,確保外部惡意誘導無法傳入大模型。同時,對生成的回答內(nèi)容能夠進行風險過濾,保障大模型上線后從用戶輸入到生成輸出實現(xiàn)整體安全防御。
整體來看,通過從已有數(shù)據(jù)中學習,AI可以更快地識別攻擊的模式和趨勢,從而預測未來攻擊,并配置自動響應威脅功能,在更快的時間內(nèi)對抗網(wǎng)絡威脅。
呂鵬表示,維護大模型安全既要“快”也要“慢”。大模型安全防御方面要“快”,要能快速檢測、查殺病毒,確保服務無毒害。大模型安全可信方面要“慢”,要能長遠地、體系化地保證整個系統(tǒng)環(huán)境的可控、可信。
“數(shù)字化進入新階段,我們面臨著全新的安全挑戰(zhàn)。”1月18日,中國社會科學院大學數(shù)字中國研究院舉辦“數(shù)字時代安全科技價值”專題研討會,中國社會科學院大學數(shù)字中國研究院執(zhí)行院長呂鵬在會上說,“安全風險呈現(xiàn)出快迭代、高智能、全覆蓋的新特點。尤其是有了生成式人工智能以后,關注人工智能的安全風險更加緊迫。”
研討會上發(fā)布了《數(shù)字時代安全科技價值報告》。該報告指出,未來,安全科技將成為公共品,與人工智能(以下簡稱AI)并列成為兩項通用技術。具體來看,AI作為核心關鍵技術,將成為未來生產(chǎn)力的“發(fā)動機”。安全科技將作為“方向盤”,把新興科技控制在向善的道路上。新的安全技術發(fā)展得越好,個人與社會為數(shù)字化轉(zhuǎn)型所付出的代價也將越小。
安全科技將成為公共品
“當人們提到安全科技時,想到的往往是防病毒軟件和防火墻軟件。但全球安全科技的版圖和技術工具已遠遠超過這個范圍。”呂鵬介紹,“在網(wǎng)絡安全、系統(tǒng)安全之外,還有數(shù)據(jù)安全、終端安全、AI安全、云安全等技術門類,也包括區(qū)塊鏈、隱私計算、量子計算等前沿技術。”
浙江工業(yè)大學網(wǎng)絡空間安全研究院院長宣琦指出,本質(zhì)上,安全科技是一種伴生技術。它永遠在面向新科技、新發(fā)展。比如,伴隨AI發(fā)展提出智能安全,針對生物科技提出生物安全。新技術的發(fā)展有時非??焖?,所以安全技術的發(fā)展和創(chuàng)新也同樣在高速進行。
中國社會科學院科學技術和社會研究中心研究員段偉文認為,未來,安全科技必將成為公共品。整體來看,安全科技具有“壓艙石”與“助燃劑”的雙重價值:守住技術的安全底線,防御外部風險隱患,讓技術“難作惡”;提高技術的安全上限,降低技術運行成本,讓新技術得以規(guī)?;涞?,讓產(chǎn)業(yè)在安全的基礎上“跑起來”。
呂鵬舉例說明安全科技在產(chǎn)業(yè)發(fā)展中的應用。“北京中鐵建工物資有限公司和螞蟻蟻盾共建產(chǎn)業(yè)風控平臺,用數(shù)據(jù)智能防范上下游的協(xié)作風險,產(chǎn)生了較好的效果。”呂鵬說,“工作效率提高了50%以上,產(chǎn)業(yè)授信額度的評定科學化、可量化程度也得到大幅提高。風險預測、預警、事后風險處置等都更好更精準。”
AI安全風險主要分三類
2023年,AI大模型安全風險凸顯。AI技術在帶來強有力的新工具的同時,也帶來數(shù)據(jù)隱私、技術濫用、失控等安全問題。“加強對AI這一新興技術的潛在風險研判和防范,確保AI安全、可靠、可控,已成為產(chǎn)業(yè)發(fā)展的核心要素。”呂鵬說。
在段偉文看來,AI安全風險目前來看主要可以分為三類:內(nèi)生風險、衍生風險、外生風險。
在內(nèi)生風險方面,AI存在技術本身的脆弱性、對數(shù)據(jù)的依賴性等自身缺陷帶來的安全問題。比如,如果給數(shù)據(jù)庫不斷投喂帶有特定價值觀的數(shù)據(jù),會對AI系統(tǒng)形成嚴重干擾,產(chǎn)生“數(shù)據(jù)偏見”“觀點霸權”等問題。衍生風險是指AI系統(tǒng)因其自身脆弱性被利用或不恰當使用,可能引發(fā)其他領域的安全問題。例如生成虛假新聞、利用深度合成偽造進行詐騙等,這涉及人身安全、隱私保護等一系列社會治理挑戰(zhàn)。外生風險也就是面向AI系統(tǒng)的外部網(wǎng)絡攻擊。
《數(shù)字時代安全科技價值報告》認為,當前,安全風險變得更加復雜隱蔽、強對抗、更具破壞力,將AI驅(qū)動的業(yè)務風控系統(tǒng)建設得更強、更智能,更好地應對大規(guī)模網(wǎng)絡攻擊與入侵,成為行業(yè)健康發(fā)展的必需。過去幾年,通過應用AI來提高安全技術的效率和成功率,已經(jīng)成為技術領先企業(yè)的常態(tài)。業(yè)界開始推出“大模型質(zhì)檢”類安全產(chǎn)品,成為推進大模型安全健康發(fā)展的方式之一。
“快”“慢”結(jié)合維護大模型安全
呂鵬指出,AI技術發(fā)展給安全治理增加挑戰(zhàn)的同時,也形成AI安全治理的“新工具箱”。
談到“用AI對抗AI”的具體產(chǎn)業(yè)實踐,他介紹,一方面,可以使用智能對抗技術向大模型“投射問題”,觀察模型生成的回答,以此實現(xiàn)對AI生成圖片、視頻等多模內(nèi)容進行“真?zhèn)?rdquo;辨別和安全性檢測。另一方面,通過智能化風控技術,可以幫助大模型攔截外界的惡意提問,確保外部惡意誘導無法傳入大模型。同時,對生成的回答內(nèi)容能夠進行風險過濾,保障大模型上線后從用戶輸入到生成輸出實現(xiàn)整體安全防御。
整體來看,通過從已有數(shù)據(jù)中學習,AI可以更快地識別攻擊的模式和趨勢,從而預測未來攻擊,并配置自動響應威脅功能,在更快的時間內(nèi)對抗網(wǎng)絡威脅。
呂鵬表示,維護大模型安全既要“快”也要“慢”。大模型安全防御方面要“快”,要能快速檢測、查殺病毒,確保服務無毒害。大模型安全可信方面要“慢”,要能長遠地、體系化地保證整個系統(tǒng)環(huán)境的可控、可信。
本文鏈接:http://www.3ypm.com.cn/news-2-1094-0.htmlAI技術為安全治理提供“新工具箱”
聲明:本網(wǎng)頁內(nèi)容由互聯(lián)網(wǎng)博主自發(fā)貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。
上一篇:演訓場成為科技成果“應用田”
下一篇:新單抗藥物可顯著降低中風死亡風險
點擊右上角微信好友
朋友圈
點擊瀏覽器下方“”分享微信好友Safari瀏覽器請點擊“”按鈕
點擊右上角QQ
點擊瀏覽器下方“”分享QQ好友Safari瀏覽器請點擊“”按鈕