當(dāng)以后的人們?yōu)槿斯ぶ悄埽ˋI)撰寫(xiě)一部編年史時(shí),這可能是一個(gè)里程碑。
因?yàn)檫@是人類(lèi)第一次由一個(gè)龐大的國(guó)際頂尖專(zhuān)家組,就先進(jìn)AI的風(fēng)險(xiǎn)推進(jìn)全球政策制定。
人們已清晰認(rèn)識(shí)到:我們離不開(kāi)AI,亦需要大力推動(dòng)AI技術(shù)發(fā)展,但我們必須有能力防范其中的風(fēng)險(xiǎn)。
自6個(gè)月前在英國(guó)布萊奇利公園舉行第一屆AI安全峰會(huì)以來(lái),世界各國(guó)領(lǐng)導(dǎo)人承諾以負(fù)責(zé)任的方式管理AI,但是AI專(zhuān)家認(rèn)為這依然不夠。隨著第二屆AI安全峰會(huì)(5月21日至22日)在韓國(guó)首爾舉行,25位世界頂尖AI科學(xué)家呼吁,全世界應(yīng)對(duì)AI風(fēng)險(xiǎn)采取更強(qiáng)有力的行動(dòng)。
發(fā)表于《科學(xué)》雜志的一份專(zhuān)家共識(shí)文章中,專(zhuān)家組概述了全球應(yīng)采取的緊急政策優(yōu)先事項(xiàng)。文章作者之一、英國(guó)牛津大學(xué)工程科學(xué)系教授菲利普·托爾表示:“在上屆AI峰會(huì)上,世界一致認(rèn)為我們需要采取行動(dòng),而現(xiàn)在是時(shí)候?qū)⒛:慕ㄗh轉(zhuǎn)變?yōu)榫唧w的承諾了。”
安全性研究嚴(yán)重匱乏
這25位全球頂尖的AI及其治理專(zhuān)家來(lái)自中國(guó)、美國(guó)、歐盟、英國(guó)和其他AI技術(shù)強(qiáng)國(guó),其中包括圖靈獎(jiǎng)獲得者以及諾貝爾獎(jiǎng)獲得者。這也是首次由國(guó)際專(zhuān)家組就AI風(fēng)險(xiǎn)的全球政策制定達(dá)成一致。
文章指出,全球領(lǐng)導(dǎo)人需認(rèn)真考慮,在未來(lái)十年內(nèi)可能開(kāi)發(fā)出超越人類(lèi)能力的通用AI系統(tǒng)。他們表示,盡管世界各國(guó)政府一直在討論先進(jìn)AI,并嘗試引入初步指導(dǎo)方針,但這與許多專(zhuān)家期望的快速、變革性進(jìn)展仍有距離。
目前關(guān)于AI安全的研究嚴(yán)重缺乏,只有1%—3%的AI出版物涉及相關(guān)安全問(wèn)題。此外,全球沒(méi)有適當(dāng)?shù)臋C(jī)制或機(jī)構(gòu)來(lái)防止濫用和魯莽行為,包括如何使用能獨(dú)立采取行動(dòng)和自行實(shí)現(xiàn)目標(biāo)的自治系統(tǒng)。
在快速發(fā)展中防范極端風(fēng)險(xiǎn)
文章建議,各國(guó)政府需建立可快速行動(dòng)的AI監(jiān)管機(jī)構(gòu),并為這些機(jī)構(gòu)提供資金。美國(guó)AI安全研究所目前的年度預(yù)算為1000萬(wàn)美元,聽(tīng)起來(lái)并不少,但相比之下,美國(guó)食品和藥物管理局(FDA)的預(yù)算達(dá)67億美元。
AI領(lǐng)域需要更嚴(yán)格的風(fēng)險(xiǎn)評(píng)估并制定可執(zhí)行的措施,而不是依賴(lài)一些不甚明確的模型評(píng)估。應(yīng)要求AI研發(fā)企業(yè)優(yōu)先考慮安全性,并證明其系統(tǒng)不會(huì)造成傷害,AI開(kāi)發(fā)人員要承擔(dān)起證明安全性的責(zé)任。
人們還要有一個(gè)與AI系統(tǒng)帶來(lái)的風(fēng)險(xiǎn)水平相稱(chēng)的緩解辦法,解決之道是制定一個(gè)“自動(dòng)”政策,當(dāng)AI達(dá)到某些能力里程碑時(shí)“自動(dòng)觸發(fā)”——如果AI發(fā)展迅速,這一嚴(yán)格的要求就會(huì)自動(dòng)生效;如果進(jìn)展緩慢,要求將相應(yīng)放緩。
對(duì)于能力超凡的未來(lái)AI系統(tǒng),政府必須作好帶頭監(jiān)管的準(zhǔn)備。這包括許可開(kāi)發(fā),限制其在關(guān)鍵社會(huì)角色中的自主權(quán),停止部署部分能力,強(qiáng)制執(zhí)行訪(fǎng)問(wèn)控制,以及要求對(duì)國(guó)家級(jí)黑客采取強(qiáng)有力的信息安全手段,直到人們準(zhǔn)備好足夠的保護(hù)措施。
謹(jǐn)記AI不是玩具
不列顛哥倫比亞大學(xué)AI教授、強(qiáng)化學(xué)習(xí)領(lǐng)域?qū)<医芊?middot;克倫納表示,太空飛行、核武器和互聯(lián)網(wǎng)等技術(shù)在數(shù)年內(nèi)就從科幻變成了現(xiàn)實(shí),AI也不例外。“我們現(xiàn)在必須為那些看似科幻小說(shuō)的風(fēng)險(xiǎn)做好準(zhǔn)備”。
現(xiàn)在,AI已經(jīng)在黑客攻擊、社交操縱和戰(zhàn)略規(guī)劃等關(guān)鍵領(lǐng)域取得了快速進(jìn)展,并可能很快帶來(lái)前所未有的關(guān)于“控制”的挑戰(zhàn)。AI系統(tǒng)可能會(huì)為了實(shí)現(xiàn)某個(gè)“不良目的”而騙取人類(lèi)信任、獲取資源并影響關(guān)鍵決策者。為了避免人為干預(yù),它們還可以在全球服務(wù)器網(wǎng)絡(luò)上復(fù)制自身算法。
在這種情況下,大規(guī)模網(wǎng)絡(luò)犯罪、社會(huì)操縱和其他危害會(huì)因此迅速升級(jí)。而在公開(kāi)沖突中,AI系統(tǒng)能自主部署各種武器,甚至包括生物武器。因此,當(dāng)AI的進(jìn)步不受控制,很可能最終導(dǎo)致大規(guī)模生命損失、生物圈破壞、人類(lèi)邊緣化甚至滅絕。
美國(guó)加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授斯圖爾特·盧塞爾表示:“此次是權(quán)威專(zhuān)家的共識(shí)文章,其呼吁政府嚴(yán)格監(jiān)管,而不是自愿制定一些規(guī)范行業(yè)的行為。”
“企業(yè)可能抱怨說(shuō)滿(mǎn)足這些法規(guī)太難,但所謂‘法規(guī)扼殺創(chuàng)新’的說(shuō)法是荒謬的。”盧塞爾這樣說(shuō),“是時(shí)候認(rèn)真對(duì)待先進(jìn)AI系統(tǒng)了,它們不是玩具。在我們了解如何確保它們的安全性之前,輕易增強(qiáng)它們的能力是完全魯莽的行為。”
當(dāng)以后的人們?yōu)槿斯ぶ悄埽ˋI)撰寫(xiě)一部編年史時(shí),這可能是一個(gè)里程碑。
因?yàn)檫@是人類(lèi)第一次由一個(gè)龐大的國(guó)際頂尖專(zhuān)家組,就先進(jìn)AI的風(fēng)險(xiǎn)推進(jìn)全球政策制定。
人們已清晰認(rèn)識(shí)到:我們離不開(kāi)AI,亦需要大力推動(dòng)AI技術(shù)發(fā)展,但我們必須有能力防范其中的風(fēng)險(xiǎn)。
自6個(gè)月前在英國(guó)布萊奇利公園舉行第一屆AI安全峰會(huì)以來(lái),世界各國(guó)領(lǐng)導(dǎo)人承諾以負(fù)責(zé)任的方式管理AI,但是AI專(zhuān)家認(rèn)為這依然不夠。隨著第二屆AI安全峰會(huì)(5月21日至22日)在韓國(guó)首爾舉行,25位世界頂尖AI科學(xué)家呼吁,全世界應(yīng)對(duì)AI風(fēng)險(xiǎn)采取更強(qiáng)有力的行動(dòng)。
發(fā)表于《科學(xué)》雜志的一份專(zhuān)家共識(shí)文章中,專(zhuān)家組概述了全球應(yīng)采取的緊急政策優(yōu)先事項(xiàng)。文章作者之一、英國(guó)牛津大學(xué)工程科學(xué)系教授菲利普·托爾表示:“在上屆AI峰會(huì)上,世界一致認(rèn)為我們需要采取行動(dòng),而現(xiàn)在是時(shí)候?qū)⒛:慕ㄗh轉(zhuǎn)變?yōu)榫唧w的承諾了。”
安全性研究嚴(yán)重匱乏
這25位全球頂尖的AI及其治理專(zhuān)家來(lái)自中國(guó)、美國(guó)、歐盟、英國(guó)和其他AI技術(shù)強(qiáng)國(guó),其中包括圖靈獎(jiǎng)獲得者以及諾貝爾獎(jiǎng)獲得者。這也是首次由國(guó)際專(zhuān)家組就AI風(fēng)險(xiǎn)的全球政策制定達(dá)成一致。
文章指出,全球領(lǐng)導(dǎo)人需認(rèn)真考慮,在未來(lái)十年內(nèi)可能開(kāi)發(fā)出超越人類(lèi)能力的通用AI系統(tǒng)。他們表示,盡管世界各國(guó)政府一直在討論先進(jìn)AI,并嘗試引入初步指導(dǎo)方針,但這與許多專(zhuān)家期望的快速、變革性進(jìn)展仍有距離。
目前關(guān)于AI安全的研究嚴(yán)重缺乏,只有1%—3%的AI出版物涉及相關(guān)安全問(wèn)題。此外,全球沒(méi)有適當(dāng)?shù)臋C(jī)制或機(jī)構(gòu)來(lái)防止濫用和魯莽行為,包括如何使用能獨(dú)立采取行動(dòng)和自行實(shí)現(xiàn)目標(biāo)的自治系統(tǒng)。
在快速發(fā)展中防范極端風(fēng)險(xiǎn)
文章建議,各國(guó)政府需建立可快速行動(dòng)的AI監(jiān)管機(jī)構(gòu),并為這些機(jī)構(gòu)提供資金。美國(guó)AI安全研究所目前的年度預(yù)算為1000萬(wàn)美元,聽(tīng)起來(lái)并不少,但相比之下,美國(guó)食品和藥物管理局(FDA)的預(yù)算達(dá)67億美元。
AI領(lǐng)域需要更嚴(yán)格的風(fēng)險(xiǎn)評(píng)估并制定可執(zhí)行的措施,而不是依賴(lài)一些不甚明確的模型評(píng)估。應(yīng)要求AI研發(fā)企業(yè)優(yōu)先考慮安全性,并證明其系統(tǒng)不會(huì)造成傷害,AI開(kāi)發(fā)人員要承擔(dān)起證明安全性的責(zé)任。
人們還要有一個(gè)與AI系統(tǒng)帶來(lái)的風(fēng)險(xiǎn)水平相稱(chēng)的緩解辦法,解決之道是制定一個(gè)“自動(dòng)”政策,當(dāng)AI達(dá)到某些能力里程碑時(shí)“自動(dòng)觸發(fā)”——如果AI發(fā)展迅速,這一嚴(yán)格的要求就會(huì)自動(dòng)生效;如果進(jìn)展緩慢,要求將相應(yīng)放緩。
對(duì)于能力超凡的未來(lái)AI系統(tǒng),政府必須作好帶頭監(jiān)管的準(zhǔn)備。這包括許可開(kāi)發(fā),限制其在關(guān)鍵社會(huì)角色中的自主權(quán),停止部署部分能力,強(qiáng)制執(zhí)行訪(fǎng)問(wèn)控制,以及要求對(duì)國(guó)家級(jí)黑客采取強(qiáng)有力的信息安全手段,直到人們準(zhǔn)備好足夠的保護(hù)措施。
謹(jǐn)記AI不是玩具
不列顛哥倫比亞大學(xué)AI教授、強(qiáng)化學(xué)習(xí)領(lǐng)域?qū)<医芊?middot;克倫納表示,太空飛行、核武器和互聯(lián)網(wǎng)等技術(shù)在數(shù)年內(nèi)就從科幻變成了現(xiàn)實(shí),AI也不例外。“我們現(xiàn)在必須為那些看似科幻小說(shuō)的風(fēng)險(xiǎn)做好準(zhǔn)備”。
現(xiàn)在,AI已經(jīng)在黑客攻擊、社交操縱和戰(zhàn)略規(guī)劃等關(guān)鍵領(lǐng)域取得了快速進(jìn)展,并可能很快帶來(lái)前所未有的關(guān)于“控制”的挑戰(zhàn)。AI系統(tǒng)可能會(huì)為了實(shí)現(xiàn)某個(gè)“不良目的”而騙取人類(lèi)信任、獲取資源并影響關(guān)鍵決策者。為了避免人為干預(yù),它們還可以在全球服務(wù)器網(wǎng)絡(luò)上復(fù)制自身算法。
在這種情況下,大規(guī)模網(wǎng)絡(luò)犯罪、社會(huì)操縱和其他危害會(huì)因此迅速升級(jí)。而在公開(kāi)沖突中,AI系統(tǒng)能自主部署各種武器,甚至包括生物武器。因此,當(dāng)AI的進(jìn)步不受控制,很可能最終導(dǎo)致大規(guī)模生命損失、生物圈破壞、人類(lèi)邊緣化甚至滅絕。
美國(guó)加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授斯圖爾特·盧塞爾表示:“此次是權(quán)威專(zhuān)家的共識(shí)文章,其呼吁政府嚴(yán)格監(jiān)管,而不是自愿制定一些規(guī)范行業(yè)的行為。”
“企業(yè)可能抱怨說(shuō)滿(mǎn)足這些法規(guī)太難,但所謂‘法規(guī)扼殺創(chuàng)新’的說(shuō)法是荒謬的。”盧塞爾這樣說(shuō),“是時(shí)候認(rèn)真對(duì)待先進(jìn)AI系統(tǒng)了,它們不是玩具。在我們了解如何確保它們的安全性之前,輕易增強(qiáng)它們的能力是完全魯莽的行為。”
本文鏈接:http://www.3ypm.com.cn/news-2-5164-0.html科學(xué)家呼吁:采取更強(qiáng)有力行動(dòng)防范AI風(fēng)險(xiǎn)
聲明:本網(wǎng)頁(yè)內(nèi)容由互聯(lián)網(wǎng)博主自發(fā)貢獻(xiàn),不代表本站觀點(diǎn),本站不承擔(dān)任何法律責(zé)任。天上不會(huì)到餡餅,請(qǐng)大家謹(jǐn)防詐騙!若有侵權(quán)等問(wèn)題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。
點(diǎn)擊右上角微信好友
朋友圈
點(diǎn)擊瀏覽器下方“”分享微信好友Safari瀏覽器請(qǐng)點(diǎn)擊“”按鈕
點(diǎn)擊右上角QQ
點(diǎn)擊瀏覽器下方“”分享QQ好友Safari瀏覽器請(qǐng)點(diǎn)擊“”按鈕