北京時間5月14日凌晨,美國開放人工智能研究中心(OpenAI)發(fā)布了其下一代大型語言模型GPT-4o,人工智能(AI)領(lǐng)域再起硝煙。
盡管AI一詞已很普及,但其內(nèi)部運作方式仍像黑箱操作一樣,是一個謎。因為AI依賴機器學習算法,而先進的機器學習算法使用模擬人腦結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),信息在不同神經(jīng)元間傳遞,以人類不易理解的方式內(nèi)化數(shù)據(jù),缺乏可視化和透明度。
這個問題對ChatGPT等大型語言模型(LLM)來說尤其嚴重,部分原因在于它們規(guī)模龐大,有些LLM擁有數(shù)千億甚至上萬億個參數(shù)。
英國《自然》雜志網(wǎng)站在15日的報道中指出,為洞悉LLM的黑箱操作,科學家正對AI系統(tǒng)進行逆向工程。他們掃描LLM的“大腦”,以揭示它們在做什么、如何做以及為什么這樣做等謎團。
談話療法
由于聊天機器人可以進行對話,一些研究人員就讓模型自我解釋,以了解其工作原理。這種方法類似于心理學中使用的“談話療法”。
德國斯圖加特大學計算機科學家蒂洛·哈根德夫表示,人腦和LLM都像是一個“黑箱”,而心理學有能力研究它。
去年,哈根德夫發(fā)表了一篇關(guān)于“機器心理學”的文章。他認為,通過將LLM視為人類主體,讓其參與對話,可以闡明其復雜行為。
面對復雜問題,人類在潛意識里會進行分步驟推理。受此啟發(fā),谷歌團隊2022年引入了“思維鏈提示”,以描述一種讓LLM展示其“思維”的方法。
簡單來說,思維鏈提示是一種特殊的上下文學習。不同于標準提示只給出輸入—輸出,思維鏈提示還會額外增加推理過程。
該方法在GPT-3等三個大型語言模型上都得到了驗證:對比標準提示,新方法在一系列算術(shù)推理任務(wù)上的準確率都有了顯著提高。但美國紐約大學研究人員的一項最新研究表明:LLM并沒有利用思維鏈的推理能力,它只是偷偷加了計算。
美國東北大學計算機科學家戴維·鮑表示,盡管以研究人類的方式研究LLM有點奇怪,但兩者的行為卻以令人驚訝的方式重疊。在過去兩年里,許多科學家將用于人類的問卷和實驗應用于LLM,測量了其人格、推理、偏見、道德價值觀、創(chuàng)造力、情緒、服從性等。結(jié)果顯示,在許多情況下,機器能復制人類行為。但在有些情況下,它們的行為與人類行為不一樣。例如,LLM比人類更容易受到暗示,其行為也會隨著問題措辭的不同而發(fā)生巨大變化。
腦部掃描
一些科學家從神經(jīng)科學領(lǐng)域汲取技巧,以此來探索LLM的內(nèi)部工作原理。
為研究聊天機器人是如何進行欺騙的,美國卡內(nèi)基梅隆大學計算機專家安迪·鄒及其合作者詢問了LLM,并觀察了它們神經(jīng)元的激活情況。鄒指出,這有點像對人類進行腦部神經(jīng)成像掃描,也有點像使用測謊儀。
研究人員多次讓LLM撒謊或說實話,并測量了神經(jīng)元活動模式的差異。然后,每當向模型提出一個新問題時,他們都可以觀察其活動,并判斷答案是否真實。在一個簡單任務(wù)中,該方法的準確率超過90%。鄒表示,此類系統(tǒng)可以實時檢測出LLM不誠實行為。
鮑及其同事則開發(fā)了掃描和編輯人工智能神經(jīng)網(wǎng)絡(luò)的方法,包括一種他們稱之為因果追蹤的技術(shù),以確定AI“大腦”中以特定方式回答問題的部分。
鮑指出,人工神經(jīng)網(wǎng)絡(luò)的好處在于,可以在它們身上做神經(jīng)科學家夢寐以求的實驗,比如可以觀察每一個神經(jīng)元、運行數(shù)百萬次網(wǎng)絡(luò)、進行各種瘋狂的測量和干預,且做這些都不必獲得同意書。
打破不可解釋性
鄒和鮑等人提出LLM掃描技術(shù)采用自上而下的方法,將概念或事實歸因于潛在的神經(jīng)表征。還有一些科學家則使用自下而上的方法,即觀察神經(jīng)元并詢問它們代表什么。
神經(jīng)元的不可解釋性,一直是AI領(lǐng)域的“老大難”問題。2023年,來自Anthropic公司的一個團隊提出了一種方法,成功將512個神經(jīng)元分解成了4096個可解釋特征,從而讓其具有了可解釋性。
研究人員表示,他們這一方法很有可能克服AI不可解釋性這一巨大障礙。一旦人類了解LLM工作原理,就能很容易地判斷其是否安全,從而決定它是否應該被社會和企業(yè)采用。
不過,鄒表示,盡管這種方法很有價值,但不太適合解釋更復雜的AI行為。
盡管研究人員仍在努力弄清楚AI如何工作,但人們越來越達成一致意見:AI公司應該努力為其模型提供解釋,政府也應該制定相關(guān)法規(guī)來執(zhí)行這一點。
北京時間5月14日凌晨,美國開放人工智能研究中心(OpenAI)發(fā)布了其下一代大型語言模型GPT-4o,人工智能(AI)領(lǐng)域再起硝煙。
盡管AI一詞已很普及,但其內(nèi)部運作方式仍像黑箱操作一樣,是一個謎。因為AI依賴機器學習算法,而先進的機器學習算法使用模擬人腦結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),信息在不同神經(jīng)元間傳遞,以人類不易理解的方式內(nèi)化數(shù)據(jù),缺乏可視化和透明度。
這個問題對ChatGPT等大型語言模型(LLM)來說尤其嚴重,部分原因在于它們規(guī)模龐大,有些LLM擁有數(shù)千億甚至上萬億個參數(shù)。
英國《自然》雜志網(wǎng)站在15日的報道中指出,為洞悉LLM的黑箱操作,科學家正對AI系統(tǒng)進行逆向工程。他們掃描LLM的“大腦”,以揭示它們在做什么、如何做以及為什么這樣做等謎團。
談話療法
由于聊天機器人可以進行對話,一些研究人員就讓模型自我解釋,以了解其工作原理。這種方法類似于心理學中使用的“談話療法”。
德國斯圖加特大學計算機科學家蒂洛·哈根德夫表示,人腦和LLM都像是一個“黑箱”,而心理學有能力研究它。
去年,哈根德夫發(fā)表了一篇關(guān)于“機器心理學”的文章。他認為,通過將LLM視為人類主體,讓其參與對話,可以闡明其復雜行為。
面對復雜問題,人類在潛意識里會進行分步驟推理。受此啟發(fā),谷歌團隊2022年引入了“思維鏈提示”,以描述一種讓LLM展示其“思維”的方法。
簡單來說,思維鏈提示是一種特殊的上下文學習。不同于標準提示只給出輸入—輸出,思維鏈提示還會額外增加推理過程。
該方法在GPT-3等三個大型語言模型上都得到了驗證:對比標準提示,新方法在一系列算術(shù)推理任務(wù)上的準確率都有了顯著提高。但美國紐約大學研究人員的一項最新研究表明:LLM并沒有利用思維鏈的推理能力,它只是偷偷加了計算。
美國東北大學計算機科學家戴維·鮑表示,盡管以研究人類的方式研究LLM有點奇怪,但兩者的行為卻以令人驚訝的方式重疊。在過去兩年里,許多科學家將用于人類的問卷和實驗應用于LLM,測量了其人格、推理、偏見、道德價值觀、創(chuàng)造力、情緒、服從性等。結(jié)果顯示,在許多情況下,機器能復制人類行為。但在有些情況下,它們的行為與人類行為不一樣。例如,LLM比人類更容易受到暗示,其行為也會隨著問題措辭的不同而發(fā)生巨大變化。
腦部掃描
一些科學家從神經(jīng)科學領(lǐng)域汲取技巧,以此來探索LLM的內(nèi)部工作原理。
為研究聊天機器人是如何進行欺騙的,美國卡內(nèi)基梅隆大學計算機專家安迪·鄒及其合作者詢問了LLM,并觀察了它們神經(jīng)元的激活情況。鄒指出,這有點像對人類進行腦部神經(jīng)成像掃描,也有點像使用測謊儀。
研究人員多次讓LLM撒謊或說實話,并測量了神經(jīng)元活動模式的差異。然后,每當向模型提出一個新問題時,他們都可以觀察其活動,并判斷答案是否真實。在一個簡單任務(wù)中,該方法的準確率超過90%。鄒表示,此類系統(tǒng)可以實時檢測出LLM不誠實行為。
鮑及其同事則開發(fā)了掃描和編輯人工智能神經(jīng)網(wǎng)絡(luò)的方法,包括一種他們稱之為因果追蹤的技術(shù),以確定AI“大腦”中以特定方式回答問題的部分。
鮑指出,人工神經(jīng)網(wǎng)絡(luò)的好處在于,可以在它們身上做神經(jīng)科學家夢寐以求的實驗,比如可以觀察每一個神經(jīng)元、運行數(shù)百萬次網(wǎng)絡(luò)、進行各種瘋狂的測量和干預,且做這些都不必獲得同意書。
打破不可解釋性
鄒和鮑等人提出LLM掃描技術(shù)采用自上而下的方法,將概念或事實歸因于潛在的神經(jīng)表征。還有一些科學家則使用自下而上的方法,即觀察神經(jīng)元并詢問它們代表什么。
神經(jīng)元的不可解釋性,一直是AI領(lǐng)域的“老大難”問題。2023年,來自Anthropic公司的一個團隊提出了一種方法,成功將512個神經(jīng)元分解成了4096個可解釋特征,從而讓其具有了可解釋性。
研究人員表示,他們這一方法很有可能克服AI不可解釋性這一巨大障礙。一旦人類了解LLM工作原理,就能很容易地判斷其是否安全,從而決定它是否應該被社會和企業(yè)采用。
不過,鄒表示,盡管這種方法很有價值,但不太適合解釋更復雜的AI行為。
盡管研究人員仍在努力弄清楚AI如何工作,但人們越來越達成一致意見:AI公司應該努力為其模型提供解釋,政府也應該制定相關(guān)法規(guī)來執(zhí)行這一點。
本文鏈接:http://www.3ypm.com.cn/news-2-5075-0.htmlChatGPT如何“思考”——科學家競相破解大型語言模型背后的謎團
聲明:本網(wǎng)頁內(nèi)容由互聯(lián)網(wǎng)博主自發(fā)貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。
點擊右上角微信好友
朋友圈
點擊瀏覽器下方“”分享微信好友Safari瀏覽器請點擊“”按鈕
點擊右上角QQ
點擊瀏覽器下方“”分享QQ好友Safari瀏覽器請點擊“”按鈕