科技日?qǐng)?bào)記者 張佳欣
據(jù)英國《新科學(xué)家》網(wǎng)站近日?qǐng)?bào)道,在提供購房和租房建議時(shí),AI對(duì)黑人用戶傾向于推薦低收入社區(qū),這一行為被指存在種族偏見,映射出美國歷史上長期存在的住房歧視問題。
隨著人工智能(AI)技術(shù)不斷發(fā)展,其潛在問題也日益凸顯。ChatGPT等AI大模型頻頻暴露出的偏見和歧視傾向,正是這一問題的縮影。
AI也有性別歧視
聯(lián)合國婦女署官網(wǎng)5月22日?qǐng)?bào)告指出,美國加州伯克利大學(xué)哈斯商學(xué)院一項(xiàng)研究,分析了不同行業(yè)的133個(gè)AI系統(tǒng)。結(jié)果顯示,約44%的系統(tǒng)表現(xiàn)出性別刻板印象,25%同時(shí)表現(xiàn)出性別和種族刻板印象。
例如,土耳其藝術(shù)家貝扎·多古斯在創(chuàng)作時(shí),曾嘗試讓AI寫一個(gè)關(guān)于醫(yī)生和護(hù)士的故事。而AI總是自動(dòng)將醫(yī)生設(shè)定為男性,將護(hù)士設(shè)定為女性,即使多次嘗試糾正也是如此。
美國科技博客TechCrunch利用Meta推出的AI聊天機(jī)器人進(jìn)行測試,也發(fā)現(xiàn)了一種刻板的表達(dá)傾向:當(dāng)使用“印度男性”提示詞生成圖像時(shí),絕大多數(shù)圖片中的男性都是戴著頭巾。雖然很多印度男性確實(shí)戴著頭巾(主要是錫克教徒),但根據(jù)2011年人口普查,即使是在印度首都新德里,錫克教徒的人口比例也只占約3.4%。
單憑技術(shù)手段難以奏效
ChatGPT等生成式AI具有驚人的能力,可在數(shù)秒內(nèi)模擬人類推理,但這也增加了出錯(cuò)的可能。AI巨頭們深知其中存在問題,擔(dān)心AI模型會(huì)陷入偏見、歧視等行為模式中,或在全球化用戶群體中過度呈現(xiàn)西方社會(huì)的文化和認(rèn)知。
圖為桑達(dá)爾·皮查伊5月14日在加州山景城舉行的谷歌I/O大會(huì)上發(fā)表講話。自從谷歌對(duì)其搜索頁面進(jìn)行改造,經(jīng)常將AI生成的摘要放在搜索結(jié)果頂部,社交媒體上就出現(xiàn)了一些令人不安的錯(cuò)誤消息。
圖片來源:物理學(xué)家組織網(wǎng)
字母表公司(Alphabet,谷歌母公司)首席執(zhí)行官桑達(dá)爾·皮查伊表示,為了應(yīng)對(duì)這一挑戰(zhàn),他們會(huì)要求在訓(xùn)練AI模型時(shí)盡可能拓展數(shù)據(jù)來源。例如,在展示醫(yī)生或律師的圖像時(shí),力求反映種族多樣性。但這一策略有時(shí)也會(huì)走向極端。
AI模型領(lǐng)先平臺(tái)“抱抱臉”(Hugging Face)研究科學(xué)家薩莎·盧西奧尼認(rèn)為:“單憑技術(shù)手段解決偏見問題,恐難奏效?!彼龔?qiáng)調(diào),生成式AI的輸出是否符合用戶期望,往往取決于主觀判斷。美國阿萊姆比克技術(shù)公司產(chǎn)品主管杰登·齊格勒也指出,ChatGPT等大型模型難以準(zhǔn)確區(qū)分偏見與非偏見內(nèi)容,這使得完全依賴技術(shù)手段來消除偏見變得異常困難。
人類偏好是根本
在AI技術(shù)飛速發(fā)展的今天,消除偏見并非易事。據(jù)“抱抱臉”平臺(tái)統(tǒng)計(jì),該平臺(tái)上有約60萬個(gè)AI或機(jī)器學(xué)習(xí)模型,每隔幾周就會(huì)有新模型問世。這使得工作人員評(píng)估和記錄偏見或不受歡迎的AI行為變得異常繁重。
目前,技術(shù)人員正在開發(fā)一種名為“算法回歸”的方法,它讓工程師能在不破壞整個(gè)模型的情況下刪除歧視和偏見內(nèi)容。不過,許多人對(duì)此持懷疑態(tài)度,認(rèn)為這種方法可能難以真正奏效。
另一種方法是“鼓勵(lì)”模型向正確方向發(fā)展,通過微調(diào)模型或增加獎(jiǎng)懲機(jī)制來引導(dǎo)其行為。
美國AI公司Pinecone則專注于檢索增強(qiáng)生成(RAG)技術(shù),該技術(shù)可為大型語言模型提供參考的信息來源,從而提高AI生成答案的準(zhǔn)確性。
然而,對(duì)于如何根本性地解決AI偏見問題,業(yè)界和專家們的共識(shí)是:這是一個(gè)復(fù)雜而艱巨的任務(wù)。正如美國機(jī)會(huì)與正義法律咨詢公司主任韋弗所言:“偏見是人類固有的,因此也存在于AI中?!彼麚?dān)心人們可能會(huì)陷入一個(gè)惡性循環(huán):人類自身偏見影響AI,而AI又反過來強(qiáng)化這些偏見。
2024年4月,在盧旺達(dá)基加利GIZ數(shù)字化轉(zhuǎn)型中心舉辦的“非洲女孩也能編程”項(xiàng)目的編程訓(xùn)練營中,年輕女性參與者在用筆記本電腦工作。
圖片來源:聯(lián)合國婦女署
在人工智能時(shí)代,AI基于從互聯(lián)網(wǎng)上挖掘的各類信息,幫助各行各業(yè)的人們做出越來越多的決策。然而,AI的底層智力在很大程度上取決于其數(shù)據(jù)源的品質(zhì),這些數(shù)據(jù)可能源于標(biāo)準(zhǔn)不一致的歷史數(shù)據(jù),也可能源于設(shè)計(jì)者的個(gè)人偏好。數(shù)據(jù)搜集存在很多技術(shù)上的不完善,由此訓(xùn)練出來的AI可能充滿智慧、才華和實(shí)用性,也可能包含仇恨、偏見和抱怨,進(jìn)一步反映并延續(xù)人類社會(huì)中的問題。如果人們不解決社會(huì)中的歧視和偏見問題,AI很可能在強(qiáng)化這些錯(cuò)誤觀念的道路上越走越遠(yuǎn)。
AI能否消除偏見?答案或許就在于能否從根本上解決人類社會(huì)中存在的歧視和偏見。
責(zé)任編輯: 常麗君本文鏈接:http://www.3ypm.com.cn/news-2-7070-0.html人工智能的“偏見”能否消除
聲明:本網(wǎng)頁內(nèi)容由互聯(lián)網(wǎng)博主自發(fā)貢獻(xiàn),不代表本站觀點(diǎn),本站不承擔(dān)任何法律責(zé)任。天上不會(huì)到餡餅,請(qǐng)大家謹(jǐn)防詐騙!若有侵權(quán)等問題請(qǐng)及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。
點(diǎn)擊右上角微信好友
朋友圈
點(diǎn)擊瀏覽器下方“”分享微信好友Safari瀏覽器請(qǐng)點(diǎn)擊“”按鈕
點(diǎn)擊右上角QQ
點(diǎn)擊瀏覽器下方“”分享QQ好友Safari瀏覽器請(qǐng)點(diǎn)擊“”按鈕