如何對抗算法偏見?| Physics World 專欄

pixabay.com
Physics World 的這篇文章,探討了人工智能中的種族和性別偏見問題,以及物理學(xué)家們可以如何認(rèn)識和解決這些問題。
作者|Juliana Photopoulos
● ● ●
2011年,在佐治亞理工學(xué)院攻讀本科學(xué)位時,加納裔美國計(jì)算機(jī)科學(xué)家喬伊·布奧蘭維尼(Joy Buolamwini)發(fā)現(xiàn),機(jī)器人無法陪她玩一把簡單的躲貓貓游戲——因?yàn)闄C(jī)器無法識別她黑色的臉龐。2015年,麻省理工學(xué)院媒體實(shí)驗(yàn)室的碩士研究生布奧蘭維尼參加了一個名為 “Aspire Mirror” 的科學(xué)藝術(shù)項(xiàng)目,在處理面部分析軟件時也遇到了類似的問題:只有當(dāng)她戴上白色面罩時,軟件才能檢測到她的臉。
這兩件事只是巧合嗎?
好奇心驅(qū)使布奧蘭維尼去探索這其中的奧秘。她將自己的照片上傳到四個不同的面部識別系統(tǒng)中,但結(jié)果都不如人意:要么根本識別不出是一張人臉,要么就是性別不對。她把系統(tǒng)的這種偏見稱為 “編碼凝視”(coded gaze)。隨后,她決定對來自3個非洲國家和3個歐洲國家的1270名政客進(jìn)行面部測試,他們有著不同的面部特征、膚色和性別。這一測試成為了她的碩士論文項(xiàng)目:“性別陰影:商用性別分析中的交叉精度差異”(Gender Shades: Intersectional accuracy disparities in commercial gender classification)(圖1)。布奧蘭維尼發(fā)現(xiàn),由微軟,IBM和Megvii開發(fā)的三種商用面部識別技術(shù),在識別面部深色皮膚的女性時都會出錯,識錯率約35%。而在白人男性身上,它們的識別結(jié)果幾乎完美(99%)[1]。

圖1 精準(zhǔn)度大比較 | 圖源Joy Buolamwini
人們通常認(rèn)為,機(jī)器能做出更明智、更好和更客觀的決定,但這些現(xiàn)存的算法偏見,無疑消除了機(jī)器中立的概念,并且復(fù)制了社會現(xiàn)有的不平等現(xiàn)象。從黑人被誤標(biāo)記為大猩猩,到谷歌搜索 “黑人女孩” 或 “拉丁女孩” 彈出成人內(nèi)容,再到醫(yī)療設(shè)備對膚色較深的人而言效果不佳…… 很明顯,機(jī)器算法存在固有的歧視。
“這個不平等的社會充斥著種族主義和性別歧視,所以即使計(jì)算機(jī)編程人員心存善念,算法也會有偏見和歧視?!?來自紐約大學(xué)AI Now研究所的喬伊·利西·蘭金(Joy Lisi Rankin)說道,她是人工智能中性別、種族和權(quán)力研究項(xiàng)目的負(fù)責(zé)人,其著作包括《美國人民計(jì)算史》( A People’s History of Computing in the United States)[2]。“它們只會反映和放大世界上更大的偏見?!?/span>
物理學(xué)家越來越多地將人工智能和機(jī)器學(xué)習(xí)應(yīng)用到不同領(lǐng)域,從醫(yī)學(xué)物理到材料學(xué)等等。雖然他們可能認(rèn)為自己的研究只會應(yīng)用于物理學(xué),但他們的發(fā)現(xiàn)也可以轉(zhuǎn)化到社會層面。
“作為粒子物理學(xué)家,我們的主要目標(biāo)是開發(fā)工具和算法,以助我們找到超越標(biāo)準(zhǔn)模型的物理學(xué)。但不幸的是,我們沒有停下來思考,沒有料到這些工具和算法將如何在技術(shù)中得到廣泛應(yīng)用,并在社會中每天被用來進(jìn)一步壓迫邊緣化的個體,”杰西卡·埃斯基維爾(Jessica Esquivel)說道,他是伊利諾伊州芝加哥費(fèi)米國家加速器實(shí)驗(yàn)室(Fermilab)的物理學(xué)家和數(shù)據(jù)分析員,正致力于開發(fā)人工智能算法來增強(qiáng)Muon g-2實(shí)驗(yàn)中的束流存儲和優(yōu)化。
更重要的是,物理學(xué)中缺乏多樣性的現(xiàn)狀,不僅會影響到已完成的工作,也會影響正在被創(chuàng)建的系統(tǒng)?!靶詣e和種族的失衡問題,無疑是糾正人工智能中一些更廣泛的偏見問題的障礙?!?新澤西州普林斯頓大學(xué)的粒子物理和機(jī)器學(xué)習(xí)研究員薩凡納·泰斯(Savannah Thais)表示。這就是為什么物理學(xué)家需要意識到他們現(xiàn)有的偏見,更重要的是,作為一個群體,他們需要捫心自問:自己到底應(yīng)該做什么。
機(jī)器可以成為智能生物,這一想法已經(jīng)存在了幾個世紀(jì),古希臘和其他文明都有有關(guān)于機(jī)器人的神話。但直到第二次世界大戰(zhàn)之后,科學(xué)家、數(shù)學(xué)家和哲學(xué)家們才開始真正討論創(chuàng)造人工思維的可能性。
1950年,英國數(shù)學(xué)家阿蘭·圖靈(Alan Turing)提出了一個著名的問題:機(jī)器是否會思考?他提出用圖靈測試(Turing Test)來測量機(jī)器的智力。六年后,在新罕布什爾州漢諾威市的人工智能達(dá)特茅斯夏季研究項(xiàng)目期間,人工智能的研究領(lǐng)域正式成立。基于人類思維過程可以在計(jì)算機(jī)程序中被定義和復(fù)制的想法,“人工智能”(artificial intelligence)一詞由美國數(shù)學(xué)家約翰·麥卡錫(John McCarthy)首創(chuàng),取代了以前使用的 “自動機(jī)研究”(automata studies)。
雖然上世紀(jì)五六十年代奠定了人工智能和機(jī)器學(xué)習(xí)的基礎(chǔ),但這一領(lǐng)域真正實(shí)現(xiàn)騰飛還是花了一段時間?!爸钡竭^去10年間,強(qiáng)大的計(jì)算能力、標(biāo)記數(shù)據(jù)和高科技公司的財(cái)富才結(jié)合起來,使大規(guī)模的人工智能成為了可能?!?蘭金表示。而且,正如1983年麻省理工學(xué)院《學(xué)術(shù)界平等的障礙:計(jì)算機(jī)科學(xué)領(lǐng)域的女性》報(bào)告所強(qiáng)調(diào)的那樣 [3],盡管美國黑人和拉丁美裔婦女早在上世紀(jì)70年代就開始討論計(jì)算機(jī)中的歧視和不平等問題,但直到近十年間,有關(guān)計(jì)算機(jī)系統(tǒng)中的偏見問題才得到了更廣泛的討論。

實(shí)際上,自上世紀(jì)40到60年代,女性已經(jīng)成為了英美兩國計(jì)算機(jī)行業(yè)的核心,正因如此,計(jì)算機(jī)領(lǐng)域?qū)τ谂缘钠姴鸥钊梭@訝。
“計(jì)算機(jī)過去是 ‘人’,而不是機(jī)器,而且這些‘人’大多都是女性?!碧m金表示,“但當(dāng)她們被淘汰且被白人男性取而代之時,這個領(lǐng)域便發(fā)生了變化?!?正如她說的那樣:“計(jì)算機(jī)行業(yè)從女性化和不受重視變得聲望日盛和更加男性化?!笔聦?shí)上,上世紀(jì)80年代中期,在美國獲得計(jì)算機(jī)科學(xué)學(xué)位的所有畢業(yè)生中,將近40%是女性;但是到了2010年,這一比例已降至15%。
在科學(xué)、技術(shù)、工程、數(shù)學(xué)和醫(yī)學(xué)領(lǐng)域,計(jì)算機(jī)科學(xué)和物理一樣,從業(yè)者的性別差距都是最大的 [4]。盡管獲得物理學(xué)學(xué)位的女性人數(shù)有所增加,但在美國授予的所有學(xué)位類型中,女性所占比例僅為20%,黑人的比例則更低。2017年,美國僅有3%的物理學(xué)本科學(xué)位授予了黑人學(xué)生。在英國也存在著類似的問題,2018年英國所有本科生中,女性占了57.5%,但在所有物理學(xué)本科生中,黑人女性只占了1.7%。
這種性別和人種上的分布差異,對研究的構(gòu)建、進(jìn)行和實(shí)施都產(chǎn)生了嚴(yán)重的影響。蘭金表示,構(gòu)建算法技術(shù)時缺乏群體多樣性,而新興的技術(shù)又可能會傷害到婦女、有色人種、殘疾人和LGBTQ群體,這二者之間形成了一個有害的反饋循環(huán)。一個現(xiàn)實(shí)的例子就是亞馬遜的招聘算法,這一算法基于歷史的招聘實(shí)踐和申請人數(shù)據(jù),會首先拒絕女性的工作申請。最后,亞馬遜棄用了這一招聘算法,因?yàn)榧韧恼衅甘穼⑿詣e偏見深深刻進(jìn)了他們的系統(tǒng)中,無法確保招聘公平。
機(jī)器算法偏見中的許多問題在《偏見系統(tǒng)》(Discriminating Systems)這份報(bào)告中得到了解決 [5]?!镀娤到y(tǒng)》是AI Now研究所2019年的一份重要報(bào)告,報(bào)告表明,不應(yīng)將群體多樣性和人工智能的偏見問題分開來考慮,因?yàn)樗鼈兪?“同一問題的兩個方面”。蘭金補(bǔ)充說,職場性騷擾也與歧視和偏見有關(guān),她指出,據(jù)美國國家科學(xué)院、工程院和醫(yī)學(xué)院報(bào)告,科學(xué)領(lǐng)域中半數(shù)以上的女性教職員工都經(jīng)歷過某種形式的性騷擾。
泰斯表示,從多方來看,物理學(xué)中的多種聲音是至關(guān)重要的。她目前正在為歐洲核子研究組織(CERN)的高光度大型強(qiáng)子對撞機(jī)開發(fā)基于機(jī)器學(xué)習(xí)的加速重建算法?!按蟛糠治锢硌芯咳藛T沒有與受到這些算法影響的其他種族、性別和群體的人群直接接觸的經(jīng)驗(yàn)?!?埃斯基維爾認(rèn)為,正因如此,被邊緣化的科學(xué)家個體需要參與到算法的開發(fā)中來,以確保他們不會被偏見所淹沒。
美國斯坦福大學(xué)人工智能研究員普拉圖莎·卡盧里(Pratyusha Kalluri)也這樣認(rèn)為。她參與創(chuàng)建了 “激進(jìn)人工智能網(wǎng)絡(luò)”(Radical AI Network),該網(wǎng)絡(luò)提倡反壓迫技術(shù),并為那些被人工智能邊緣化的人發(fā)聲??ūR里去年在Nature 上寫道:“是時候把被邊緣化和受算法影響的群體置于人工智能研究的中心了,他們的需求、知識和夢想應(yīng)該指導(dǎo)技術(shù)的發(fā)展?!?[6]
讓我們回到費(fèi)米實(shí)驗(yàn)室。布萊恩·諾德(Brian Nord)是一位宇宙學(xué)家,他利用人工智能來尋找宇宙起源和進(jìn)化的線索。他解釋說:“在多年的觀測中,望遠(yuǎn)鏡掃描天空,收集包括圖像在內(nèi)的大量復(fù)雜數(shù)據(jù),而我則使用人工智能來分析這些數(shù)據(jù),以了解導(dǎo)致時空擴(kuò)張加速的暗能量?!?/span>
然而,2016年,他在閱讀了 ProPublica 的一份調(diào)查報(bào)告后意識到:人工智能可能有害且會對黑人產(chǎn)生偏見 [7]。該報(bào)告分析了一個名為COMPAS的風(fēng)險(xiǎn)評估軟件,該軟件在美國法庭上用于預(yù)測哪些罪犯最有可能再次犯罪,以及決定保釋條件。調(diào)查發(fā)現(xiàn),不論是所犯罪行的嚴(yán)重程度還是再次犯罪的實(shí)際可能性,黑人被貼上高風(fēng)險(xiǎn)標(biāo)簽的可能性幾乎是白人的兩倍。對此,諾德表示:“我非常擔(dān)心自己在開發(fā)算法時的‘共謀’行為,將來這些算法的應(yīng)用可能會對我不利?!?作為黑人,他知道面部識別技術(shù)對他這樣的人有偏見,經(jīng)常錯認(rèn)黑人,且監(jiān)管不嚴(yán)。
因此,雖然物理學(xué)家可能已經(jīng)開發(fā)出某種人工智能技術(shù)來解決純粹的科學(xué)問題,但在現(xiàn)實(shí)世界中,它的應(yīng)用卻超出了他們的控制范圍——人工智能的使用者可能會動機(jī)不純?!斑@更有可能使我的權(quán)利受到侵犯,剝奪我在群體、社會和生活各方面的權(quán)利,” 諾德說道。
對于這些問題,諾德決定不另起爐灶,而是建立一個由物理學(xué)家和計(jì)算機(jī)科學(xué)家組成的聯(lián)盟,以便在開發(fā)算法時爭取更多的審查。他指出,向美國執(zhí)法機(jī)構(gòu)和其他私人機(jī)構(gòu)提供面部識別設(shè)備的Clearview AI等公司,正在搜集社交媒體數(shù)據(jù),然后在未經(jīng)用戶明確同意的情況下向執(zhí)法部門出售監(jiān)控服務(wù)。他警告說,許多國家都在利用監(jiān)視技術(shù)對民眾進(jìn)行廣泛的壓迫,“以數(shù)據(jù)為主導(dǎo)的技術(shù)剝奪了人們的權(quán)利,例如數(shù)據(jù)隱私問題、數(shù)據(jù)和科學(xué)如何被用來侵犯民權(quán)、技術(shù)如何維護(hù)白人至上和監(jiān)視資本主義的歷史等,物理學(xué)家應(yīng)該致力于理解這些權(quán)力結(jié)構(gòu)?!?/span>
為了讓這個問題引起更廣泛的關(guān)注,諾德、埃斯奎維爾和其他同事給粒子物理學(xué)界寫了一封信。這也是 “雪團(tuán)” 項(xiàng)目(Snowmass)的一部分,“雪團(tuán)” 定期為美國和美國之外的粒子物理界的未來發(fā)展樹立科學(xué)遠(yuǎn)景。他們在信中討論了 “計(jì)算研究的倫理意義和科學(xué)家的角色”,強(qiáng)調(diào)了無論是作為個人、還是在各機(jī)構(gòu)和基金會任職的物理學(xué)家們,都應(yīng)該關(guān)心他們正在構(gòu)建和實(shí)施的算法 [8]。
泰斯還敦促物理學(xué)家們——這些有著深厚技術(shù)知識的公民們,積極參與到人工智能倫理的治理中來 [9]。她說:“讓物理學(xué)家們意識到人工智能和機(jī)器學(xué)習(xí)方面的偏見問題非常重要,即使在機(jī)器學(xué)習(xí)的物理學(xué)研究應(yīng)用中通常不會出現(xiàn)這種情況?!?泰斯解釋說,這樣做的原因之一是,許多物理學(xué)家離開原有領(lǐng)域,到計(jì)算機(jī)軟件、硬件和數(shù)據(jù)科技公司工作?!霸S多這樣的公司都在使用人工數(shù)據(jù),因此我們必須讓學(xué)生們提前具有責(zé)任意識。我們不能只教授技術(shù)技能,而忽視更廣泛的社會背景,因?yàn)樵S多人最終將把這些方法應(yīng)用到物理學(xué)之外。”
對此,泰斯和埃斯基維爾也都認(rèn)為,物理學(xué)家在理解和管理人工智能方面扮演著重要的角色,因?yàn)樗麄兺仨毷褂卯a(chǎn)出更精確輸出數(shù)據(jù)的方法,來解釋和量化系統(tǒng)的不確定性,然后才能抵消數(shù)據(jù)中的固有偏差。泰斯說:“有了這種更加 ‘黑匣子’ 化的機(jī)器學(xué)習(xí)算法后,我們真的很想了解它的準(zhǔn)確性,了解它在邊界情況下是如何工作的,以及它為什么在某個特定的問題上表現(xiàn)最好。而這些都是物理學(xué)家們曾完成過的任務(wù)?!?/span>
另一位利用物理學(xué)來提高人工智能精準(zhǔn)度和可靠性的研究人員,是帕耶爾·達(dá)斯(Payel Das),她是IBM托馬斯·J·沃森研究中心的首席研究員。為了設(shè)計(jì)新的材料和抗生素,她和團(tuán)隊(duì)正在開發(fā)機(jī)器學(xué)習(xí)算法:將從數(shù)據(jù)和物理原理結(jié)合起來,從而使一項(xiàng)新科學(xué)發(fā)現(xiàn)的成功率提高百倍。達(dá)斯說:“我們經(jīng)常借助已有的科學(xué)知識或其他形式的知識(例如基于物理學(xué)原理),來增強(qiáng)、指導(dǎo)或驗(yàn)證人工智能模型,以使其系統(tǒng)更耐用、高效、易于解釋和可靠?!?她對此做了進(jìn)一步解釋,即“通過使用物理學(xué)驅(qū)動的學(xué)習(xí),人們可以在準(zhǔn)確性、可靠性和歸納偏差等方面對人工智能模型進(jìn)行交叉檢查?!?/span>
算法決策工具可能是為科學(xué)研究而開發(fā)的,但被用于商業(yè)監(jiān)視,在這種情況下,數(shù)據(jù)中任何微小的偏差都會產(chǎn)生現(xiàn)實(shí)后果。
去年,數(shù)據(jù)倫理與創(chuàng)新中心(Centre for Data Ethics and Innovation)發(fā)表了一篇關(guān)于算法決策偏見的評論 [12]。該中心屬于英國政府的數(shù)據(jù)驅(qū)動和技術(shù)獨(dú)立咨詢機(jī)構(gòu)。研究發(fā)現(xiàn),過去幾年,在招聘、金融服務(wù)、警務(wù)和地方政府四個部門,算法決策有了顯著增長,并發(fā)現(xiàn)了算法偏見存在的明確證據(jù)。報(bào)告呼吁各組織積極利用數(shù)據(jù)來識別和減輕算法偏見,并確保了解其工具的功能和局限。來自愛丁堡大學(xué)的人工智能教授、貝葉斯中心(Bayes Centre)主任邁克爾·羅瓦佐斯(Michael Rovatsos)也表達(dá)了這種看法:“要想真正獲取數(shù)據(jù)或算法是非常困難的”,他補(bǔ)充說,政府應(yīng)要求公司進(jìn)行審計(jì),并應(yīng)該要求其在現(xiàn)實(shí)世界中應(yīng)用的系統(tǒng)保持透明。
就像布奧蘭維尼一樣,一些研究人員正試圖利用他們在人工智能方面的科學(xué)經(jīng)驗(yàn),從外部揭示商業(yè)算法中的偏見。其中包括數(shù)學(xué)家凱西·奧尼爾(Cathy O'Neil),她在2016年撰寫了《數(shù)學(xué)殺傷性武器》(Weapons of Math Destruction)一書,講述了她在數(shù)據(jù)偏見方面的工作。2018年,她成立了一家咨詢公司,并與公司私下合作,審核他們的算法。如今,布奧蘭維尼還在繼續(xù)她的工作,通過非盈利的算法正義聯(lián)盟(Algorithmic Justice League)創(chuàng)建更公平和負(fù)責(zé)任的技術(shù),這是她于2016年成立的一個跨學(xué)科研究機(jī)構(gòu),旨在了解人工智能技術(shù)的社會意義。

圖3 鏡子 | 圖源TJ Rak
計(jì)算機(jī)科學(xué)家喬伊·布奧蘭維尼(Joy Buolamwini)通過一些面部分析演示測試了自己的這張照片。微軟和Face++沒有檢測到她的臉,而IBM和Kairos搞錯了她的性別。
2018年,她與計(jì)算機(jī)科學(xué)家提姆尼特·格布魯(格布魯是 “Black in AI” 的創(chuàng)始人之一)共同發(fā)表了《性別陰影》(Gender Shades)研究報(bào)告,研究結(jié)果后被發(fā)送給了涉及到的公司。一年后,他們又進(jìn)行了一項(xiàng)后續(xù)研究以重新審核,并新增了兩家公司:亞馬遜和凱羅斯(Kairos) [13]。在計(jì)算機(jī)科學(xué)家、現(xiàn)任Mozilla基金會研究員黛博拉·拉吉的帶領(lǐng)下,該研究的后續(xù)調(diào)查發(fā)現(xiàn),這兩家公司存在巨大的精度錯誤——亞馬遜的面部識別軟件甚至無法對米歇爾·奧巴馬(Michelle Obama)臉進(jìn)行正確分類,但最初的三家公司識別精度已經(jīng)有了明顯改善,這表明他們的數(shù)據(jù)集是用更多樣化的圖像進(jìn)行訓(xùn)練的。
這兩項(xiàng)研究對現(xiàn)實(shí)世界產(chǎn)生了深遠(yuǎn)的影響:促成了兩項(xiàng)美國聯(lián)邦法案:《算法責(zé)任法案》(Algorithmic Accountability Act)和《禁止生物特征住房壁壘法案》(No Biometric Barriers Act),以及紐約和馬薩諸塞州的州法案。這項(xiàng)研究還說服了微軟、IBM和亞馬遜停止為警方辦案提供面部識別技術(shù)。如今,她正在繼續(xù)算法評估的工作,并在去年與谷歌的同事一起開發(fā)了一個用于人工智能準(zhǔn)確度的算法審計(jì)框架?!皟?nèi)部審計(jì)至關(guān)重要,因?yàn)樗试S在將系統(tǒng)被部署到世界各地之前對其進(jìn)行更改,” 她補(bǔ)充說,人工智能有時所涉及的偏見可能對特定人群有害,“因此,確定在這些決策中最易受傷害的群體,并對人工智能領(lǐng)域發(fā)展過程中可能引入偏見的時刻進(jìn)行審查是很重要的?!?/span>
2019年,AI Now研究所發(fā)布的一份詳細(xì)報(bào)告 [14],為有興趣負(fù)責(zé)人地使用算法決策工具的公共機(jī)構(gòu)提供了一個架構(gòu),并在隨后發(fā)布了算法問責(zé)政策工具包。該報(bào)告呼吁,人工智能和機(jī)器學(xué)習(xí)領(lǐng)域的研究人員應(yīng)該了解自己正在構(gòu)建什么,還要考慮從事領(lǐng)域的潛在風(fēng)險(xiǎn)和危害,并更好地記錄模型和數(shù)據(jù)來源。
埃斯基韋爾指出,物理學(xué)家了解其數(shù)據(jù)來源的重要性(尤其是用于訓(xùn)練機(jī)器學(xué)習(xí)系統(tǒng)的數(shù)據(jù)集),“許多用于粒子物理數(shù)據(jù)的算法都是經(jīng)過微調(diào)后的架構(gòu),由人工智能專家開發(fā),并經(jīng)過行業(yè)標(biāo)準(zhǔn)數(shù)據(jù)集訓(xùn)練。然而,這些數(shù)據(jù)后被證明充斥著種族主義、不公平對待和性別歧視?!?她以麻省理工學(xué)院為例:麻省理工學(xué)院刪除了曾廣泛使用的、擁有8000萬張圖像的人工智能數(shù)據(jù)集,因?yàn)檫@些圖像被以攻擊性的、種族主義的和厭女的方式貼上標(biāo)簽 [15]。
格布魯和同事最近還強(qiáng)調(diào)了大型數(shù)據(jù)集現(xiàn)存的一些問題,例如 Common Crawl ——一個網(wǎng)頁爬蟲數(shù)據(jù)的開放式儲存,其中充滿了白人至上主義、年齡歧視和厭女主義等觀點(diǎn)的過度代表 [16],而她最近也因?yàn)檫@篇文章被谷歌人工智能的倫理團(tuán)隊(duì)解雇?;谶@些現(xiàn)實(shí)情況,埃斯基韋爾清楚地表明:學(xué)術(shù)界 “有機(jī)會成為開發(fā)這些工具的公立第三方”。
在2019年的報(bào)告中, AI Now 研究所還建議對人工智能偏見領(lǐng)域的研究應(yīng)不止于技術(shù)修正。“我們不僅需要改變算法或系統(tǒng),還需要改變行業(yè)制度和社會結(jié)構(gòu),” 蘭金解釋說。她認(rèn)為,要想監(jiān)管、消除或盡量減少人工智能算法中的偏見和歧視,就必須采取 “大規(guī)模的集體行動”,讓自然科學(xué)界以外的人參與進(jìn)來也會對此有所裨益。
諾德也認(rèn)為,物理學(xué)家需要與其他學(xué)科的科學(xué)家及社會科學(xué)家、倫理學(xué)家們合作。
“不幸的是,就這些花費(fèi)了大量時間和精力進(jìn)行文獻(xiàn)和群體研究的各領(lǐng)域而言,我沒有看到物理學(xué)家或計(jì)算機(jī)科學(xué)家們充分參與進(jìn)來。” 他指出,“幾乎每隔幾周,就會有一個新的基于機(jī)器學(xué)習(xí)的應(yīng)用程序出現(xiàn),但它們糟糕、有害、毫無意義,甚至試圖去完成一些不可能和不道德的事情?!?/strong>例如,德克薩斯大學(xué)奧斯汀分校最近才停止使用一個機(jī)器學(xué)習(xí)系統(tǒng)預(yù)測研究生院錄取學(xué)生的可能性,該系統(tǒng)的數(shù)據(jù)基于此前的錄取周期,因此會產(chǎn)生算法上的偏見。對此,諾德問道:“為什么我們要在一個必然需要人文主義的地方尋求這種充斥著技術(shù)官僚主義的解決方案?”
對于算法偏見,泰斯堅(jiān)持認(rèn)為,物理學(xué)家必須厘清這些偏見問題的現(xiàn)狀,并了解其他人為緩解這些偏見而采取的方法?!拔覀儽仨殞⑦@些對話納入圍繞機(jī)器學(xué)習(xí)和人工智能的所有討論中?!?她希望物理學(xué)家們可以參加相關(guān)的會議、研討會或演講,“這項(xiàng)技術(shù)深刻影響著我們生活的方方面面,因此,不把相關(guān)工作放在更廣泛的社會背景下是不負(fù)責(zé)任的?!?/span>
對此,諾德的思考更加清晰:“物理學(xué)家們在自問是否 ‘能夠’ 構(gòu)建或施行某些人工智能技術(shù)之前,應(yīng)該先問自己是否 ‘應(yīng)該’?!?nbsp;他補(bǔ)充表示,將來也有可能會停止使用現(xiàn)行的一些有害技術(shù),“使用這些技術(shù)與否,即是個體也是社會的選擇?!?nbsp;
原文鏈接:
https://physicsworld.com/a/fighting-algorithmic-bias-in-artificial-intelligence/
▲ 本文為Physics World 專欄的第42篇文章。
原文標(biāo)題 “Fighting algorithmic bias in artificial intelligence ”,首發(fā)于2021年5月出版的Physics World,英國物理學(xué)會出版社授權(quán)《知識分子》翻譯。本譯文有刪節(jié),中文內(nèi)容僅供參考,一切內(nèi)容以英文原版為準(zhǔn)。未經(jīng)授權(quán)的翻譯是侵權(quán)行為,版權(quán)方將保留追究法律責(zé)任的權(quán)利。登陸 Physics World,關(guān)注日常全球科學(xué)新聞、熱點(diǎn)報(bào)道和評論。Physics World 幫助學(xué)界與產(chǎn)業(yè)界的研究人員走在世界重大科研突破與跨學(xué)科研究的前沿。
制版編輯 | 盧卡斯