如何對(duì)抗算法偏見(jiàn)?| Physics World 專欄

pixabay.com
Physics World 的這篇文章,探討了人工智能中的種族和性別偏見(jiàn)問(wèn)題,以及物理學(xué)家們可以如何認(rèn)識(shí)和解決這些問(wèn)題。
作者|Juliana Photopoulos
● ● ●
2011年,在佐治亞理工學(xué)院攻讀本科學(xué)位時(shí),加納裔美國(guó)計(jì)算機(jī)科學(xué)家喬伊·布奧蘭維尼(Joy Buolamwini)發(fā)現(xiàn),機(jī)器人無(wú)法陪她玩一把簡(jiǎn)單的躲貓貓游戲——因?yàn)闄C(jī)器無(wú)法識(shí)別她黑色的臉龐。2015年,麻省理工學(xué)院媒體實(shí)驗(yàn)室的碩士研究生布奧蘭維尼參加了一個(gè)名為 “Aspire Mirror” 的科學(xué)藝術(shù)項(xiàng)目,在處理面部分析軟件時(shí)也遇到了類似的問(wèn)題:只有當(dāng)她戴上白色面罩時(shí),軟件才能檢測(cè)到她的臉。
這兩件事只是巧合嗎?
好奇心驅(qū)使布奧蘭維尼去探索這其中的奧秘。她將自己的照片上傳到四個(gè)不同的面部識(shí)別系統(tǒng)中,但結(jié)果都不如人意:要么根本識(shí)別不出是一張人臉,要么就是性別不對(duì)。她把系統(tǒng)的這種偏見(jiàn)稱為 “編碼凝視”(coded gaze)。隨后,她決定對(duì)來(lái)自3個(gè)非洲國(guó)家和3個(gè)歐洲國(guó)家的1270名政客進(jìn)行面部測(cè)試,他們有著不同的面部特征、膚色和性別。這一測(cè)試成為了她的碩士論文項(xiàng)目:“性別陰影:商用性別分析中的交叉精度差異”(Gender Shades: Intersectional accuracy disparities in commercial gender classification)(圖1)。布奧蘭維尼發(fā)現(xiàn),由微軟,IBM和Megvii開(kāi)發(fā)的三種商用面部識(shí)別技術(shù),在識(shí)別面部深色皮膚的女性時(shí)都會(huì)出錯(cuò),識(shí)錯(cuò)率約35%。而在白人男性身上,它們的識(shí)別結(jié)果幾乎完美(99%)[1]。

圖1 精準(zhǔn)度大比較 | 圖源Joy Buolamwini
人們通常認(rèn)為,機(jī)器能做出更明智、更好和更客觀的決定,但這些現(xiàn)存的算法偏見(jiàn),無(wú)疑消除了機(jī)器中立的概念,并且復(fù)制了社會(huì)現(xiàn)有的不平等現(xiàn)象。從黑人被誤標(biāo)記為大猩猩,到谷歌搜索 “黑人女孩” 或 “拉丁女孩” 彈出成人內(nèi)容,再到醫(yī)療設(shè)備對(duì)膚色較深的人而言效果不佳…… 很明顯,機(jī)器算法存在固有的歧視。
“這個(gè)不平等的社會(huì)充斥著種族主義和性別歧視,所以即使計(jì)算機(jī)編程人員心存善念,算法也會(huì)有偏見(jiàn)和歧視?!?來(lái)自紐約大學(xué)AI Now研究所的喬伊·利西·蘭金(Joy Lisi Rankin)說(shuō)道,她是人工智能中性別、種族和權(quán)力研究項(xiàng)目的負(fù)責(zé)人,其著作包括《美國(guó)人民計(jì)算史》( A People’s History of Computing in the United States)[2]?!八鼈冎粫?huì)反映和放大世界上更大的偏見(jiàn)?!?/span>
物理學(xué)家越來(lái)越多地將人工智能和機(jī)器學(xué)習(xí)應(yīng)用到不同領(lǐng)域,從醫(yī)學(xué)物理到材料學(xué)等等。雖然他們可能認(rèn)為自己的研究只會(huì)應(yīng)用于物理學(xué),但他們的發(fā)現(xiàn)也可以轉(zhuǎn)化到社會(huì)層面。
“作為粒子物理學(xué)家,我們的主要目標(biāo)是開(kāi)發(fā)工具和算法,以助我們找到超越標(biāo)準(zhǔn)模型的物理學(xué)。但不幸的是,我們沒(méi)有停下來(lái)思考,沒(méi)有料到這些工具和算法將如何在技術(shù)中得到廣泛應(yīng)用,并在社會(huì)中每天被用來(lái)進(jìn)一步壓迫邊緣化的個(gè)體,”杰西卡·埃斯基維爾(Jessica Esquivel)說(shuō)道,他是伊利諾伊州芝加哥費(fèi)米國(guó)家加速器實(shí)驗(yàn)室(Fermilab)的物理學(xué)家和數(shù)據(jù)分析員,正致力于開(kāi)發(fā)人工智能算法來(lái)增強(qiáng)Muon g-2實(shí)驗(yàn)中的束流存儲(chǔ)和優(yōu)化。
更重要的是,物理學(xué)中缺乏多樣性的現(xiàn)狀,不僅會(huì)影響到已完成的工作,也會(huì)影響正在被創(chuàng)建的系統(tǒng)?!靶詣e和種族的失衡問(wèn)題,無(wú)疑是糾正人工智能中一些更廣泛的偏見(jiàn)問(wèn)題的障礙?!?新澤西州普林斯頓大學(xué)的粒子物理和機(jī)器學(xué)習(xí)研究員薩凡納·泰斯(Savannah Thais)表示。這就是為什么物理學(xué)家需要意識(shí)到他們現(xiàn)有的偏見(jiàn),更重要的是,作為一個(gè)群體,他們需要捫心自問(wèn):自己到底應(yīng)該做什么。
機(jī)器可以成為智能生物,這一想法已經(jīng)存在了幾個(gè)世紀(jì),古希臘和其他文明都有有關(guān)于機(jī)器人的神話。但直到第二次世界大戰(zhàn)之后,科學(xué)家、數(shù)學(xué)家和哲學(xué)家們才開(kāi)始真正討論創(chuàng)造人工思維的可能性。
1950年,英國(guó)數(shù)學(xué)家阿蘭·圖靈(Alan Turing)提出了一個(gè)著名的問(wèn)題:機(jī)器是否會(huì)思考?他提出用圖靈測(cè)試(Turing Test)來(lái)測(cè)量機(jī)器的智力。六年后,在新罕布什爾州漢諾威市的人工智能達(dá)特茅斯夏季研究項(xiàng)目期間,人工智能的研究領(lǐng)域正式成立?;谌祟愃季S過(guò)程可以在計(jì)算機(jī)程序中被定義和復(fù)制的想法,“人工智能”(artificial intelligence)一詞由美國(guó)數(shù)學(xué)家約翰·麥卡錫(John McCarthy)首創(chuàng),取代了以前使用的 “自動(dòng)機(jī)研究”(automata studies)。
雖然上世紀(jì)五六十年代奠定了人工智能和機(jī)器學(xué)習(xí)的基礎(chǔ),但這一領(lǐng)域真正實(shí)現(xiàn)騰飛還是花了一段時(shí)間?!爸钡竭^(guò)去10年間,強(qiáng)大的計(jì)算能力、標(biāo)記數(shù)據(jù)和高科技公司的財(cái)富才結(jié)合起來(lái),使大規(guī)模的人工智能成為了可能。” 蘭金表示。而且,正如1983年麻省理工學(xué)院《學(xué)術(shù)界平等的障礙:計(jì)算機(jī)科學(xué)領(lǐng)域的女性》報(bào)告所強(qiáng)調(diào)的那樣 [3],盡管美國(guó)黑人和拉丁美裔婦女早在上世紀(jì)70年代就開(kāi)始討論計(jì)算機(jī)中的歧視和不平等問(wèn)題,但直到近十年間,有關(guān)計(jì)算機(jī)系統(tǒng)中的偏見(jiàn)問(wèn)題才得到了更廣泛的討論。

實(shí)際上,自上世紀(jì)40到60年代,女性已經(jīng)成為了英美兩國(guó)計(jì)算機(jī)行業(yè)的核心,正因如此,計(jì)算機(jī)領(lǐng)域?qū)τ谂缘钠?jiàn)才更令人驚訝。
“計(jì)算機(jī)過(guò)去是 ‘人’,而不是機(jī)器,而且這些‘人’大多都是女性?!碧m金表示,“但當(dāng)她們被淘汰且被白人男性取而代之時(shí),這個(gè)領(lǐng)域便發(fā)生了變化?!?正如她說(shuō)的那樣:“計(jì)算機(jī)行業(yè)從女性化和不受重視變得聲望日盛和更加男性化?!笔聦?shí)上,上世紀(jì)80年代中期,在美國(guó)獲得計(jì)算機(jī)科學(xué)學(xué)位的所有畢業(yè)生中,將近40%是女性;但是到了2010年,這一比例已降至15%。
在科學(xué)、技術(shù)、工程、數(shù)學(xué)和醫(yī)學(xué)領(lǐng)域,計(jì)算機(jī)科學(xué)和物理一樣,從業(yè)者的性別差距都是最大的 [4]。盡管獲得物理學(xué)學(xué)位的女性人數(shù)有所增加,但在美國(guó)授予的所有學(xué)位類型中,女性所占比例僅為20%,黑人的比例則更低。2017年,美國(guó)僅有3%的物理學(xué)本科學(xué)位授予了黑人學(xué)生。在英國(guó)也存在著類似的問(wèn)題,2018年英國(guó)所有本科生中,女性占了57.5%,但在所有物理學(xué)本科生中,黑人女性只占了1.7%。
這種性別和人種上的分布差異,對(duì)研究的構(gòu)建、進(jìn)行和實(shí)施都產(chǎn)生了嚴(yán)重的影響。蘭金表示,構(gòu)建算法技術(shù)時(shí)缺乏群體多樣性,而新興的技術(shù)又可能會(huì)傷害到婦女、有色人種、殘疾人和LGBTQ群體,這二者之間形成了一個(gè)有害的反饋循環(huán)。一個(gè)現(xiàn)實(shí)的例子就是亞馬遜的招聘算法,這一算法基于歷史的招聘實(shí)踐和申請(qǐng)人數(shù)據(jù),會(huì)首先拒絕女性的工作申請(qǐng)。最后,亞馬遜棄用了這一招聘算法,因?yàn)榧韧恼衅甘穼⑿詣e偏見(jiàn)深深刻進(jìn)了他們的系統(tǒng)中,無(wú)法確保招聘公平。
機(jī)器算法偏見(jiàn)中的許多問(wèn)題在《偏見(jiàn)系統(tǒng)》(Discriminating Systems)這份報(bào)告中得到了解決 [5]?!镀?jiàn)系統(tǒng)》是AI Now研究所2019年的一份重要報(bào)告,報(bào)告表明,不應(yīng)將群體多樣性和人工智能的偏見(jiàn)問(wèn)題分開(kāi)來(lái)考慮,因?yàn)樗鼈兪?“同一問(wèn)題的兩個(gè)方面”。蘭金補(bǔ)充說(shuō),職場(chǎng)性騷擾也與歧視和偏見(jiàn)有關(guān),她指出,據(jù)美國(guó)國(guó)家科學(xué)院、工程院和醫(yī)學(xué)院報(bào)告,科學(xué)領(lǐng)域中半數(shù)以上的女性教職員工都經(jīng)歷過(guò)某種形式的性騷擾。
泰斯表示,從多方來(lái)看,物理學(xué)中的多種聲音是至關(guān)重要的。她目前正在為歐洲核子研究組織(CERN)的高光度大型強(qiáng)子對(duì)撞機(jī)開(kāi)發(fā)基于機(jī)器學(xué)習(xí)的加速重建算法?!按蟛糠治锢硌芯咳藛T沒(méi)有與受到這些算法影響的其他種族、性別和群體的人群直接接觸的經(jīng)驗(yàn)?!?埃斯基維爾認(rèn)為,正因如此,被邊緣化的科學(xué)家個(gè)體需要參與到算法的開(kāi)發(fā)中來(lái),以確保他們不會(huì)被偏見(jiàn)所淹沒(méi)。
美國(guó)斯坦福大學(xué)人工智能研究員普拉圖莎·卡盧里(Pratyusha Kalluri)也這樣認(rèn)為。她參與創(chuàng)建了 “激進(jìn)人工智能網(wǎng)絡(luò)”(Radical AI Network),該網(wǎng)絡(luò)提倡反壓迫技術(shù),并為那些被人工智能邊緣化的人發(fā)聲??ūR里去年在Nature 上寫(xiě)道:“是時(shí)候把被邊緣化和受算法影響的群體置于人工智能研究的中心了,他們的需求、知識(shí)和夢(mèng)想應(yīng)該指導(dǎo)技術(shù)的發(fā)展?!?[6]
讓我們回到費(fèi)米實(shí)驗(yàn)室。布萊恩·諾德(Brian Nord)是一位宇宙學(xué)家,他利用人工智能來(lái)尋找宇宙起源和進(jìn)化的線索。他解釋說(shuō):“在多年的觀測(cè)中,望遠(yuǎn)鏡掃描天空,收集包括圖像在內(nèi)的大量復(fù)雜數(shù)據(jù),而我則使用人工智能來(lái)分析這些數(shù)據(jù),以了解導(dǎo)致時(shí)空擴(kuò)張加速的暗能量。”
然而,2016年,他在閱讀了 ProPublica 的一份調(diào)查報(bào)告后意識(shí)到:人工智能可能有害且會(huì)對(duì)黑人產(chǎn)生偏見(jiàn) [7]。該報(bào)告分析了一個(gè)名為COMPAS的風(fēng)險(xiǎn)評(píng)估軟件,該軟件在美國(guó)法庭上用于預(yù)測(cè)哪些罪犯最有可能再次犯罪,以及決定保釋條件。調(diào)查發(fā)現(xiàn),不論是所犯罪行的嚴(yán)重程度還是再次犯罪的實(shí)際可能性,黑人被貼上高風(fēng)險(xiǎn)標(biāo)簽的可能性幾乎是白人的兩倍。對(duì)此,諾德表示:“我非常擔(dān)心自己在開(kāi)發(fā)算法時(shí)的‘共謀’行為,將來(lái)這些算法的應(yīng)用可能會(huì)對(duì)我不利?!?作為黑人,他知道面部識(shí)別技術(shù)對(duì)他這樣的人有偏見(jiàn),經(jīng)常錯(cuò)認(rèn)黑人,且監(jiān)管不嚴(yán)。
因此,雖然物理學(xué)家可能已經(jīng)開(kāi)發(fā)出某種人工智能技術(shù)來(lái)解決純粹的科學(xué)問(wèn)題,但在現(xiàn)實(shí)世界中,它的應(yīng)用卻超出了他們的控制范圍——人工智能的使用者可能會(huì)動(dòng)機(jī)不純?!斑@更有可能使我的權(quán)利受到侵犯,剝奪我在群體、社會(huì)和生活各方面的權(quán)利,” 諾德說(shuō)道。
對(duì)于這些問(wèn)題,諾德決定不另起爐灶,而是建立一個(gè)由物理學(xué)家和計(jì)算機(jī)科學(xué)家組成的聯(lián)盟,以便在開(kāi)發(fā)算法時(shí)爭(zhēng)取更多的審查。他指出,向美國(guó)執(zhí)法機(jī)構(gòu)和其他私人機(jī)構(gòu)提供面部識(shí)別設(shè)備的Clearview AI等公司,正在搜集社交媒體數(shù)據(jù),然后在未經(jīng)用戶明確同意的情況下向執(zhí)法部門(mén)出售監(jiān)控服務(wù)。他警告說(shuō),許多國(guó)家都在利用監(jiān)視技術(shù)對(duì)民眾進(jìn)行廣泛的壓迫,“以數(shù)據(jù)為主導(dǎo)的技術(shù)剝奪了人們的權(quán)利,例如數(shù)據(jù)隱私問(wèn)題、數(shù)據(jù)和科學(xué)如何被用來(lái)侵犯民權(quán)、技術(shù)如何維護(hù)白人至上和監(jiān)視資本主義的歷史等,物理學(xué)家應(yīng)該致力于理解這些權(quán)力結(jié)構(gòu)?!?/span>
為了讓這個(gè)問(wèn)題引起更廣泛的關(guān)注,諾德、埃斯奎維爾和其他同事給粒子物理學(xué)界寫(xiě)了一封信。這也是 “雪團(tuán)” 項(xiàng)目(Snowmass)的一部分,“雪團(tuán)” 定期為美國(guó)和美國(guó)之外的粒子物理界的未來(lái)發(fā)展樹(shù)立科學(xué)遠(yuǎn)景。他們?cè)谛胖杏懻摿?“計(jì)算研究的倫理意義和科學(xué)家的角色”,強(qiáng)調(diào)了無(wú)論是作為個(gè)人、還是在各機(jī)構(gòu)和基金會(huì)任職的物理學(xué)家們,都應(yīng)該關(guān)心他們正在構(gòu)建和實(shí)施的算法 [8]。
泰斯還敦促物理學(xué)家們——這些有著深厚技術(shù)知識(shí)的公民們,積極參與到人工智能倫理的治理中來(lái) [9]。她說(shuō):“讓物理學(xué)家們意識(shí)到人工智能和機(jī)器學(xué)習(xí)方面的偏見(jiàn)問(wèn)題非常重要,即使在機(jī)器學(xué)習(xí)的物理學(xué)研究應(yīng)用中通常不會(huì)出現(xiàn)這種情況?!?泰斯解釋說(shuō),這樣做的原因之一是,許多物理學(xué)家離開(kāi)原有領(lǐng)域,到計(jì)算機(jī)軟件、硬件和數(shù)據(jù)科技公司工作?!霸S多這樣的公司都在使用人工數(shù)據(jù),因此我們必須讓學(xué)生們提前具有責(zé)任意識(shí)。我們不能只教授技術(shù)技能,而忽視更廣泛的社會(huì)背景,因?yàn)樵S多人最終將把這些方法應(yīng)用到物理學(xué)之外。”
對(duì)此,泰斯和埃斯基維爾也都認(rèn)為,物理學(xué)家在理解和管理人工智能方面扮演著重要的角色,因?yàn)樗麄兺仨毷褂卯a(chǎn)出更精確輸出數(shù)據(jù)的方法,來(lái)解釋和量化系統(tǒng)的不確定性,然后才能抵消數(shù)據(jù)中的固有偏差。泰斯說(shuō):“有了這種更加 ‘黑匣子’ 化的機(jī)器學(xué)習(xí)算法后,我們真的很想了解它的準(zhǔn)確性,了解它在邊界情況下是如何工作的,以及它為什么在某個(gè)特定的問(wèn)題上表現(xiàn)最好。而這些都是物理學(xué)家們?cè)瓿蛇^(guò)的任務(wù)?!?/span>
另一位利用物理學(xué)來(lái)提高人工智能精準(zhǔn)度和可靠性的研究人員,是帕耶爾·達(dá)斯(Payel Das),她是IBM托馬斯·J·沃森研究中心的首席研究員。為了設(shè)計(jì)新的材料和抗生素,她和團(tuán)隊(duì)正在開(kāi)發(fā)機(jī)器學(xué)習(xí)算法:將從數(shù)據(jù)和物理原理結(jié)合起來(lái),從而使一項(xiàng)新科學(xué)發(fā)現(xiàn)的成功率提高百倍。達(dá)斯說(shuō):“我們經(jīng)常借助已有的科學(xué)知識(shí)或其他形式的知識(shí)(例如基于物理學(xué)原理),來(lái)增強(qiáng)、指導(dǎo)或驗(yàn)證人工智能模型,以使其系統(tǒng)更耐用、高效、易于解釋和可靠?!?她對(duì)此做了進(jìn)一步解釋,即“通過(guò)使用物理學(xué)驅(qū)動(dòng)的學(xué)習(xí),人們可以在準(zhǔn)確性、可靠性和歸納偏差等方面對(duì)人工智能模型進(jìn)行交叉檢查?!?/span>
算法決策工具可能是為科學(xué)研究而開(kāi)發(fā)的,但被用于商業(yè)監(jiān)視,在這種情況下,數(shù)據(jù)中任何微小的偏差都會(huì)產(chǎn)生現(xiàn)實(shí)后果。
去年,數(shù)據(jù)倫理與創(chuàng)新中心(Centre for Data Ethics and Innovation)發(fā)表了一篇關(guān)于算法決策偏見(jiàn)的評(píng)論 [12]。該中心屬于英國(guó)政府的數(shù)據(jù)驅(qū)動(dòng)和技術(shù)獨(dú)立咨詢機(jī)構(gòu)。研究發(fā)現(xiàn),過(guò)去幾年,在招聘、金融服務(wù)、警務(wù)和地方政府四個(gè)部門(mén),算法決策有了顯著增長(zhǎng),并發(fā)現(xiàn)了算法偏見(jiàn)存在的明確證據(jù)。報(bào)告呼吁各組織積極利用數(shù)據(jù)來(lái)識(shí)別和減輕算法偏見(jiàn),并確保了解其工具的功能和局限。來(lái)自愛(ài)丁堡大學(xué)的人工智能教授、貝葉斯中心(Bayes Centre)主任邁克爾·羅瓦佐斯(Michael Rovatsos)也表達(dá)了這種看法:“要想真正獲取數(shù)據(jù)或算法是非常困難的”,他補(bǔ)充說(shuō),政府應(yīng)要求公司進(jìn)行審計(jì),并應(yīng)該要求其在現(xiàn)實(shí)世界中應(yīng)用的系統(tǒng)保持透明。
就像布奧蘭維尼一樣,一些研究人員正試圖利用他們?cè)谌斯ぶ悄芊矫娴目茖W(xué)經(jīng)驗(yàn),從外部揭示商業(yè)算法中的偏見(jiàn)。其中包括數(shù)學(xué)家凱西·奧尼爾(Cathy O'Neil),她在2016年撰寫(xiě)了《數(shù)學(xué)殺傷性武器》(Weapons of Math Destruction)一書(shū),講述了她在數(shù)據(jù)偏見(jiàn)方面的工作。2018年,她成立了一家咨詢公司,并與公司私下合作,審核他們的算法。如今,布奧蘭維尼還在繼續(xù)她的工作,通過(guò)非盈利的算法正義聯(lián)盟(Algorithmic Justice League)創(chuàng)建更公平和負(fù)責(zé)任的技術(shù),這是她于2016年成立的一個(gè)跨學(xué)科研究機(jī)構(gòu),旨在了解人工智能技術(shù)的社會(huì)意義。

圖3 鏡子 | 圖源TJ Rak
計(jì)算機(jī)科學(xué)家喬伊·布奧蘭維尼(Joy Buolamwini)通過(guò)一些面部分析演示測(cè)試了自己的這張照片。微軟和Face++沒(méi)有檢測(cè)到她的臉,而IBM和Kairos搞錯(cuò)了她的性別。
2018年,她與計(jì)算機(jī)科學(xué)家提姆尼特·格布魯(格布魯是 “Black in AI” 的創(chuàng)始人之一)共同發(fā)表了《性別陰影》(Gender Shades)研究報(bào)告,研究結(jié)果后被發(fā)送給了涉及到的公司。一年后,他們又進(jìn)行了一項(xiàng)后續(xù)研究以重新審核,并新增了兩家公司:亞馬遜和凱羅斯(Kairos) [13]。在計(jì)算機(jī)科學(xué)家、現(xiàn)任Mozilla基金會(huì)研究員黛博拉·拉吉的帶領(lǐng)下,該研究的后續(xù)調(diào)查發(fā)現(xiàn),這兩家公司存在巨大的精度錯(cuò)誤——亞馬遜的面部識(shí)別軟件甚至無(wú)法對(duì)米歇爾·奧巴馬(Michelle Obama)臉進(jìn)行正確分類,但最初的三家公司識(shí)別精度已經(jīng)有了明顯改善,這表明他們的數(shù)據(jù)集是用更多樣化的圖像進(jìn)行訓(xùn)練的。
這兩項(xiàng)研究對(duì)現(xiàn)實(shí)世界產(chǎn)生了深遠(yuǎn)的影響:促成了兩項(xiàng)美國(guó)聯(lián)邦法案:《算法責(zé)任法案》(Algorithmic Accountability Act)和《禁止生物特征住房壁壘法案》(No Biometric Barriers Act),以及紐約和馬薩諸塞州的州法案。這項(xiàng)研究還說(shuō)服了微軟、IBM和亞馬遜停止為警方辦案提供面部識(shí)別技術(shù)。如今,她正在繼續(xù)算法評(píng)估的工作,并在去年與谷歌的同事一起開(kāi)發(fā)了一個(gè)用于人工智能準(zhǔn)確度的算法審計(jì)框架。“內(nèi)部審計(jì)至關(guān)重要,因?yàn)樗试S在將系統(tǒng)被部署到世界各地之前對(duì)其進(jìn)行更改,” 她補(bǔ)充說(shuō),人工智能有時(shí)所涉及的偏見(jiàn)可能對(duì)特定人群有害,“因此,確定在這些決策中最易受傷害的群體,并對(duì)人工智能領(lǐng)域發(fā)展過(guò)程中可能引入偏見(jiàn)的時(shí)刻進(jìn)行審查是很重要的。”
2019年,AI Now研究所發(fā)布的一份詳細(xì)報(bào)告 [14],為有興趣負(fù)責(zé)人地使用算法決策工具的公共機(jī)構(gòu)提供了一個(gè)架構(gòu),并在隨后發(fā)布了算法問(wèn)責(zé)政策工具包。該報(bào)告呼吁,人工智能和機(jī)器學(xué)習(xí)領(lǐng)域的研究人員應(yīng)該了解自己正在構(gòu)建什么,還要考慮從事領(lǐng)域的潛在風(fēng)險(xiǎn)和危害,并更好地記錄模型和數(shù)據(jù)來(lái)源。
埃斯基韋爾指出,物理學(xué)家了解其數(shù)據(jù)來(lái)源的重要性(尤其是用于訓(xùn)練機(jī)器學(xué)習(xí)系統(tǒng)的數(shù)據(jù)集),“許多用于粒子物理數(shù)據(jù)的算法都是經(jīng)過(guò)微調(diào)后的架構(gòu),由人工智能專家開(kāi)發(fā),并經(jīng)過(guò)行業(yè)標(biāo)準(zhǔn)數(shù)據(jù)集訓(xùn)練。然而,這些數(shù)據(jù)后被證明充斥著種族主義、不公平對(duì)待和性別歧視?!?她以麻省理工學(xué)院為例:麻省理工學(xué)院刪除了曾廣泛使用的、擁有8000萬(wàn)張圖像的人工智能數(shù)據(jù)集,因?yàn)檫@些圖像被以攻擊性的、種族主義的和厭女的方式貼上標(biāo)簽 [15]。
格布魯和同事最近還強(qiáng)調(diào)了大型數(shù)據(jù)集現(xiàn)存的一些問(wèn)題,例如 Common Crawl ——一個(gè)網(wǎng)頁(yè)爬蟲(chóng)數(shù)據(jù)的開(kāi)放式儲(chǔ)存,其中充滿了白人至上主義、年齡歧視和厭女主義等觀點(diǎn)的過(guò)度代表 [16],而她最近也因?yàn)檫@篇文章被谷歌人工智能的倫理團(tuán)隊(duì)解雇。基于這些現(xiàn)實(shí)情況,埃斯基韋爾清楚地表明:學(xué)術(shù)界 “有機(jī)會(huì)成為開(kāi)發(fā)這些工具的公立第三方”。
在2019年的報(bào)告中, AI Now 研究所還建議對(duì)人工智能偏見(jiàn)領(lǐng)域的研究應(yīng)不止于技術(shù)修正?!拔覀儾粌H需要改變算法或系統(tǒng),還需要改變行業(yè)制度和社會(huì)結(jié)構(gòu),” 蘭金解釋說(shuō)。她認(rèn)為,要想監(jiān)管、消除或盡量減少人工智能算法中的偏見(jiàn)和歧視,就必須采取 “大規(guī)模的集體行動(dòng)”,讓自然科學(xué)界以外的人參與進(jìn)來(lái)也會(huì)對(duì)此有所裨益。
諾德也認(rèn)為,物理學(xué)家需要與其他學(xué)科的科學(xué)家及社會(huì)科學(xué)家、倫理學(xué)家們合作。
“不幸的是,就這些花費(fèi)了大量時(shí)間和精力進(jìn)行文獻(xiàn)和群體研究的各領(lǐng)域而言,我沒(méi)有看到物理學(xué)家或計(jì)算機(jī)科學(xué)家們充分參與進(jìn)來(lái)。” 他指出,“幾乎每隔幾周,就會(huì)有一個(gè)新的基于機(jī)器學(xué)習(xí)的應(yīng)用程序出現(xiàn),但它們?cè)愀?、有害、毫無(wú)意義,甚至試圖去完成一些不可能和不道德的事情?!?/strong>例如,德克薩斯大學(xué)奧斯汀分校最近才停止使用一個(gè)機(jī)器學(xué)習(xí)系統(tǒng)預(yù)測(cè)研究生院錄取學(xué)生的可能性,該系統(tǒng)的數(shù)據(jù)基于此前的錄取周期,因此會(huì)產(chǎn)生算法上的偏見(jiàn)。對(duì)此,諾德問(wèn)道:“為什么我們要在一個(gè)必然需要人文主義的地方尋求這種充斥著技術(shù)官僚主義的解決方案?”
對(duì)于算法偏見(jiàn),泰斯堅(jiān)持認(rèn)為,物理學(xué)家必須厘清這些偏見(jiàn)問(wèn)題的現(xiàn)狀,并了解其他人為緩解這些偏見(jiàn)而采取的方法。“我們必須將這些對(duì)話納入圍繞機(jī)器學(xué)習(xí)和人工智能的所有討論中?!?她希望物理學(xué)家們可以參加相關(guān)的會(huì)議、研討會(huì)或演講,“這項(xiàng)技術(shù)深刻影響著我們生活的方方面面,因此,不把相關(guān)工作放在更廣泛的社會(huì)背景下是不負(fù)責(zé)任的?!?/span>
對(duì)此,諾德的思考更加清晰:“物理學(xué)家們?cè)谧詥?wèn)是否 ‘能夠’ 構(gòu)建或施行某些人工智能技術(shù)之前,應(yīng)該先問(wèn)自己是否 ‘應(yīng)該’?!?nbsp;他補(bǔ)充表示,將來(lái)也有可能會(huì)停止使用現(xiàn)行的一些有害技術(shù),“使用這些技術(shù)與否,即是個(gè)體也是社會(huì)的選擇。”
原文鏈接:
https://physicsworld.com/a/fighting-algorithmic-bias-in-artificial-intelligence/
▲ 本文為Physics World 專欄的第42篇文章。
原文標(biāo)題 “Fighting algorithmic bias in artificial intelligence ”,首發(fā)于2021年5月出版的Physics World,英國(guó)物理學(xué)會(huì)出版社授權(quán)《知識(shí)分子》翻譯。本譯文有刪節(jié),中文內(nèi)容僅供參考,一切內(nèi)容以英文原版為準(zhǔn)。未經(jīng)授權(quán)的翻譯是侵權(quán)行為,版權(quán)方將保留追究法律責(zé)任的權(quán)利。登陸 Physics World,關(guān)注日常全球科學(xué)新聞、熱點(diǎn)報(bào)道和評(píng)論。Physics World 幫助學(xué)界與產(chǎn)業(yè)界的研究人員走在世界重大科研突破與跨學(xué)科研究的前沿。
制版編輯 | 盧卡斯