? 视频在线观看大片,无码人妻一区二区三区免费看 ,少妇无码太爽了不卡视频在线看

亚洲 a v无 码免 费 成 人 a v,性欧美videofree高清精品,新国产三级在线观看播放,少妇人妻偷人精品一区二区,天干天干天啪啪夜爽爽av

如何對(duì)抗算法偏見(jiàn)?| Physics World 專欄

2021/06/11
導(dǎo)讀
是時(shí)候把被邊緣化和受算法影響的群體置于人工智能研究的中心了




pixabay.com


近年來(lái),物理學(xué)家們?cè)絹?lái)越多地開(kāi)發(fā)人工智能(AI)和機(jī)器學(xué)習(xí)(ML)技術(shù),以增進(jìn)我們對(duì)物理世界的理解。不過(guò),人們也越來(lái)越擔(dān)心這些系統(tǒng)中的偏見(jiàn)及其對(duì)整個(gè)社會(huì)的廣泛影響。

Physics World 的這篇文章,探討了人工智能中的種族和性別偏見(jiàn)問(wèn)題,以及物理學(xué)家們可以如何認(rèn)識(shí)和解決這些問(wèn)題。


作者|Juliana Photopoulos

翻譯|王雨丹
校譯|于茗騫

 

●               ●               


2011年,在佐治亞理工學(xué)院攻讀本科學(xué)位時(shí),加納裔美國(guó)計(jì)算機(jī)科學(xué)家喬伊·布奧蘭維尼(Joy Buolamwini)發(fā)現(xiàn),機(jī)器人無(wú)法陪她玩一把簡(jiǎn)單的躲貓貓游戲——因?yàn)闄C(jī)器無(wú)法識(shí)別她黑色的臉龐。2015年,麻省理工學(xué)院媒體實(shí)驗(yàn)室的碩士研究生布奧蘭維尼參加了一個(gè)名為 “Aspire Mirror” 的科學(xué)藝術(shù)項(xiàng)目,在處理面部分析軟件時(shí)也遇到了類似的問(wèn)題:只有當(dāng)她戴上白色面罩時(shí),軟件才能檢測(cè)到她的臉。

 

這兩件事只是巧合嗎?

 

好奇心驅(qū)使布奧蘭維尼去探索這其中的奧秘。她將自己的照片上傳到四個(gè)不同的面部識(shí)別系統(tǒng)中,但結(jié)果都不如人意:要么根本識(shí)別不出是一張人臉,要么就是性別不對(duì)。她把系統(tǒng)的這種偏見(jiàn)稱為 “編碼凝視”(coded gaze)。隨后,她決定對(duì)來(lái)自3個(gè)非洲國(guó)家和3個(gè)歐洲國(guó)家的1270名政客進(jìn)行面部測(cè)試,他們有著不同的面部特征、膚色和性別。這一測(cè)試成為了她的碩士論文項(xiàng)目:“性別陰影:商用性別分析中的交叉精度差異”(Gender Shades: Intersectional accuracy disparities in commercial gender classification)(圖1)。布奧蘭維尼發(fā)現(xiàn),由微軟,IBM和Megvii開(kāi)發(fā)的三種商用面部識(shí)別技術(shù),在識(shí)別面部深色皮膚的女性時(shí)都會(huì)出錯(cuò),識(shí)錯(cuò)率約35%。而在白人男性身上,它們的識(shí)別結(jié)果幾乎完美(99%)[1]

 

圖1 精準(zhǔn)度大比較 | 圖源Joy Buolamwini

喬伊·布奧蘭維尼(Joy Buolamwini)、蒂姆尼特·格布魯(Timnit Gebru)、黛博拉·拉吉(Deborah Raji)及其同事致力于 “性別陰影” 項(xiàng)目(Gender Shades),以評(píng)估人工智能性別分類產(chǎn)品的準(zhǔn)確性。這一項(xiàng)目研究了三家公司的商業(yè)產(chǎn)品,評(píng)估他們?nèi)绾螌?duì)來(lái)自非洲和歐洲國(guó)家的1270張人像進(jìn)行分類。受試者按性別、膚色以及二者的交集進(jìn)行分組。研究發(fā)現(xiàn),盡管這些產(chǎn)品總體上具有較高的準(zhǔn)確性,但不同組之間的錯(cuò)誤率存在顯著差異。所有公司的產(chǎn)品在面部識(shí)別上的精度,都是男性優(yōu)于女性、淺膚色人群優(yōu)于深膚色人群。其中,對(duì)深膚色女性的識(shí)別最差,三分之一以上的識(shí)別結(jié)果不及格。精度差異的一個(gè)關(guān)鍵因素,是機(jī)器在訓(xùn)練圖像和基準(zhǔn)數(shù)據(jù)集時(shí)缺乏多樣性。

 

人們通常認(rèn)為,機(jī)器能做出更明智、更好和更客觀的決定,但這些現(xiàn)存的算法偏見(jiàn),無(wú)疑消除了機(jī)器中立的概念,并且復(fù)制了社會(huì)現(xiàn)有的不平等現(xiàn)象。從黑人被誤標(biāo)記為大猩猩,到谷歌搜索 “黑人女孩” 或 “拉丁女孩” 彈出成人內(nèi)容,再到醫(yī)療設(shè)備對(duì)膚色較深的人而言效果不佳…… 很明顯,機(jī)器算法存在固有的歧視。

 

“這個(gè)不平等的社會(huì)充斥著種族主義和性別歧視,所以即使計(jì)算機(jī)編程人員心存善念,算法也會(huì)有偏見(jiàn)和歧視?!?來(lái)自紐約大學(xué)AI Now研究所的喬伊·利西·蘭金(Joy Lisi Rankin)說(shuō)道,她是人工智能中性別、種族和權(quán)力研究項(xiàng)目的負(fù)責(zé)人,其著作包括《美國(guó)人民計(jì)算史》( A People’s History of Computing in the United States)[2]?!八鼈冎粫?huì)反映和放大世界上更大的偏見(jiàn)?!?/span>

 

物理學(xué)家越來(lái)越多地將人工智能和機(jī)器學(xué)習(xí)應(yīng)用到不同領(lǐng)域,從醫(yī)學(xué)物理到材料學(xué)等等。雖然他們可能認(rèn)為自己的研究只會(huì)應(yīng)用于物理學(xué),但他們的發(fā)現(xiàn)也可以轉(zhuǎn)化到社會(huì)層面。

 

“作為粒子物理學(xué)家,我們的主要目標(biāo)是開(kāi)發(fā)工具和算法,以助我們找到超越標(biāo)準(zhǔn)模型的物理學(xué)。但不幸的是,我們沒(méi)有停下來(lái)思考,沒(méi)有料到這些工具和算法將如何在技術(shù)中得到廣泛應(yīng)用,并在社會(huì)中每天被用來(lái)進(jìn)一步壓迫邊緣化的個(gè)體,”杰西卡·埃斯基維爾(Jessica Esquivel)說(shuō)道,他是伊利諾伊州芝加哥費(fèi)米國(guó)家加速器實(shí)驗(yàn)室(Fermilab)的物理學(xué)家和數(shù)據(jù)分析員,正致力于開(kāi)發(fā)人工智能算法來(lái)增強(qiáng)Muon g-2實(shí)驗(yàn)中的束流存儲(chǔ)和優(yōu)化。

 

更重要的是,物理學(xué)中缺乏多樣性的現(xiàn)狀,不僅會(huì)影響到已完成的工作,也會(huì)影響正在被創(chuàng)建的系統(tǒng)?!靶詣e和種族的失衡問(wèn)題,無(wú)疑是糾正人工智能中一些更廣泛的偏見(jiàn)問(wèn)題的障礙?!?新澤西州普林斯頓大學(xué)的粒子物理和機(jī)器學(xué)習(xí)研究員薩凡納·泰斯(Savannah Thais)表示。這就是為什么物理學(xué)家需要意識(shí)到他們現(xiàn)有的偏見(jiàn),更重要的是,作為一個(gè)群體,他們需要捫心自問(wèn):自己到底應(yīng)該做什么。

 


“智慧生命” 的誕生


機(jī)器可以成為智能生物,這一想法已經(jīng)存在了幾個(gè)世紀(jì),古希臘和其他文明都有有關(guān)于機(jī)器人的神話。但直到第二次世界大戰(zhàn)之后,科學(xué)家、數(shù)學(xué)家和哲學(xué)家們才開(kāi)始真正討論創(chuàng)造人工思維的可能性。

 

1950年,英國(guó)數(shù)學(xué)家阿蘭·圖靈(Alan Turing)提出了一個(gè)著名的問(wèn)題:機(jī)器是否會(huì)思考?他提出用圖靈測(cè)試(Turing Test)來(lái)測(cè)量機(jī)器的智力。六年后,在新罕布什爾州漢諾威市的人工智能達(dá)特茅斯夏季研究項(xiàng)目期間,人工智能的研究領(lǐng)域正式成立?;谌祟愃季S過(guò)程可以在計(jì)算機(jī)程序中被定義和復(fù)制的想法,“人工智能”(artificial intelligence)一詞由美國(guó)數(shù)學(xué)家約翰·麥卡錫(John McCarthy)首創(chuàng),取代了以前使用的 “自動(dòng)機(jī)研究”(automata studies)。

 

雖然上世紀(jì)五六十年代奠定了人工智能和機(jī)器學(xué)習(xí)的基礎(chǔ),但這一領(lǐng)域真正實(shí)現(xiàn)騰飛還是花了一段時(shí)間?!爸钡竭^(guò)去10年間,強(qiáng)大的計(jì)算能力、標(biāo)記數(shù)據(jù)和高科技公司的財(cái)富才結(jié)合起來(lái),使大規(guī)模的人工智能成為了可能。” 蘭金表示。而且,正如1983年麻省理工學(xué)院《學(xué)術(shù)界平等的障礙:計(jì)算機(jī)科學(xué)領(lǐng)域的女性》報(bào)告所強(qiáng)調(diào)的那樣 [3],盡管美國(guó)黑人和拉丁美裔婦女早在上世紀(jì)70年代就開(kāi)始討論計(jì)算機(jī)中的歧視和不平等問(wèn)題,但直到近十年間,有關(guān)計(jì)算機(jī)系統(tǒng)中的偏見(jiàn)問(wèn)題才得到了更廣泛的討論。

 

圖2 在計(jì)算機(jī)發(fā)展早期,計(jì)算機(jī)操作是一項(xiàng)主要由女性完成的低薪工作。隨著這一領(lǐng)域聲望漸高,白人男性逐漸占據(jù)了主導(dǎo)地位。圖為1972年,一名美國(guó)政府的女性雇員正在使用NCR 796-201可視終端 | 圖源:National Archives at College Park

 

實(shí)際上,自上世紀(jì)40到60年代,女性已經(jīng)成為了英美兩國(guó)計(jì)算機(jī)行業(yè)的核心,正因如此,計(jì)算機(jī)領(lǐng)域?qū)τ谂缘钠?jiàn)才更令人驚訝。

 

“計(jì)算機(jī)過(guò)去是 ‘人’,而不是機(jī)器,而且這些‘人’大多都是女性?!碧m金表示,“但當(dāng)她們被淘汰且被白人男性取而代之時(shí),這個(gè)領(lǐng)域便發(fā)生了變化?!?正如她說(shuō)的那樣:“計(jì)算機(jī)行業(yè)從女性化和不受重視變得聲望日盛和更加男性化?!笔聦?shí)上,上世紀(jì)80年代中期,在美國(guó)獲得計(jì)算機(jī)科學(xué)學(xué)位的所有畢業(yè)生中,將近40%是女性;但是到了2010年,這一比例已降至15%。

 

在科學(xué)、技術(shù)、工程、數(shù)學(xué)和醫(yī)學(xué)領(lǐng)域,計(jì)算機(jī)科學(xué)和物理一樣,從業(yè)者的性別差距都是最大的 [4]。盡管獲得物理學(xué)學(xué)位的女性人數(shù)有所增加,但在美國(guó)授予的所有學(xué)位類型中,女性所占比例僅為20%,黑人的比例則更低。2017年,美國(guó)僅有3%的物理學(xué)本科學(xué)位授予了黑人學(xué)生。在英國(guó)也存在著類似的問(wèn)題,2018年英國(guó)所有本科生中,女性占了57.5%,但在所有物理學(xué)本科生中,黑人女性只占了1.7%。

 

這種性別和人種上的分布差異,對(duì)研究的構(gòu)建、進(jìn)行和實(shí)施都產(chǎn)生了嚴(yán)重的影響。蘭金表示,構(gòu)建算法技術(shù)時(shí)缺乏群體多樣性,而新興的技術(shù)又可能會(huì)傷害到婦女、有色人種、殘疾人和LGBTQ群體,這二者之間形成了一個(gè)有害的反饋循環(huán)。一個(gè)現(xiàn)實(shí)的例子就是亞馬遜的招聘算法,這一算法基于歷史的招聘實(shí)踐和申請(qǐng)人數(shù)據(jù),會(huì)首先拒絕女性的工作申請(qǐng)。最后,亞馬遜棄用了這一招聘算法,因?yàn)榧韧恼衅甘穼⑿詣e偏見(jiàn)深深刻進(jìn)了他們的系統(tǒng)中,無(wú)法確保招聘公平。

 

機(jī)器算法偏見(jiàn)中的許多問(wèn)題在《偏見(jiàn)系統(tǒng)》Discriminating Systems這份報(bào)告中得到了解決 [5]?!镀?jiàn)系統(tǒng)》是AI Now研究所2019年的一份重要報(bào)告,報(bào)告表明,不應(yīng)將群體多樣性和人工智能的偏見(jiàn)問(wèn)題分開(kāi)來(lái)考慮,因?yàn)樗鼈兪?“同一問(wèn)題的兩個(gè)方面”。蘭金補(bǔ)充說(shuō),職場(chǎng)性騷擾也與歧視和偏見(jiàn)有關(guān),她指出,據(jù)美國(guó)國(guó)家科學(xué)院、工程院和醫(yī)學(xué)院報(bào)告,科學(xué)領(lǐng)域中半數(shù)以上的女性教職員工都經(jīng)歷過(guò)某種形式的性騷擾。

 

泰斯表示,從多方來(lái)看,物理學(xué)中的多種聲音是至關(guān)重要的。她目前正在為歐洲核子研究組織(CERN)的高光度大型強(qiáng)子對(duì)撞機(jī)開(kāi)發(fā)基于機(jī)器學(xué)習(xí)的加速重建算法?!按蟛糠治锢硌芯咳藛T沒(méi)有與受到這些算法影響的其他種族、性別和群體的人群直接接觸的經(jīng)驗(yàn)?!?埃斯基維爾認(rèn)為,正因如此,被邊緣化的科學(xué)家個(gè)體需要參與到算法的開(kāi)發(fā)中來(lái),以確保他們不會(huì)被偏見(jiàn)所淹沒(méi)。

 

美國(guó)斯坦福大學(xué)人工智能研究員普拉圖莎·卡盧里(Pratyusha Kalluri)也這樣認(rèn)為。她參與創(chuàng)建了 “激進(jìn)人工智能網(wǎng)絡(luò)”(Radical AI Network),該網(wǎng)絡(luò)提倡反壓迫技術(shù),并為那些被人工智能邊緣化的人發(fā)聲??ūR里去年在Nature 上寫(xiě)道:“是時(shí)候把被邊緣化和受算法影響的群體置于人工智能研究的中心了,他們的需求、知識(shí)和夢(mèng)想應(yīng)該指導(dǎo)技術(shù)的發(fā)展?!?[6]

 


物理學(xué)家的角色


讓我們回到費(fèi)米實(shí)驗(yàn)室。布萊恩·諾德(Brian Nord)是一位宇宙學(xué)家,他利用人工智能來(lái)尋找宇宙起源和進(jìn)化的線索。他解釋說(shuō):“在多年的觀測(cè)中,望遠(yuǎn)鏡掃描天空,收集包括圖像在內(nèi)的大量復(fù)雜數(shù)據(jù),而我則使用人工智能來(lái)分析這些數(shù)據(jù),以了解導(dǎo)致時(shí)空擴(kuò)張加速的暗能量。”

 

然而,2016年,他在閱讀了 ProPublica 的一份調(diào)查報(bào)告后意識(shí)到:人工智能可能有害且會(huì)對(duì)黑人產(chǎn)生偏見(jiàn) [7]。該報(bào)告分析了一個(gè)名為COMPAS的風(fēng)險(xiǎn)評(píng)估軟件,該軟件在美國(guó)法庭上用于預(yù)測(cè)哪些罪犯最有可能再次犯罪,以及決定保釋條件。調(diào)查發(fā)現(xiàn),不論是所犯罪行的嚴(yán)重程度還是再次犯罪的實(shí)際可能性,黑人被貼上高風(fēng)險(xiǎn)標(biāo)簽的可能性幾乎是白人的兩倍。對(duì)此,諾德表示:“我非常擔(dān)心自己在開(kāi)發(fā)算法時(shí)的‘共謀’行為,將來(lái)這些算法的應(yīng)用可能會(huì)對(duì)我不利?!?作為黑人,他知道面部識(shí)別技術(shù)對(duì)他這樣的人有偏見(jiàn),經(jīng)常錯(cuò)認(rèn)黑人,且監(jiān)管不嚴(yán)。

 

因此,雖然物理學(xué)家可能已經(jīng)開(kāi)發(fā)出某種人工智能技術(shù)來(lái)解決純粹的科學(xué)問(wèn)題,但在現(xiàn)實(shí)世界中,它的應(yīng)用卻超出了他們的控制范圍——人工智能的使用者可能會(huì)動(dòng)機(jī)不純?!斑@更有可能使我的權(quán)利受到侵犯,剝奪我在群體、社會(huì)和生活各方面的權(quán)利,” 諾德說(shuō)道。

 

對(duì)于這些問(wèn)題,諾德決定不另起爐灶,而是建立一個(gè)由物理學(xué)家和計(jì)算機(jī)科學(xué)家組成的聯(lián)盟,以便在開(kāi)發(fā)算法時(shí)爭(zhēng)取更多的審查。他指出,向美國(guó)執(zhí)法機(jī)構(gòu)和其他私人機(jī)構(gòu)提供面部識(shí)別設(shè)備的Clearview AI等公司,正在搜集社交媒體數(shù)據(jù),然后在未經(jīng)用戶明確同意的情況下向執(zhí)法部門(mén)出售監(jiān)控服務(wù)。他警告說(shuō),許多國(guó)家都在利用監(jiān)視技術(shù)對(duì)民眾進(jìn)行廣泛的壓迫,“以數(shù)據(jù)為主導(dǎo)的技術(shù)剝奪了人們的權(quán)利,例如數(shù)據(jù)隱私問(wèn)題、數(shù)據(jù)和科學(xué)如何被用來(lái)侵犯民權(quán)、技術(shù)如何維護(hù)白人至上和監(jiān)視資本主義的歷史等,物理學(xué)家應(yīng)該致力于理解這些權(quán)力結(jié)構(gòu)?!?/span>

 

為了讓這個(gè)問(wèn)題引起更廣泛的關(guān)注,諾德、埃斯奎維爾和其他同事給粒子物理學(xué)界寫(xiě)了一封信。這也是 “雪團(tuán)” 項(xiàng)目(Snowmass)的一部分,“雪團(tuán)” 定期為美國(guó)和美國(guó)之外的粒子物理界的未來(lái)發(fā)展樹(shù)立科學(xué)遠(yuǎn)景。他們?cè)谛胖杏懻摿?“計(jì)算研究的倫理意義和科學(xué)家的角色”,強(qiáng)調(diào)了無(wú)論是作為個(gè)人、還是在各機(jī)構(gòu)和基金會(huì)任職的物理學(xué)家們,都應(yīng)該關(guān)心他們正在構(gòu)建和實(shí)施的算法 [8]。

 

泰斯還敦促物理學(xué)家們——這些有著深厚技術(shù)知識(shí)的公民們,積極參與到人工智能倫理的治理中來(lái) [9]。她說(shuō):“讓物理學(xué)家們意識(shí)到人工智能和機(jī)器學(xué)習(xí)方面的偏見(jiàn)問(wèn)題非常重要,即使在機(jī)器學(xué)習(xí)的物理學(xué)研究應(yīng)用中通常不會(huì)出現(xiàn)這種情況?!?泰斯解釋說(shuō),這樣做的原因之一是,許多物理學(xué)家離開(kāi)原有領(lǐng)域,到計(jì)算機(jī)軟件、硬件和數(shù)據(jù)科技公司工作?!霸S多這樣的公司都在使用人工數(shù)據(jù),因此我們必須讓學(xué)生們提前具有責(zé)任意識(shí)。我們不能只教授技術(shù)技能,而忽視更廣泛的社會(huì)背景,因?yàn)樵S多人最終將把這些方法應(yīng)用到物理學(xué)之外。

 

對(duì)此,泰斯和埃斯基維爾也都認(rèn)為,物理學(xué)家在理解和管理人工智能方面扮演著重要的角色,因?yàn)樗麄兺仨毷褂卯a(chǎn)出更精確輸出數(shù)據(jù)的方法,來(lái)解釋和量化系統(tǒng)的不確定性,然后才能抵消數(shù)據(jù)中的固有偏差。泰斯說(shuō):“有了這種更加 ‘黑匣子’ 化的機(jī)器學(xué)習(xí)算法后,我們真的很想了解它的準(zhǔn)確性,了解它在邊界情況下是如何工作的,以及它為什么在某個(gè)特定的問(wèn)題上表現(xiàn)最好。而這些都是物理學(xué)家們?cè)瓿蛇^(guò)的任務(wù)?!?/span>

 

另一位利用物理學(xué)來(lái)提高人工智能精準(zhǔn)度和可靠性的研究人員,是帕耶爾·達(dá)斯(Payel Das),她是IBM托馬斯·J·沃森研究中心的首席研究員。為了設(shè)計(jì)新的材料和抗生素,她和團(tuán)隊(duì)正在開(kāi)發(fā)機(jī)器學(xué)習(xí)算法:將從數(shù)據(jù)和物理原理結(jié)合起來(lái),從而使一項(xiàng)新科學(xué)發(fā)現(xiàn)的成功率提高百倍。達(dá)斯說(shuō):“我們經(jīng)常借助已有的科學(xué)知識(shí)或其他形式的知識(shí)(例如基于物理學(xué)原理),來(lái)增強(qiáng)、指導(dǎo)或驗(yàn)證人工智能模型,以使其系統(tǒng)更耐用、高效、易于解釋和可靠?!?她對(duì)此做了進(jìn)一步解釋,即“通過(guò)使用物理學(xué)驅(qū)動(dòng)的學(xué)習(xí),人們可以在準(zhǔn)確性、可靠性和歸納偏差等方面對(duì)人工智能模型進(jìn)行交叉檢查?!?/span>

 


算法偏見(jiàn)的現(xiàn)實(shí)影響


算法決策工具可能是為科學(xué)研究而開(kāi)發(fā)的,但被用于商業(yè)監(jiān)視,在這種情況下,數(shù)據(jù)中任何微小的偏差都會(huì)產(chǎn)生現(xiàn)實(shí)后果。

 

1
2015年,一位黑人軟件開(kāi)發(fā)人員在推特上說(shuō),谷歌相冊(cè)將他和朋友的照片標(biāo)記為 “大猩猩”。而谷歌公司通過(guò)刪除 “大猩猩” (gorillas)及其他表示靈長(zhǎng)類動(dòng)物的詞來(lái)解決了這個(gè)問(wèn)題。通過(guò)審查這些搜索,谷歌相冊(cè)的識(shí)別照片服務(wù)再也找不出如 “大猩猩” “黑猩猩” 和 “猴子” 等靈長(zhǎng)類動(dòng)物。
2
在搜索 “黑人女孩” “拉丁女孩” 或 “亞洲女孩” 等詞條時(shí),谷歌廣告門(mén)戶網(wǎng)站會(huì)提供關(guān)聯(lián)色情內(nèi)容的關(guān)鍵詞建議 [10]。搜索這些族裔的 “男孩” 也大多返回了與色情有關(guān)的建議,但搜索 “白人女孩” 或 “白人男孩” 時(shí)則未有建議詞條出現(xiàn)。2020年6月,谷歌廣告門(mén)戶還在客體化黑人、拉丁裔和亞洲人,現(xiàn)已通過(guò)阻止這些詞條的出現(xiàn)來(lái)解決該問(wèn)題。
3
紅外醫(yī)療技術(shù)(例如脈搏血氧儀),在深色皮膚上無(wú)法正常工作,因?yàn)槠浯┻^(guò)皮膚的光線較少 [11]。這種情況會(huì)導(dǎo)致讀數(shù)不準(zhǔn)確,可能意味著患者無(wú)法獲得所需的醫(yī)療護(hù)理。同樣的紅外線技術(shù),在公共洗手間的皂液器上也被證明幾乎不起作用。



審核算法


去年,數(shù)據(jù)倫理與創(chuàng)新中心(Centre for Data Ethics and Innovation)發(fā)表了一篇關(guān)于算法決策偏見(jiàn)的評(píng)論 [12]。該中心屬于英國(guó)政府的數(shù)據(jù)驅(qū)動(dòng)和技術(shù)獨(dú)立咨詢機(jī)構(gòu)。研究發(fā)現(xiàn),過(guò)去幾年,在招聘、金融服務(wù)、警務(wù)和地方政府四個(gè)部門(mén),算法決策有了顯著增長(zhǎng),并發(fā)現(xiàn)了算法偏見(jiàn)存在的明確證據(jù)。報(bào)告呼吁各組織積極利用數(shù)據(jù)來(lái)識(shí)別和減輕算法偏見(jiàn),并確保了解其工具的功能和局限。來(lái)自愛(ài)丁堡大學(xué)的人工智能教授、貝葉斯中心(Bayes Centre)主任邁克爾·羅瓦佐斯(Michael Rovatsos)也表達(dá)了這種看法:“要想真正獲取數(shù)據(jù)或算法是非常困難的”,他補(bǔ)充說(shuō),政府應(yīng)要求公司進(jìn)行審計(jì),并應(yīng)該要求其在現(xiàn)實(shí)世界中應(yīng)用的系統(tǒng)保持透明。

 

就像布奧蘭維尼一樣,一些研究人員正試圖利用他們?cè)谌斯ぶ悄芊矫娴目茖W(xué)經(jīng)驗(yàn),從外部揭示商業(yè)算法中的偏見(jiàn)。其中包括數(shù)學(xué)家凱西·奧尼爾(Cathy O'Neil),她在2016年撰寫(xiě)了《數(shù)學(xué)殺傷性武器》Weapons of Math Destruction一書(shū),講述了她在數(shù)據(jù)偏見(jiàn)方面的工作。2018年,她成立了一家咨詢公司,并與公司私下合作,審核他們的算法。如今,布奧蘭維尼還在繼續(xù)她的工作,通過(guò)非盈利的算法正義聯(lián)盟(Algorithmic Justice League)創(chuàng)建更公平和負(fù)責(zé)任的技術(shù),這是她于2016年成立的一個(gè)跨學(xué)科研究機(jī)構(gòu),旨在了解人工智能技術(shù)的社會(huì)意義。

 

圖3 鏡子 | 圖源TJ Rak

計(jì)算機(jī)科學(xué)家喬伊·布奧蘭維尼(Joy Buolamwini)通過(guò)一些面部分析演示測(cè)試了自己的這張照片。微軟和Face++沒(méi)有檢測(cè)到她的臉,而IBM和Kairos搞錯(cuò)了她的性別。

 

2018年,她與計(jì)算機(jī)科學(xué)家提姆尼特·格布魯(格布魯是 “Black in AI” 的創(chuàng)始人之一)共同發(fā)表了《性別陰影》Gender Shades研究報(bào)告,研究結(jié)果后被發(fā)送給了涉及到的公司。一年后,他們又進(jìn)行了一項(xiàng)后續(xù)研究以重新審核,并新增了兩家公司:亞馬遜和凱羅斯(Kairos) [13]。在計(jì)算機(jī)科學(xué)家、現(xiàn)任Mozilla基金會(huì)研究員黛博拉·拉吉的帶領(lǐng)下,該研究的后續(xù)調(diào)查發(fā)現(xiàn),這兩家公司存在巨大的精度錯(cuò)誤——亞馬遜的面部識(shí)別軟件甚至無(wú)法對(duì)米歇爾·奧巴馬(Michelle Obama)臉進(jìn)行正確分類,但最初的三家公司識(shí)別精度已經(jīng)有了明顯改善,這表明他們的數(shù)據(jù)集是用更多樣化的圖像進(jìn)行訓(xùn)練的。

 

這兩項(xiàng)研究對(duì)現(xiàn)實(shí)世界產(chǎn)生了深遠(yuǎn)的影響:促成了兩項(xiàng)美國(guó)聯(lián)邦法案:《算法責(zé)任法案》Algorithmic Accountability Act和《禁止生物特征住房壁壘法案》No Biometric Barriers Act,以及紐約和馬薩諸塞州的州法案。這項(xiàng)研究還說(shuō)服了微軟、IBM和亞馬遜停止為警方辦案提供面部識(shí)別技術(shù)。如今,她正在繼續(xù)算法評(píng)估的工作,并在去年與谷歌的同事一起開(kāi)發(fā)了一個(gè)用于人工智能準(zhǔn)確度的算法審計(jì)框架。“內(nèi)部審計(jì)至關(guān)重要,因?yàn)樗试S在將系統(tǒng)被部署到世界各地之前對(duì)其進(jìn)行更改,” 她補(bǔ)充說(shuō),人工智能有時(shí)所涉及的偏見(jiàn)可能對(duì)特定人群有害,“因此,確定在這些決策中最易受傷害的群體,并對(duì)人工智能領(lǐng)域發(fā)展過(guò)程中可能引入偏見(jiàn)的時(shí)刻進(jìn)行審查是很重要的。”

 

2019年,AI Now研究所發(fā)布的一份詳細(xì)報(bào)告 [14],為有興趣負(fù)責(zé)人地使用算法決策工具的公共機(jī)構(gòu)提供了一個(gè)架構(gòu),并在隨后發(fā)布了算法問(wèn)責(zé)政策工具包。該報(bào)告呼吁,人工智能和機(jī)器學(xué)習(xí)領(lǐng)域的研究人員應(yīng)該了解自己正在構(gòu)建什么,還要考慮從事領(lǐng)域的潛在風(fēng)險(xiǎn)和危害,并更好地記錄模型和數(shù)據(jù)來(lái)源。

 

埃斯基韋爾指出,物理學(xué)家了解其數(shù)據(jù)來(lái)源的重要性(尤其是用于訓(xùn)練機(jī)器學(xué)習(xí)系統(tǒng)的數(shù)據(jù)集),“許多用于粒子物理數(shù)據(jù)的算法都是經(jīng)過(guò)微調(diào)后的架構(gòu),由人工智能專家開(kāi)發(fā),并經(jīng)過(guò)行業(yè)標(biāo)準(zhǔn)數(shù)據(jù)集訓(xùn)練。然而,這些數(shù)據(jù)后被證明充斥著種族主義、不公平對(duì)待和性別歧視?!?她以麻省理工學(xué)院為例:麻省理工學(xué)院刪除了曾廣泛使用的、擁有8000萬(wàn)張圖像的人工智能數(shù)據(jù)集,因?yàn)檫@些圖像被以攻擊性的、種族主義的和厭女的方式貼上標(biāo)簽 [15]

 

格布魯和同事最近還強(qiáng)調(diào)了大型數(shù)據(jù)集現(xiàn)存的一些問(wèn)題,例如 Common Crawl ——一個(gè)網(wǎng)頁(yè)爬蟲(chóng)數(shù)據(jù)的開(kāi)放式儲(chǔ)存,其中充滿了白人至上主義、年齡歧視和厭女主義等觀點(diǎn)的過(guò)度代表 [16],而她最近也因?yàn)檫@篇文章被谷歌人工智能的倫理團(tuán)隊(duì)解雇。基于這些現(xiàn)實(shí)情況,埃斯基韋爾清楚地表明:學(xué)術(shù)界 “有機(jī)會(huì)成為開(kāi)發(fā)這些工具的公立第三方”。

 


消除偏見(jiàn)


在2019年的報(bào)告中, AI Now 研究所還建議對(duì)人工智能偏見(jiàn)領(lǐng)域的研究應(yīng)不止于技術(shù)修正?!拔覀儾粌H需要改變算法或系統(tǒng),還需要改變行業(yè)制度和社會(huì)結(jié)構(gòu),” 蘭金解釋說(shuō)。她認(rèn)為,要想監(jiān)管、消除或盡量減少人工智能算法中的偏見(jiàn)和歧視,就必須采取 “大規(guī)模的集體行動(dòng)”,讓自然科學(xué)界以外的人參與進(jìn)來(lái)也會(huì)對(duì)此有所裨益。

 

諾德也認(rèn)為,物理學(xué)家需要與其他學(xué)科的科學(xué)家及社會(huì)科學(xué)家、倫理學(xué)家們合作。


“不幸的是,就這些花費(fèi)了大量時(shí)間和精力進(jìn)行文獻(xiàn)和群體研究的各領(lǐng)域而言,我沒(méi)有看到物理學(xué)家或計(jì)算機(jī)科學(xué)家們充分參與進(jìn)來(lái)。” 他指出,幾乎每隔幾周,就會(huì)有一個(gè)新的基于機(jī)器學(xué)習(xí)的應(yīng)用程序出現(xiàn),但它們?cè)愀?、有害、毫無(wú)意義,甚至試圖去完成一些不可能和不道德的事情?!?/strong>例如,德克薩斯大學(xué)奧斯汀分校最近才停止使用一個(gè)機(jī)器學(xué)習(xí)系統(tǒng)預(yù)測(cè)研究生院錄取學(xué)生的可能性,該系統(tǒng)的數(shù)據(jù)基于此前的錄取周期,因此會(huì)產(chǎn)生算法上的偏見(jiàn)。對(duì)此,諾德問(wèn)道:“為什么我們要在一個(gè)必然需要人文主義的地方尋求這種充斥著技術(shù)官僚主義的解決方案?

 

對(duì)于算法偏見(jiàn),泰斯堅(jiān)持認(rèn)為,物理學(xué)家必須厘清這些偏見(jiàn)問(wèn)題的現(xiàn)狀,并了解其他人為緩解這些偏見(jiàn)而采取的方法。“我們必須將這些對(duì)話納入圍繞機(jī)器學(xué)習(xí)和人工智能的所有討論中?!?她希望物理學(xué)家們可以參加相關(guān)的會(huì)議、研討會(huì)或演講,“這項(xiàng)技術(shù)深刻影響著我們生活的方方面面,因此,不把相關(guān)工作放在更廣泛的社會(huì)背景下是不負(fù)責(zé)任的?!?/span>

 

對(duì)此,諾德的思考更加清晰:“物理學(xué)家們?cè)谧詥?wèn)是否 ‘能夠’ 構(gòu)建或施行某些人工智能技術(shù)之前,應(yīng)該先問(wèn)自己是否 ‘應(yīng)該’?!?nbsp;他補(bǔ)充表示,將來(lái)也有可能會(huì)停止使用現(xiàn)行的一些有害技術(shù),“使用這些技術(shù)與否,即是個(gè)體也是社會(huì)的選擇。” 


 原文鏈接:

https://physicsworld.com/a/fighting-algorithmic-bias-in-artificial-intelligence/

參考資料(上下滑動(dòng)可瀏覽)

1. http://proceedings.mlr.press/v81/buolamwini18a.html

2. https://www.hup.harvard.edu/catalog.php?isbn=9780674970977

3. https://homes.cs.washington.edu/~lazowska/mit/

4. https://journals.plos.org/plosbiology/article?id=10.1371/journal.pbio.2004956

5. https://ainowinstitute.org/discriminatingsystems.pdf

6. https://www.nature.com/articles/d41586-020-02003-2

7. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

8. https://www.snowmass21.org/docs/files/summaries/CommF/SNOWMASS21-CommF6_CommF3-CompF3_CompF6_brian_nord-054.pdf

9. https://physics.aps.org/articles/v13/107

10. https://themarkup.org/google-the-giant/2020/07/23/google-advertising-keywords-black-girls

11. http://bostonreview.net/science-nature-race/amy-moran-thomas-how-popular-medical-device-encodes-racial-bias

12. https://www.gov.uk/government/publications/cdei-publishes-review-into-bias-in-algorithmic-decision-making

13. https://dl.acm.org/doi/proceedings/10.1145/3306618?tocHeading=heading12

14. https://ainowinstitute.org/reports.html

15. https://gizmodo.com/mit-takes-down-popular-ai-dataset-due-to-racist-misogy-1844244206

16. https://dl.acm.org/doi/proceedings/10.1145/3442188


 本文為Physics World 專欄的第42篇文章。


 版權(quán)聲明 

 

原文標(biāo)題 “Fighting algorithmic bias in artificial intelligence ”,首發(fā)于2021年5月出版的Physics World,英國(guó)物理學(xué)會(huì)出版社授權(quán)《知識(shí)分子》翻譯。本譯文有刪節(jié),中文內(nèi)容僅供參考,一切內(nèi)容以英文原版為準(zhǔn)。未經(jīng)授權(quán)的翻譯是侵權(quán)行為,版權(quán)方將保留追究法律責(zé)任的權(quán)利。登陸 Physics World,關(guān)注日常全球科學(xué)新聞、熱點(diǎn)報(bào)道和評(píng)論。Physics World 幫助學(xué)界與產(chǎn)業(yè)界的研究人員走在世界重大科研突破與跨學(xué)科研究的前沿。


制版編輯 盧卡斯




參與討論
0 條評(píng)論
評(píng)論
暫無(wú)評(píng)論內(nèi)容
Physics World是一本世界領(lǐng)先的物理學(xué)雜志,關(guān)注日常全球科學(xué)新聞、熱點(diǎn)報(bào)道和評(píng)論。
訂閱Newsletter

我們會(huì)定期將電子期刊發(fā)送到您的郵箱

GO