? 新婚之夜玩弄人妻系列,天堂网www天堂在线资源库

亚洲 a v无 码免 费 成 人 a v,性欧美videofree高清精品,新国产三级在线观看播放,少妇人妻偷人精品一区二区,天干天干天啪啪夜爽爽av

斯隆獎得主方飛:當(dāng)深度學(xué)習(xí)和博弈論相結(jié)合,能解決哪些社會問題?

2022/05/10
導(dǎo)讀
    5.10
知識分子The Intellectual

算法與社會福祉的沖突是天然存在的嗎?| 圖源:pixabay.com


  導(dǎo)  讀

今日,人工智能算法已經(jīng)滲透到社會生活的方方面面:購物軟件依靠算法判斷消費者的消費習(xí)慣,推送特定商品;打車軟件通過算法派單和定價,調(diào)配司機運力;社交軟件利用算法分析關(guān)鍵詞、推送廣告和內(nèi)容。在這個過程中,盡可能為商業(yè)企業(yè)產(chǎn)生收益的算法,給社會生活帶來便利的同時,也因隱私、歧視等諸多問題飽受詬病。

但是,算法與社會福祉的沖突是天然存在的嗎?

卡耐基梅隆大學(xué)(CMU)助理教授方飛認(rèn)為,找對研究方向,算法也能夠幫助解決一些社會性的問題。她的工作,就是將博弈論、人工智能與現(xiàn)實問題相結(jié)合,解決現(xiàn)實中的復(fù)雜問題,比如保護輪渡免受恐怖分子襲擊,防止盜獵者在保護區(qū)內(nèi)傷害動物,將即將過期的食物分給需要的人等等。

方飛的工作扎實、穩(wěn)重,在領(lǐng)域內(nèi)贏得了不少贊譽。2020年,她入選IEEE“AI十大潛力人物”;2021年獲得IJCAI(國際人工智能聯(lián)合會議)計算機與思想獎;2022年2月,她獲得斯隆研究獎,一個獎勵職業(yè)生涯早期杰出年輕學(xué)者的獎項。

方飛現(xiàn)在CMU計算機科學(xué)學(xué)院軟件研究所任職。她認(rèn)為,一些情況下,企業(yè)通過算法在最大化社會總收益時也能得到較高的利潤。而相比于人工智能的其他強應(yīng)用性領(lǐng)域,AI向善還是一片“藍(lán)?!?。她希望有更多研究者能加入這個領(lǐng)域,為提升整體社會福利作出貢獻(xiàn)。

她說,進入這個領(lǐng)域最重要的,是要有發(fā)現(xiàn)問題的眼睛。

以下是《知識分子》和方飛的對話,行文有刪減。


撰文 | 王一葦

責(zé)編 | 陳曉雪


 ●                   ●                    


方飛,卡耐基梅隆大學(xué)(CMU)助理教授,斯隆研究獎獲得者



當(dāng)人工智能與博弈論相結(jié)合


知識分子:博弈論是1944年的時候馮·諾依曼和奧斯卡·摩根斯特恩提出的,跟人工智能結(jié)合的博弈論研究是什么時候、怎么發(fā)展起來的?

 

方飛:一開始,博弈論主要在經(jīng)濟領(lǐng)域里面(發(fā)展),諾貝爾經(jīng)濟學(xué)獎得主經(jīng)常是研究博弈論的。由于計算機的發(fā)展,大家很感興趣在博弈論里什么樣的問題是可計算的,或是能有效地計算出結(jié)果的,就會去研究不同的激勵形式和不同的均衡,看什么樣的均衡概念在什么樣的博弈中是有效的算法,什么樣的問題是NP hard——比較難解的。有了預(yù)測,就開始處理計算上的挑戰(zhàn)。


安全博弈相關(guān)的進展是在2006年,Tuomas Sandholm和Vincent Conitzer兩個大牛在Economics and Computation(經(jīng)濟學(xué)與計算)會議上發(fā)了一篇論文 [1],說在斯坦伯格均衡當(dāng)中,在比較簡單的問題上,是可以有多項式時間的算法可解的,但是當(dāng)這個問題延伸到有一方博弈參與者的支付函數(shù)或在博弈中的收益有多種可能、類型未知時,這個問題就不可解。


在這之后,我的導(dǎo)師Milind Tambe是最先把博弈論應(yīng)用到安全領(lǐng)域的。他研究的是在一個具體的問題里可不可以應(yīng)用斯坦伯格博弈(Stackelberg Game,指存在兩方的完全信息動態(tài)博弈,雙方都是根據(jù)對方可能的策略來選擇自己的策略)去分析。

 

比如,我們想保護洛杉磯的機場。在保護機場的問題里,有保護者也有攻擊者。機場的巡護人員,也就是防御的這一方,每天都要進行巡邏。那么作為攻擊者,可能會花很長的時間去觀察巡邏人員的巡邏有什么樣的規(guī)律,是不是每個周一都在一號航站樓巡邏,每個周二都在二號航站樓巡邏之類的,然后根據(jù)觀察到的這些規(guī)律去找巡邏方案里相對的弱點,避免被巡邏人員抓到。他們會有各種各樣的攻擊,比如說有人會把手槍、步槍等各種各樣的武器帶進機場。

 

巡邏人員一方面會在進入機場的多個路口設(shè)檢查站,另一方面在各個航站樓里面用警犬巡邏,但是因為檢查站的數(shù)量以及警犬的數(shù)量都不夠多,所以需要去決定每天去什么樣的地方做什么。


因為有這樣的不對稱關(guān)系,他們把這個問題建模成一個斯坦伯格博弈:巡邏者這一方是領(lǐng)導(dǎo)者,先去選擇一個巡邏策略;而攻擊者那方是跟隨者,觀察領(lǐng)導(dǎo)者的策略以后,再去回應(yīng),選擇更好的攻擊方式回應(yīng)現(xiàn)有的巡邏方案。

 

在這個基礎(chǔ)上,他們又開發(fā)了一系列的模型和算法來去研究這個領(lǐng)域,慢慢成為了最開始的一波安全博弈項目。


我加入Tambe的研究組以后,開始應(yīng)用更多的機器學(xué)習(xí)手段。我們開始研究移動的目標(biāo),比如輪渡是不是也可以用類似的模型建模,以及能不能找到快速的算法來去求解最好的巡邏方式。


美國的海防在各個渡口都有巡邏。在紐約,巡邏人員其中一部分任務(wù)就是要保護曼哈頓島到史丹頓島的輪渡。這個問題里,輪渡就是移動的目標(biāo),而巡邏人員也駕著小船在不停移動,我們想要做的事情就是用博弈論建模,并且去構(gòu)建一個算法,找到最佳的路線選擇。


最開始的模型主要就是兩方的斯坦伯格博弈,后來也有研究多方的。前兩年的一些保護動物相關(guān)的工作里,保護區(qū)的人跟我們說,有時候會有居民告訴他們,聽說盜獵者去哪里盜獵了或者是將要去哪里盜獵。當(dāng)時現(xiàn)有的模型都沒有辦法去考慮這樣的因素,我們就建立新的模型來考慮多于兩個博弈者的問題。

 

知識分子聽上去這個領(lǐng)域?qū)嵱眯苑浅?。那么博弈論跟AI結(jié)合,想要完成的科學(xué)目標(biāo)是什么?

 

方飛在我看來,它的科學(xué)目標(biāo)就是希望能夠去找到更有效的、更快速的算法來解決更復(fù)雜或更實際的博弈。博弈論是理論框架,而AI或深度學(xué)習(xí)是工具,在這個框架下去求解數(shù)學(xué)問題。整個計算博弈論領(lǐng)域,大家都在做的事情就是希望有更好更快的算法,能夠去求解更復(fù)雜的博弈。

 

很多時候,計算和博弈論結(jié)合無法找到快速的解。

 

一種情況是這個博弈太復(fù)雜了,沒有辦法用數(shù)學(xué)規(guī)劃求解,因為如果用數(shù)據(jù)規(guī)劃去求解的話,需要幾百萬的電量、幾百萬的限制條件,如果真的在機器上算,光去求解,這個機器的內(nèi)存就爆掉了。這樣的情況下,我們可以通過深度學(xué)習(xí)的方式,找到這個大問題里面一個較優(yōu)的解,或者說比較靠近均衡的策略。


第二種情況,有時候在博弈問題里需要考慮人的行為。最傳統(tǒng)的博弈論假設(shè)所有的人都是理性人,但后來提出,并不是所有人都是完全理性的,這時候就要去理解人的行為模式。機器學(xué)習(xí)可以幫助我們,通過人以往的行為數(shù)據(jù)來給人的行為建模,在這樣的模型下去再去找博弈中其他博弈方的解。

 

第三種情況是逆向博弈論(inversive game theory)。一般的博弈論的問題是說,我告訴你博弈是這幾個人在進行,在不同的情況下,每個人的收益會是多少,然后問你對于這樣一個博弈問題,均衡策略應(yīng)該是什么。逆向博弈論就是反過來,我能夠觀察到大家在博弈中采取什么樣的行動,問能不能去找到每個人的收益函數(shù)是什么。


在這樣一個問題里,有很多觀察數(shù)據(jù)來描述每個人的行為和他采取的行動,我們要去從行動里逆推收益函數(shù),這個時候機器學(xué)習(xí)也可以幫助我們。

 

我提的這三個是我自己做過的,都是把機器學(xué)習(xí)作為工具來解決博弈論里面的問題。還有其他結(jié)合博弈論和深度學(xué)習(xí)的方式。

 

反過來,也可以用博弈論去解決機器學(xué)習(xí)里面的很多問題。一個例子是卡耐基梅隆大學(xué)招學(xué)生,最初一輪篩選中,每個人把申請資料交過來,大家來看。事實上除了人做判斷以外,學(xué)校有一個算法來判斷這個學(xué)生是不是值得考慮的,防止有一些被人漏掉。這兩條線是完全獨立地在做判斷,就是說只要人或者機器認(rèn)為這個學(xué)生應(yīng)該值得被考慮,那么就會進入下一輪。

 

可以想象,在這樣的情況下,如果學(xué)生知道你是用什么樣的方式來進行篩選,他們可能會去想辦法改變自己的一些行為或者分?jǐn)?shù),根據(jù)算法去調(diào)整自己的行為。在這樣的情況下,我們其實可以用博弈論去分析(如何解決這個問題)。

 

知識分子博弈論和機器學(xué)習(xí)的結(jié)合可以解決哪些類型的社會問題?你一般是怎么去找到這些現(xiàn)實社會中的問題和痛點的?


方飛我們幫美國海防設(shè)計巡邏路線,幫動物保護組織設(shè)計護林員的巡護路線。前者是安全性問題,后者與環(huán)境的可持續(xù)發(fā)展相關(guān)。還有移動性(mobility)相關(guān)的問題,比如交通運輸?shù)?,我們也在研究中?/span>

 

有一部分是各種各樣因素的巧合疊加,另一部分其實是因為我們之前做過的一些東西,延展到了類似的或是相關(guān)的問題。


比如說我博一的時候做了保護輪渡的工作。我們講演、發(fā)了paper之后,去跟不同的人交談,有人就提到,你們這個問題聽起來跟動物保護護林員的巡邏問題挺類似的,有沒有考慮過把你們的算法應(yīng)用到那個問題上。這給了我們動力,去跟相關(guān)的專家去交談,了解實際的問題。

 

我來CMU之后,我們還做一個新的系列工作,是食物救助。我一開始不知道匹茲堡有這樣一個非營利組織,是有一次在我們學(xué)校會議室里面正好遇到了這個組織的CEO,互發(fā)了名片。我去查了一下他們的組織在干什么,發(fā)現(xiàn)特別有意思。后來我自己也去給他們做志愿者,又去跟他們交流,跟他們說我們做了很多AI相關(guān)的工作,希望看看我們的技術(shù)有什么能夠應(yīng)用到這個問題里面,能夠幫助你們平臺發(fā)展得更好。


從這樣的討論開始,慢慢的就有了越來越多真正的工作,我們現(xiàn)在在這個方向上已經(jīng)發(fā)了三四篇paper,(算法)也在他們的系統(tǒng)里面已經(jīng)用上了,這也是我特別高興的。

 

食物救助分兩個部分,第一個部分是匹配donor和receiver,就是食物捐助者和食物接受者;第二個部分是匹配志愿者去運送食物。比如我當(dāng)時去做志愿者,CMU的一個咖啡廳有剩下的蛋糕,他們想捐給附近的單身母親救助站,就在手機APP上說我們需要志愿者來把食物從CMU的咖啡廳送到救助站去,我一看很高興,就在我樓上,就趕緊接了這個單,把食物送過去了。

 

我們主要研究的是平臺和志愿者之間怎么匹配的問題,或者說怎么能夠幫助平臺更好的找到能夠來運送食物的志愿者,怎樣讓志愿者在這個過程中獲得更好的體驗。在這個問題里,我們的目標(biāo)就是能夠不要發(fā)太多的的通知,因為如果每來一個單就給所有的志愿者發(fā)通知的話(會很打擾)。我們希望不要發(fā)太多的通知,但是又能夠提升接單率和縮短時間。


新的推薦機制上線以后,總的接單率上升了,平均接單時間減少了。這個問題其實跟打車軟件有一點像,也是有一個派單的過程,但是很不一樣的是,這是一個純志愿者的非營利性平臺,給打車軟件做的定價策略是完全不能用的。




找到真問題


知識分子尋找解決方案的過程中,你覺得最困難的事情是什么?

 

方飛是找問題。找能夠利用人工智能、真的產(chǎn)生價值的問題。

 

像食物救助這個問題,我一開始做完志愿者之后,覺得整個系統(tǒng)里面有太多可以改進的點了。我當(dāng)時寫了一個很長的郵件給他們CEO,說根據(jù)我的經(jīng)驗,一二三四這幾個方面都可以改進,然后我們的人工智能可以在每個方面做點什么。我提的建議是,你們給志愿者的指導(dǎo)信息太模糊了,需要通過一些智能的方式提供更清楚的指導(dǎo),比如應(yīng)該去找誰跟誰對接,在什么地方跟別人見面之類的,另外可以讓一個志愿者送多個單。

 

后來我去跑到他們辦公室里面去跟他們聊,他們就說你提的問題都很有意思,但不是我們真正關(guān)心的點。對于他們的組織來說,需要看的是更大的方面,他們真正的痛點是,怎么能夠讓更多的志愿者來參與,讓食物不被浪費,能夠及時地送到該送的人手里面。


所以要不斷地跟他們討論,我的學(xué)生也去他們那邊實習(xí)了兩天,幫他們?nèi)プ雠蓡蔚墓ぷ鳎w驗一下從內(nèi)部的角度來看派單的過程是什么樣子。在不斷的討論中,最后才慢慢找到了一個對他們來說是非常關(guān)心的,對于我們來說是人工智能真的可以發(fā)揮作用的問題。在我看來這可能是最花時間的一個步驟。

 

另一個我覺得特別有挑戰(zhàn)的就是,怎么能夠讓他們真的去用你做的這個東西??赡芩褦?shù)據(jù)給你了,然后你做的這個東西看起來挺有趣的,發(fā)了論文了,但是他覺得,我沒有能力去把你這個算法真的實現(xiàn)在系統(tǒng)里面,我們太忙了,有其他的事情要做,這個東西可能不是他們的最高優(yōu)先級。如果說是一個純商業(yè)的問題,這個工具可以給你的利潤提高10個點,他們可能就很積極地去做了,但是公益組織不是這樣的,他們有其他方面的考慮。怎么能夠說服他們?nèi)プ鰧嶋H的測試和應(yīng)用,在我們看來也非是常難的一個點。

 

我們的經(jīng)驗就是,首先要充分尊重他們的意愿,積極地跟他們溝通;其次是盡量減少他們需要付出的成本,包括時間成本、人力成本以及可能的金錢成本。我們在進行實際測試的時候,最好是把能干的活都干了,他們可能只需要花幾個小時來跟我們開個會,討論一下方案,然后批準(zhǔn)一下我們上線前的測試是過關(guān)了的,就可以上線。這樣的話他們就更愿意去做這樣的測試。

 

知識分子你們的項目好像現(xiàn)在還是偏公益的居多一些,是考慮到研究本身的性質(zhì),還是你覺得這是最大化效益的工作?

 

方飛我們并沒有排斥商業(yè)化的項目,但是我個人非常希望能夠幫助解決一些社會性的問題。我開玩笑說我們在做高級志愿者,幫助一些政府組織或工業(yè)公益組織更好地向社會提供更高質(zhì)量的服務(wù)。

 

這些問題是對社會來說是非常重要的,它可能并不一定能夠直接產(chǎn)生商業(yè)利益,但是這些都是影響很多人的問題,但是又沒有很多人去做。也可以理解,現(xiàn)在人工智能這么火,可以想象去業(yè)界的話能賺很多錢,那么當(dāng)你有這個能力的時候,可能很多人選擇了去賺錢。也許很多人是對這件事感興趣的,但是真正投入去做的人沒有那么多。我也希望我們能夠一方面自己去做一些工作,另一方面也能夠讓更多的人去參與這樣的工作。


我在學(xué)校里教AI for social good(人工智能向善)的課,也是希望能培養(yǎng)更多的學(xué)生去接觸這樣的問題,解決這樣的問題。

 

知識分子你剛剛也說了,找問題是一個難點。你怎么看這個領(lǐng)域未來的發(fā)展,未來它還能夠應(yīng)用在更多的領(lǐng)域、更多的問題上嗎?

 

方飛我覺得有很多值得做的問題。我過去三年都在做AAAI(人工智能促進協(xié)會)的AI for social impact special track(AI社會影響力???/span>的co-chair(聯(lián)合主席),我們每年也都收到不少的論文,能看到很多人對這個感興趣,也不斷地在做這方面的工作。

 

未來還是有很多可以做的問題的,比如像聯(lián)合國的17個可持續(xù)發(fā)展的目標(biāo),我們現(xiàn)在的工作可能只涉及到其中的四個目標(biāo),其實還有很多其他目標(biāo),中間可能也涉及到許多值得去做的問題。




社會總收益 vs 企業(yè)利潤


知識分子很多企業(yè)用AI算法提升效率,但也受到一些詬病。外賣企業(yè)里,騎手因為這些算法的規(guī)定,或者企業(yè)本身的策略,福利是在不斷下降的。你對相關(guān)的AI應(yīng)用有哪些觀察,在企業(yè)責(zé)任或者用AI算法來改善的方面,有哪些能做的事情嗎?

 

方飛公司肯定要追求利潤的,這肯定是他們的主要目標(biāo)。那么除了利潤之外,博弈論或者機制設(shè)計里面經(jīng)常會談到一個 social welfare,社會福利,所有人的收益之和。

 

在外賣平臺或打車平臺,平臺的收益加上騎手或者是司機以及等餐的人、想要打車的人,所有人的收益之和是需要關(guān)注的一個目標(biāo)函數(shù)。我們之前做優(yōu)步等打車平臺的定價策略的研究的時候,就是把目標(biāo)設(shè)為了最大化社會收益。怎么計算社會收益?比如對于乘客來說,他很想去這個地方,他愿意花100塊錢去,然后他付了50塊錢,那么他的收益就是100-50。

 

我們很難去跟商業(yè)公司說,你們不要關(guān)注利潤了,來關(guān)注社會總收益,這是非常困難的。但是我們看到的是,什么樣的情況下,大家會更關(guān)注除了利潤以外的目標(biāo)。

 

一個是監(jiān)管,比如保險公司,可能一開始的時候,當(dāng)沒有足夠的監(jiān)管的時候,保險公司的定價策略會是有非常有偏見的,當(dāng)一些事情被爆出來之后監(jiān)管介入,監(jiān)管可能就要求你保險的定價策略更公平。那么在這樣的情況下,這些公司就會更考慮除了利潤以外的社會總收益,比如公平性的問題。


另一個是,一些情況下,我們可以去向這些公司證明,在你們的問題里,其實最大化社會收總收益是跟最大化總利潤是差別非常小的。如果你去最大化社會總收益,也能夠獲得比較大的收益,可能不一定是最大化,但是也比較接近,但它能夠在社會總福利方面有一個更大的提升。我們研究打車平臺的時候做過分析,在一定的假設(shè)之下,最大化社會總收益時也能夠得到比較高的利潤。




如何消除數(shù)據(jù)偏見?


知識分子在AI研究里,數(shù)據(jù)是基礎(chǔ),但是也經(jīng)常會遇到一些數(shù)據(jù)不準(zhǔn)確或者偏見的情況,你的研究會遇到類似的問題嗎?怎么去解決這些問題?

 

方飛會。拿動物保護的情況來說,我們收集的數(shù)據(jù)就有很多的問題。比如說現(xiàn)有的數(shù)據(jù)都是護林員們之前非常辛苦地去巡邏,收集來的。但是他們并不是覆蓋了所有的區(qū)域,可能某些區(qū)域去的比較多,另一些區(qū)域去的比較少,這就導(dǎo)致去的比較多的區(qū)域,可能有更多的數(shù)據(jù),而且這個地方到底盜獵有多高發(fā),是比較準(zhǔn)確的,能有一個相對比較準(zhǔn)確的估計;但是對那些去的比較少的地方,即使他們說我去了,我沒有找到獵套,并不意味著那個地方從來沒有發(fā)生過盜獵,可能只是因為他們?nèi)サ纳伲サ臅r候正好沒發(fā)現(xiàn)獵套。

 

而且如果看總體的數(shù)據(jù)量,他們?nèi)ミ^的所有地方里面找到獵套的點肯定是少的,還是有更多的時候他們在路上走,什么也沒有發(fā)現(xiàn)。這也說明數(shù)據(jù)中的不平衡,也是我們在設(shè)計機器學(xué)習(xí)算法來學(xué)習(xí)盜獵者的行為模型的時候需要去處理的挑戰(zhàn)。

 

我們嘗試了各種各樣的辦法,像最初的一版算法里面,我們把整個保護區(qū)分成多個地塊,如果這個地塊它的數(shù)據(jù)量比較大,可以用稍微復(fù)雜一點的機器學(xué)習(xí)算法;如果這個地塊數(shù)據(jù)量不夠,我們就把數(shù)據(jù)量不夠的那些地塊所有的數(shù)據(jù)全部結(jié)合起來,然后去找一個對于數(shù)據(jù)量要求沒有那么高的機器學(xué)習(xí)算法,比如決策樹之類的方法去預(yù)測。這是一開始的想法。

 

后來我們又做了很多其他的嘗試,比如在黃泥河保護區(qū)(位于吉林省),我們給當(dāng)?shù)氐淖o林員發(fā)過問卷,問他們在我們劃分出來的整個保護區(qū)的多個區(qū)域里,每個區(qū)域的總體盜獵風(fēng)險是高還是低,根據(jù)他們的回答,我們?nèi)ヮ~外采樣一些新的數(shù)據(jù)點放到我們的數(shù)據(jù)集里面,這一方面能夠幫助我們增加更多的數(shù)據(jù),另一方面也可以糾正這些護林員本身的偏見。




人工智能進入死胡同了嗎?


知識分子最近有一種說法是,AI已經(jīng)走進了一個死胡同,只適合處理一些存在低風(fēng)險、存在完美答案的問題。你怎么看這個說法?

 

方飛一方面,咱們要承認(rèn)現(xiàn)在人工智能還是沒有那么高級的,是真的沒有那么厲害。但是我覺得還是有很多可以做的。

 

一個是高風(fēng)險的問題。相對來講,在高風(fēng)險問題上,人工智能是輔助人類進行決策的,并不是想要代替人類進行決策,我們知道決策是高風(fēng)險的決策,我們做的事情是希望能夠給決策者提供更多信息及更多的可選方案。

 

現(xiàn)在有很多人在做可解釋性的人工智能,一定程度上是想要解決在高風(fēng)險場景應(yīng)用AI的問題。

 

其中一個方向是,最后我不要一個神經(jīng)網(wǎng)絡(luò),我需要的是一個決策樹,是能夠畫出來、人能夠直接看得懂的,一個基于規(guī)則的分類器??赡芩谋憩F(xiàn)沒有深度學(xué)習(xí)那么好,但還是可以有比較好的表現(xiàn)。在我去訓(xùn)練決策樹的過程中,可能還是需要深度學(xué)習(xí)的,只是最后呈現(xiàn)的是一個決策樹,這樣的話人至少能夠看得懂。

 

還有一些其他路線,比如說我預(yù)測或做決策還是用深度學(xué)習(xí)的模型,但是我去跟人用自然語言解釋它在做出這樣的預(yù)測和決策時,是哪一些特征起到了關(guān)鍵的作用,使得它最后做出了這樣的預(yù)測或者決策。

 

還有其他各種各樣的方向。我們自己也在做一些,希望能夠把人工智能里面的一些黑盒子給打開,讓相關(guān)的決策者能真正地理解AI在做什么,至少可以去檢查和驗證人工智能找到的這些東西到底有用還是沒用,再決定要不要使用它。


當(dāng)然另外一方面,我覺得AI for social good還沒有到瓶頸期,還有很多問題值得去做,所以也希望更多的人能夠關(guān)注這個方面的研究,能夠更愿意去做一些這方面的研究。


當(dāng)你說很多問題已經(jīng)被解決的時候,可能是圖像分類、醫(yī)療圖像識別這樣的問題。這些問題做的人可能已經(jīng)很多了,做了很久了,已經(jīng)到了一個非常不錯但是再進一步就很困難的地方。但是我覺得AI for social good這塊還是藍(lán)海的狀態(tài),因為相對圖像處理語音處理或者自然語言處理,這里沒有一個規(guī)范的數(shù)據(jù)集或一個特定的問題,大家要不斷去開發(fā)越來越好、越來越新的算法,要去了解不同的問題,這個問題里面有什么是AI能夠去幫助解決的,什么樣的方法是最合適去解決的,最后怎么做系統(tǒng)性的測試,推動落地。除了算法設(shè)計以外,還有很多其他的工作需要做。

 

知識分子在未來2年內(nèi)或者5年內(nèi)有什么想做的方向,或者要進行的工作嗎?

 

方飛現(xiàn)在我希望能夠深挖的領(lǐng)域還是動物保護、食物救助和交通運輸相關(guān)的一些問題。


正在進行中的,一個是我們正在跟世界自然基金會(WWF)合作動物保護相關(guān)的新工作。我們想幫助他們自動收集新聞報道和政府報告,找到跟自然保護區(qū)和動物保護相關(guān)的文章,然后把這些文章整理成可視化的、可以去直接查看和分析的形式,這樣能夠節(jié)省他們的時間。他們現(xiàn)在是靠人力在做這些事。


這個工作已經(jīng)開始實地測試了,已經(jīng)在WWF內(nèi)部的系統(tǒng)里面用上了,我們在不斷收集反饋,改進工作。這個問題其實沒有涉及到博弈的問題,涉及到很多自然語言處理的東西。

 

食物救助那塊,我們還是希望能夠把現(xiàn)有的算法落地,然后去探尋新的問題。


我們還有一些正在進行中的工作是跟網(wǎng)絡(luò)安全相關(guān)的,這個問題里面很明顯有博弈。我們之前做過一些博弈論的模型和算法,現(xiàn)在還是想導(dǎo)出更好的、更貼近實際的模型,更好的算法。我們也希望我們做的東西更接近被實際使用的階段。

 

知識分子我有一個可能不是很切實際的想法,想到國內(nèi)最近的疫情,在打疫苗上大家也是有很多的猶豫。你的工作有可能解決鼓勵大家打疫苗的問題嗎?

 

方飛如果已經(jīng)有一些獎勵機制,我們也許可以去分析這個機制,或許可以更精細(xì)化地獎勵,讓最后的效果更好,這是有可能的一個方向。




給學(xué)習(xí)者的建議


知識分子對于想要來學(xué)博弈論跟深度學(xué)習(xí)結(jié)合的方向的學(xué)生,你會有給他們什么樣的建議呢

 

方飛一個是基礎(chǔ)還是要打的。本科階段如果有能夠接觸到博弈論相關(guān)的課程,以及深度學(xué)習(xí)、多智能體相關(guān)的課程,還是建議去學(xué)習(xí)一下,尤其是如果有一些課程的項目,或是自己比較感興趣的項目可以去做的話,有時候做項目的過程是能幫助你更好地理解你學(xué)到的東西的。這個項目甚至不一定說你最后要發(fā)論文,可能就是去做一些對你來說感興趣的、有探索性的工作。


知識分子最后想問一下,你獲得斯隆獎有什么感想嗎?

 

方飛:我也是真的沒有想到,因為我之前申請過一次,沒有拿到。今年又申請,我其實并沒有抱很高期望,后來拿到也覺得非常榮幸。因為它不只是給計算機領(lǐng)域的,它是給很多領(lǐng)域的學(xué)者,所以好像得到的關(guān)注度比較高。


除了我自己獲獎這件事讓我很驚喜以外,另外一個我覺得挺驚喜的,是今年獲獎?wù)叩拿麊卫锩嬗泻芏嗟娜A人或者華裔,還有很多的女生,這個可能是之前我沒有看到的,說明我們(華裔)在北美做得挺好的。


 
參考資料:
[1] V. Conitzer, T. Sandholm, Computing the Optimal Strategy to Commit to, EC’06, June 11–15, 2006, Ann Arbor, Michigan, USAhttps://users.cs.duke.edu/~conitzer/commitEC06.pdf

 

制版編輯 | 姜絲鴨


參與討論
0 條評論
評論
暫無評論內(nèi)容