人工智能的道德,誰來塑造?|對話

建議書呼吁各國采取數(shù)據(jù)保護行動,提出人工智能系統(tǒng)不得用于社會評分或大規(guī)模監(jiān)控目的。
《知識分子》就該建議書的內(nèi)容對話UNESCO專家組成員曾毅,他認為:
● 人工智能曾經(jīng)是一個科學暢想,但在當下是一個“傘概念”,包括各種涉及算法的技術(shù);
● “相稱性”應當是人工智能應用時的重要原則;
● 倫理規(guī)則不應只在人工智能產(chǎn)品的設計階段起作用,只有在全生命周期真正做技術(shù)落地,才有可能真正實現(xiàn)治理;
● 人工智能在研究過程中不需要太多限制的說法是誤區(qū),學界應當在人工智能技術(shù)發(fā)展和倫理治理中發(fā)揮引領作用;
● 只有人工智能的發(fā)展和治理的深度協(xié)同,才能最終實現(xiàn)人工智能的可持續(xù)穩(wěn)健發(fā)展;
● 未來人工智能特別應當在推進生物多樣性與生態(tài)發(fā)展、氣候治理、文化交互等領域發(fā)揮賦能作用,助力全球可持續(xù)發(fā)展目標的實現(xiàn)。
撰文 | 王一葦
責編 | 陳曉雪
● ● ●
全球化進程中,人工智能在每個國家的發(fā)展并不相同,一些國家是技術(shù)的引領者,而另一些是技術(shù)的被動接受者。此前,美國、中國等國家地區(qū)及歐盟、經(jīng)濟合作與發(fā)展組織(OECD)、G20等組織也發(fā)布過有關(guān)人工智能倫理的相關(guān)文件,但這些文件主要是回應本地區(qū)的問題,而缺少對全球其他地區(qū)的關(guān)注。
“歐盟在制定相關(guān)標準時,不會考慮亞洲的關(guān)切…… 不同國家的文化背景使得他們對于技術(shù)陣痛的觀察視角不同?!?中國科學院自動化研究所人工智能倫理與治理中心主任、國家新一代人工智能治理專委會委員曾毅說,“而UNESCO包含了幾乎所有的主權(quán)國家和相關(guān)地區(qū),應當說是最廣泛的共識?!?/span>
他指出,沒有任何一個國家能預知到所有可能的潛在風險,各個國家根據(jù)自己國家的價值觀、社會倫理和技術(shù)發(fā)展階段來考量。這就需要大家同步互補的觀點,互相學習和交流。
UNESCO的建議書以尊重、保護和促進人的尊嚴、人權(quán)和基本自由,環(huán)境和生態(tài)系統(tǒng)的蓬勃發(fā)展,確保多樣性和包容性和和諧與和平共處為價值觀,提倡公平非歧視、可持續(xù)、隱私等原則。
建議書認為,“人工智能” 這一概念隨發(fā)展而變化,因此不給出唯一定義,只將其視為 “有能力以類似于智能行為的方式處理信息的技術(shù)系統(tǒng)”,其中,包含模型和算法是其主要特征。
曾毅在中國科學院大學和清華大學任職,既是類腦智能模型的研究者,也 “跨界” 鉆研人工智能倫理與治理。他是起草教科文組織建議書的24位全球?qū)<抑?,同時也是中國參與協(xié)商該建議書的代表。多個國家討論出一個共同的倫理標準并非易事,他坦陳 “這是一個求最大公約數(shù)的過程”。
第一版草稿形成后,聯(lián)合國自2020年開始組織區(qū)域性的對話,同時教科文組織也把第一版草稿發(fā)到各個會員國,正式征求國家建議。2021年6月份左右,193個會員國派出代表,進行政府間磋商,對文本當中的每一個段落做逐字逐句的修改。
針對這份建議書,《知識分子》與曾毅聊了聊他參與起草的過程和對人工智能倫理現(xiàn)狀的觀察。
為了表述的簡潔和清晰,訪談稿略有編輯。
知識分子:
建議書稱 “無意對人工智能作出唯一的定義”,只探討 “人工智能系統(tǒng)中具有核心倫理意義并且在國際上已形成廣泛共識的特征”,為什么?我們現(xiàn)在說的 “人工智能” 到底指的是什么?
曾毅:每個機構(gòu)、國家,在人工智能戰(zhàn)略里對人工智能的定義都不一樣,在這上面達成一個全球共識并不必要。它本身就是一個與時俱進的概念,是快速迭代的。人工智能的定義本身也需要適應時代發(fā)展。
一開始,人工智能是一個科學暢想。1956年的達特茅斯會議(作者注:普遍認為是人工智能領域的發(fā)起會議)上,發(fā)起人 John McCarthy 說,這個會議的目的是 “從一個猜想出發(fā),即原則上,智能每個方面的學習方式和特征都能被精確描述,使得機器能夠模擬它們”。[1] 即在計算機系統(tǒng)上重現(xiàn)人類的心智。這種重現(xiàn)不僅僅是行為上的,更是機制上的。
人工智能最開始的目標是推進科學進展,使人們生活得更好,從很多領域內(nèi),尤其是體力勞動中,把人解脫出來?,F(xiàn)在人工智能的應用在替代勞力的方面確實比較相關(guān)。
但幾十年后,人工智能變成了一個 umbrella term(傘概念,指概括性的術(shù)語),特別是面向產(chǎn)業(yè)的時候,不管是自然語言處理、數(shù)據(jù)挖掘、機器視覺等,都叫人工智能。
盡管我非常不喜歡,但現(xiàn)在大家把這些東西叫做人工智能,它的服務出現(xiàn)在我們生活中。而創(chuàng)造程序的人幾乎沒有經(jīng)過任何倫理學培訓。
2016、2017年的時候,特別在中國,學界和業(yè)界對人工智能倫理的關(guān)注非常少,甚至有反對聲音認為人工智能倫理會阻礙發(fā)展,很多人問我。我說,人工智能治理的目的就是保證人工智能穩(wěn)健、健康的發(fā)展。它阻礙的是野蠻生長。
2018年開始,我在中國科學院大學開設了一門人工智能哲學與倫理的課。當時開課很困難,大家說你又不是倫理學者,憑什么講這樣的課?諾貝爾獎和圖靈獎獲得者、卡耐基梅隆大學的司馬賀(Herbert Simon)寫文章 [2] 討論過一個觀點,好的交叉學科研究,一定是領域A的專家變成半個領域B的專家。人工智能倫理也是這樣的。
80%來上我的課的學生都是工學相關(guān)專業(yè),20%來自人文學院。對于技術(shù)研究者,人工智能創(chuàng)新幾乎每走一步,都可能涉及社會關(guān)懷、社會倫理,他們需要知道注意哪些社會倫理問題,需要了解未來二三十年人工智能作為一個道德主體可能對社會造成的挑戰(zhàn);而從事科學技術(shù)哲學研究的學生,未來將會是中國人工智能社會相關(guān)領域重要的意見領袖,他們需要知道人工智能真正的進展。
知識分子:
怎么看待建議書中 “人工智能不能用于大規(guī)模監(jiān)控和社會信用評分” 的表述?
曾毅:人工智能不能用于大規(guī)模社會監(jiān)控和社會信用評分,是政府間磋商時德國的學者提出、列進去的。
說到這個,就要提及我們討論的一個概念叫proportionality(相稱原則),意思是,不是什么時候人工智能都好,不需要的時候就不要用?,F(xiàn)在很多技術(shù)創(chuàng)新者會提出 making AI everywhere(讓人工智能無處不在),我看到的時候就覺得,有必要嗎?
以城市治理為例。舒可文先生的著作《城里:關(guān)于城市夢想的敘述》指出,城市的規(guī)劃,一半是野蠻生長,一半是規(guī)劃,這才叫做城市。因為城市中除了技術(shù)還有人際關(guān)系,它的形成方式是多樣的。人工智能也不是什么地方都要去介入,應當適度使用。
不過我有一點保留意見,即使在歐盟的人工智能法中,大規(guī)模社會監(jiān)控這件事也是有例外的。比如抓逃犯、尋找丟失的小孩、威脅國家和社會安全的特殊情況,是可以去應用相關(guān)的技術(shù)的。中國也在這些領域應用了這些技術(shù),如尋親打拐,效果也很好。但在教科文組織的規(guī)范中,并沒有明確給出例外情況,我覺得不是特別合適。
社會評分當中是否要使用人工智能,我覺得確實需要慎重思考。
社會信用系統(tǒng)現(xiàn)在是一個精確匹配的自動控制系統(tǒng),不是人工智能,沒有學習能力。很多規(guī)則都是清晰的、人類定義的規(guī)則,比如違反交規(guī)的扣分和罰款你不交,但有錢去買機票,這個就說不過去。但如果基于大規(guī)模的數(shù)據(jù)去學,學到規(guī)則后應用到社會信用評分中,我作為普通公民也會比較擔憂,因為學到的這個規(guī)則里,很可能有人類的偏見,如果沒有人類來辨別,直接應用很可能有潛在風險。
例如,推薦工作的人工智能系統(tǒng),給40多歲的男性推薦高管職位,給28歲的女性推薦服務員職位,這就是系統(tǒng)學到了社會的偏見。誰說28歲的女性不能當高管呢?人工智能現(xiàn)在沒有真正理解的能力,它甚至不知道什么是男女,不知道什么是不公平,也不知道什么是身體和心理的傷害,那么怎么可能對這種偏見去做處理?

曾毅在看一本講全球公平的圖書,他說,“未來使機器人真正理解公平”是AI倫理的核心 | 圖片由曾毅提供
有些人說,技術(shù)是中立的,我不同意這個說法。我覺得說技術(shù)中立是一個借口。技術(shù)學到了偏見,但沒有去處理,它還是中立的嗎?推薦算法沒有加入干預的過程,而推說這些都是社會的問題,這都是在找借口,社會的問題不代表你沒有解決的辦法。
正是因為有這樣潛在的問題,在沒有人為篩選和有意監(jiān)督的情況下,把人工智能應用到社會評分領域,可能會造成巨大的負面效應。目前我還沒有看到這樣的例子,希望在哪里都不要發(fā)生。
知識分子:
由于新冠疫情,各個國家都開展了不同規(guī)模的社會監(jiān)控和信用評分,這和上述原則不是背道而馳嗎?
曾毅:2020年3月份,MIT Technology Review 做了一個工作,分析了各個國家 contact tracing(密接追蹤)的軟件 [3],評價上,如果強制收集信息就很糟糕,不強制就好一點;國家運營的話也很糟糕,私營的就好一點??梢钥吹?,中國的評分很糟糕。我認為它的評分很不客觀,它只考慮了倫理方面。
選擇性地向用戶要求信息,實際上降低了這個系統(tǒng)的有效性。如果系統(tǒng)使用過程中采取并非強制而是完全自愿的原則,有可能導致密切接觸網(wǎng)絡的關(guān)鍵數(shù)據(jù)缺失,使得系統(tǒng)的數(shù)據(jù)分析無效,或者效果很差,那么我們?yōu)槭裁匆盟咳ビ靡粋€倫理設計上更道德、但應用層面效果很差的系統(tǒng),還不如不用。Wired雜志后來有個報道 [4],說西方國家的 contact tracing 似乎沒有亞洲國家那么有效。有效性到很后期的時候才被西方國家提上日程討論。
在這個過程中,我們要學到的是如何平衡。這種平衡不是妥協(xié)。接受為了疫情而采集溫度和人臉信息的數(shù)據(jù),不意味著讓渡隱私。2020年底,在健康碼上輸入身份證就可以獲取到明星的素顏照,這就是開發(fā)健康碼系統(tǒng)的機構(gòu)沒有很好地保護個人數(shù)據(jù)。(作者注:2020年12月29日,對于北京健康寶“代查他人健康狀態(tài)功能,有時不需要進行人臉識別”的情況,開發(fā)北京健康寶的單位北京市經(jīng)濟和信息化局大數(shù)據(jù)建設處(智慧城市建設處)回復稱:“此問題已解決?!?事件中未見問責。)
如果相關(guān)的機構(gòu)不能有效保護這些數(shù)據(jù),是應當負責任的。2021年11月1日起施行的《中華人民共和國個人信息保護法》,規(guī)定個人信息處理者應制定內(nèi)部管理制度和操作規(guī)程,加密,安全培訓,制定安全事件預案等方式確保其收集的個人信息的安全,而如果違規(guī)違法,則將面臨從警告、罰款、停業(yè)到刑事處罰的懲罰。此外,2019年起施行的《兒童個人信息網(wǎng)絡保護規(guī)定》專門針對不滿14歲的未成年人信息保護作出規(guī)定,違反者由網(wǎng)信部門和其他有關(guān)部門依據(jù)職責,根據(jù)《中華人民共和國網(wǎng)絡安全法》《互聯(lián)網(wǎng)信息服務管理辦法》等相關(guān)法律法規(guī)規(guī)定處理;構(gòu)成犯罪的,依法追究刑事責任。此外,國家互聯(lián)網(wǎng)信息辦公室近期剛結(jié)束征求意見的《移動互聯(lián)網(wǎng)應用程序信息服務管理規(guī)定》修訂版規(guī)定,應用程序的發(fā)行者和發(fā)布平臺應接受社會監(jiān)督、設立舉報機制,對于存在數(shù)據(jù)安全風險隱患、違法違規(guī)收集使用個人信息行為的,或者損害個人、組織合法權(quán)益的應用程序,應當停止提供服務。
即使這樣的系統(tǒng)是必要的,這不代表用戶以任何形式讓渡了隱私。它其實提出了更嚴格的要求,在滿足隱私保護約束的前提下,才可以采集信息。
政府對于技術(shù)發(fā)展的管理和治理有一個學習的過程,而基礎設施研發(fā)團隊如果倫理意識淡薄、安全意識缺位,就會使得購買了服務的政府要為可能出現(xiàn)的紕漏背書。政府一定開展了質(zhì)量評估,但是由于AI倫理專家的缺位或者設計的缺陷,并不是所有的倫理問題能夠在評估階段發(fā)現(xiàn)。政府應該為此負責,但是由于部分信息不透明,有時候我們可能無法了解后續(xù)處理情況。在這種情況下,在社會輿論監(jiān)督的影響和政府的督促下及時調(diào)整系統(tǒng)設計與實現(xiàn),是底線。
知識分子:
紙面上的倫理規(guī)則,如何落到現(xiàn)實中?
曾毅:倫理原則即使在設計階段發(fā)揮了一些作用,但在算法實現(xiàn)、產(chǎn)品服務和產(chǎn)品部署的過程中如果不注意,都可能帶來各種各樣的問題。只有在人工智能產(chǎn)品的全生命周期(包括它的上下游客戶)真正做技術(shù)落地,才有可能真正實現(xiàn)治理。
舉個例子,2019年杭州野生動物世界的案子(作者注:杭州市民郭兵于2019年購買杭州野生動物世界雙人年卡,并確定指紋識別入園方式,但野生動物世界此后強制要求激活人臉識別,否則無法入園,郭兵因此提起訴訟,該案以郭兵勝訴告終,被稱為 “全國人臉識別第一案”),其實就包括使用和部署環(huán)節(jié)的問題,知情同意沒有做好。此外,采集的數(shù)據(jù)到底是保存在動物園還是相關(guān)企業(yè),企業(yè)的保密和數(shù)據(jù)加密資質(zhì)是什么樣的?這一切都不清晰。
而在倫理原則還未落地、還不是法律的時候,如何實施?換臉軟件ZAO和教室表情識別看學生是否認真聽講,是兩個具體的例子。ZAO在上線后三四天下線,被工信部約談;而教室表情識別的事發(fā)生后,教育科技司表態(tài),在不必要的場合就不需要引入人工智能,建議不要使用,那時就基本上叫停了相關(guān)服務的發(fā)展。當時絕大多數(shù)人臉識別企業(yè)都有做類似嘗試,有些可能已經(jīng)形成應用,甚至規(guī)?;瘧谩?jù)我所知,很多企業(yè)的這條產(chǎn)品線基本也都停掉了。
法律講的是底線,紅線。科技發(fā)展過程中法律的守護底線紅線作用永遠不可替代。而科技倫理問題是法律之上的科技發(fā)展與社會之間的軟性約束和契約。不觸犯法律并不代表沒有道德倫理問題。倫理道德對科技發(fā)展的考量和反思是確保科技健康發(fā)展不可或缺的要素??萍及l(fā)展與科技倫理形成雙螺旋結(jié)構(gòu),科技才能穩(wěn)健地助力人類文明的繁榮。
企業(yè)創(chuàng)新者要做全生命周期的倫理落地,要自律自治。有些企業(yè)有專門的倫理委員會和倫理研究組,但有一些小企業(yè)或者初創(chuàng)企業(yè)沒有這個能力,學術(shù)界和政府應該給他們提供倫理相關(guān)的服務,以公共服務的方式,避免這個問題,后面的監(jiān)管會省很大力氣。
我們現(xiàn)在也在和政府相關(guān)部門合作推進人工智能治理的公共服務平臺。 [5]
知識分子:
人工智能是不是安全和人工智能是不是道德,有關(guān)系嗎?
曾毅:人工智能安全和人工智能倫理是兩回事,但它們不是不相關(guān)的事。安全是AI倫理的一個必要屬性。
技術(shù)風險會引起社會問題。舉例來說,現(xiàn)在的深度神經(jīng)網(wǎng)絡做看似智能的信息處理,但經(jīng)常會犯人不會犯的錯誤。去年11月,世界公眾科學素質(zhì)促進大會在北京舉辦的時候,一個做新冠病毒感染肺炎篩查的企業(yè)說他們的準確率已經(jīng)超過了醫(yī)生,完全可以替代醫(yī)生。那時候還沒輪到我發(fā)言,但我當時不得不打斷,我說畢竟這是一個科學素養(yǎng)大會,做的是公眾科普(傳達的信息要準確)。人工智能永遠不應該代替人類決策,說完全替代醫(yī)生,這是完全錯誤的。因為現(xiàn)在的人工智能系統(tǒng)很容易造成誤診。比如一個皮膚癌篩查的系統(tǒng),一個角度照手上的小包就是99.99%的可能性,換一個角度就檢測不到。這種錯誤醫(yī)生是不會犯的。人工智能說是99.99%的準確率,但一張圖像加一點噪聲,就可能被識別為其他東西。
有人說,識別錯了又怎么樣呢?我舉一個例子,谷歌的3D物體識別系統(tǒng),有80%的概率將一個3D打印的烏龜識別為一把來福槍,20%的概率識別為其他東西,但沒有一次識別為烏龜。設想這樣一個場景,10歲的小孩拿著一個3D打印的烏龜站在馬路邊上,但監(jiān)控系統(tǒng)把它識別為10歲的小孩拿著一把來福槍站在馬路邊。如果有人刻意制造這樣的事件,對于社會的治安將是很大的挑戰(zhàn)。
又例如未來的自動駕駛無人車,如果被黑客操控了,如果(被威脅方)不交錢就直接開到懸崖下,甚至用于攻擊社會,這種風險都是技術(shù)本身的風險。
人工智能的風險要分等級,應當對應用緊迫、高風險的領域做合理的分級管理。例如自動駕駛的風險不僅僅在全自動駕駛的時候有,輔助駕駛時,如果視覺系統(tǒng)被攻擊,檢測不到圖像,前面一片白,它就沖過去了。
最麻煩的事情不是技術(shù)解決不了這些問題,而是倫理意識的缺失。本來容易解決、可以防患于未然的事情沒有人重視,在產(chǎn)品研發(fā)過程中沒有解決,這才是現(xiàn)階段我們最大的風險。所以為什么說號召大家把倫理原則嵌入整個產(chǎn)品的生命周期,就是這個意思。
知識分子:
企業(yè)對于這份建議書有什么樣的反饋?
曾毅:有一些企業(yè)會說,它似乎符合其中70-80%的原則,非常自豪。我就說,其實后面的20-30%才是最關(guān)鍵的。如果其中70-80%都不符合,可想而知你做的是一個什么樣的產(chǎn)品。
如何去解決后20-30%的問題,我覺得是一個共同挑戰(zhàn)。企業(yè)與學術(shù)界有距離,很可能不知道如何落地,或者有些問題現(xiàn)在大家考慮都比較少,就需要學界和業(yè)界共同努力。比如,大家都談用戶隱私,用戶授權(quán)后,不滿意了要撤銷,不想用這個服務了,那么你得把我的數(shù)據(jù)刪掉。在數(shù)據(jù)庫里刪掉用戶數(shù)據(jù)很容易做到,但人工智能模型中,把用戶的特征數(shù)據(jù)刪掉,對于每個模型都很難。除非你重新訓練人工智能模型。但對很多企業(yè),重新訓練要兩個禮拜、一個月甚至半年才做一次,很難做到真正意義上的實時用戶授權(quán)撤銷。
這個問題很多人都知道,但學界和業(yè)界都沒有做太多的努力,是因為它沒有直接幫助你去獲得經(jīng)濟利益,所以大家都不太積極。這是個非常糟糕的狀況。我們說人工智能賦能可持續(xù)發(fā)展,(聯(lián)合國所有會員國通過的)17個可持續(xù)發(fā)展領域里,大家都在集中做教育和醫(yī)療,因為最賺錢,但其他的領域像性別平等就少有人關(guān)注。以前沒人重視氣候行動,因為沒有找到賺錢的方式,現(xiàn)在似乎又找到商機了。
真正可持續(xù)的發(fā)展,責任不光在政府,很多時候是一個生態(tài)共同體。按聯(lián)合國規(guī)劃,我們總共有不到十年時間實現(xiàn)這些可持續(xù)(發(fā)展)目標。如果僅僅是政府在推動,這個目標很難在十年內(nèi)實現(xiàn)。
知識分子:
學界在開展人工智能研發(fā)活動時,需要注意什么?
曾毅:一方面,我想糾正一個錯誤觀念,認為在研究階段不需要太多的限制。我覺得這是不對的。
例如做人臉識別算法,就算沒有提供服務,收集了人臉來提升性能,是不是就不會有倫理問題?如果在研究階段沒有倫理考量,很容易因為利益引誘,成果或者副產(chǎn)品作用到社會,產(chǎn)生負面影響。
另一方面,倫理的前瞻性研究,學術(shù)界一定要發(fā)揮引領作用。一方面是在人工智能服務中加入道德約束,使得它更符合倫理道德規(guī)范;另一方面,未來是否能開發(fā)真正能自主學習、理解人類倫理道德的人工智能,是非常重要的學術(shù)挑戰(zhàn)。
僅有產(chǎn)業(yè)界的努力是完全不夠的,甚至幾乎沒有產(chǎn)業(yè)在做這樣的事情。
可持續(xù)發(fā)展和治理是深度協(xié)同的關(guān)系,既不是競爭,也不是平衡,就像DNA的雙鏈結(jié)構(gòu),互為支撐,使結(jié)構(gòu)相對穩(wěn)定。實現(xiàn)發(fā)展和治理的深度協(xié)同,最終才能實現(xiàn)穩(wěn)健的發(fā)展。學術(shù)界應當前瞻性地作出引領工作。中國和阿聯(lián)酋的人工智能規(guī)范中比較強調(diào)可持續(xù),其他國家的可能沒有那么明顯。
以前人工智能研究考慮不多,但未來非常值得推進的方面有兩個。一個是利用人工智能促進生態(tài)的可持續(xù)發(fā)展。2019到2020年澳大利亞大火,很多物種在這場大火中滅絕了,但你很少看到人工智能發(fā)揮什么作用,解決問題。(我們還是可以主動思考人工智能如何發(fā)揮作用)例如,人工智能技術(shù)可以用于監(jiān)測和預測火勢,無人車和無人機可以用于拯救火災中的動物,甚至可以用于提前驅(qū)逐動物到相對安全的區(qū)域去。我國的大興安嶺也會遇到類似的挑戰(zhàn),但這方面的考慮和實踐非常少。在教科文組織的指南成文過程中,各個國家都很關(guān)注生物多樣性保護,大家對人工智能推進生態(tài)保護和可持續(xù)發(fā)展都很有共識。
人工智能在實現(xiàn)過程中也會帶來碳排放?,F(xiàn)在人工智能在向大模型方向發(fā)展,能耗是非常高的。而產(chǎn)業(yè)在推進大模型研發(fā)的過程中,基本沒有考慮碳排放的問題。人工智能本身的目的是去替代一些體力勞動,但如果替代過程中碳排放的成本還高于人力,負面作用很大,是否值得就是個問題。我們自己做了一個研究,叫做AI Carbon Efficiency Observatory [6],人工智能碳能效的觀測站。把所有人工智能大模型的碳排放情況列出來,讓大家去看一看。
此外,指南中提到的另一個要點是人工智能應該促進文化傳承。當時其他的代表提出人工智能促進文化傳承,我說,傳承是保護,沒有交互,它可以更進一步,不僅保護文化,還可以找到文化之間的聯(lián)系,通過人工智能賦能文化交互。比如你對法隆寺這個傳統(tǒng)的佛教寺廟比較熟悉,但不熟悉故宮,它們之間的關(guān)聯(lián)實際上非常多。你喜歡敦煌,而敦煌的文化其實和來自世界其他國家的文化是非常相關(guān)的。文化交互引擎(Cultural Interactions Engine) [7]就是通過人工智能技術(shù)自動發(fā)現(xiàn)不同文化的景點和自然資源間存在著的關(guān)聯(lián)。
現(xiàn)在,很多文化的問題是由于文化割裂引起的,而我覺得這是人工智能能夠賦能的地方。很多人運用人工智能去制造隔閡,制造信息繭房,但人工智能真正應該做的是建立一座橋,幫助構(gòu)筑不同文化相連的網(wǎng)絡。
制版編輯 | 盧卡斯