機(jī)器人會夢見電子羊嗎?| 如何看待 AI 的 “人性”

pixabay.com
機(jī)器是否能夠思考?如何看待機(jī)器的“人性”和“靈性”?如何看待機(jī)器的道德地位?這些問題是不是也讓你感到困惑?最近,《知識分子》和北京大學(xué)哲學(xué)系的劉哲博士,復(fù)旦大學(xué)哲學(xué)系的徐英瑾博士和王球博士,以及上海交通大學(xué)哲學(xué)系的蔡文菁博士聊了聊 AI 的“人性”和“靈性”。
撰文 | 華 夏
責(zé)編 | 陳曉雪
● ● ●
如何判斷機(jī)器是否能夠思考?“圖靈測試”是一個(gè)廣為人知的方案。這個(gè)方案由圖靈在1950年提出,用來判斷機(jī)器能否思考。被測機(jī)器和真人一起,通過語言的方式(例如通過打字)和人類“考官”自由交流,如果考官無法分辨出被測對象是機(jī)器還是真人,則機(jī)器就通過了圖靈測試。
圖靈測試的核心思想類似藥物研究領(lǐng)域的“盲測”:為了判斷某種藥物是否有療效,科學(xué)的方法主要不在于論證藥物背后的理論和機(jī)制有效,而在于通過“雙盲測試”,在臨床環(huán)境下獲得統(tǒng)計(jì)上顯著的藥效證明。對于“機(jī)器是否能思考”這個(gè)問題,“圖靈測試”避免了不斷爭論“智能”或者“思考”的本質(zhì)和機(jī)制,而給出了一種基于現(xiàn)象的,純屬觀察的,可操作的定義。
迄今為止,還沒有機(jī)器能通過不限制談話領(lǐng)域的圖靈測試。然而,如果不把圖靈測試限制于自由交談,機(jī)器的復(fù)雜行為則已經(jīng)能“騙過”人類。據(jù)澎湃報(bào)道,自2017年2月起,微軟開發(fā)的 AI 系統(tǒng)“小冰”,在天涯、豆瓣、貼吧、簡書四個(gè)平臺上使用了27個(gè)化名發(fā)表詩歌作品,獲得大量跟帖評論的同時(shí),幾乎沒有被察覺出非人為所作。
基于一張圖片,小冰就能“觸景生情”地寫出一首朦朧的中文現(xiàn)代詩:
小冰不是孤例。近年來,AI 系統(tǒng)已經(jīng)越來愈多的領(lǐng)域表現(xiàn)得“富有人性”。2017年1月,谷歌 DeepMind 開發(fā)的人工智能程序 AlphaGo 化名 Master 重出江湖,并在各大圍棋論壇上與中日韓頂尖選手過招,斬獲 60 場不敗的戰(zhàn)績。其手下敗將包括“棋圣”聶衛(wèi)平,日韓頂尖棋手井山裕太,樸廷桓,以及曾經(jīng)高調(diào)宣稱一定能下贏 AlphaGo 的世界排名第一的中國棋手柯潔。
曾負(fù)于 AlphaGo 的歐洲圍棋冠軍樊麾對新華社記者說“如果沒有人告訴我,我一定不知道它是電腦,它太像人了。它一定是在思考。按照人的說法,它應(yīng)該有棋風(fēng)吧?!甭櫺l(wèi)平也評價(jià)到:“阿爾法狗的大局觀遠(yuǎn)勝人類,如果差距拉近一些可能還有勝負(fù)?!笨聺嵰苍谧约旱纳缃幻襟w發(fā)言:“昨晚輾轉(zhuǎn)反側(cè),不想竟一夜無眠。人類數(shù)千年的實(shí)戰(zhàn)演練進(jìn)化,計(jì)算機(jī)卻告訴我們,人類全都是錯(cuò)的。我覺得,甚至沒有一個(gè)人沾到了圍棋真理的邊?!?/span>

對于和 AlphaGo 對弈過的棋手來說,AlphaGo 更像是一位“得道高僧”,而非算法和程序。“棋風(fēng)”、“大局觀”,都是用來形容人類棋手的詞語。當(dāng)這些概念被用來形容一個(gè)圍棋程序,到底意味著什么?一個(gè)程序,又如何懂得 “圍棋真理”?
但我們可以看到,無論是否知道微軟小冰和 AlphaGo 背后是程序,是否理解它們背后的算法原理,人們都從這些AI 的表現(xiàn)中感受到了某種“人性”,甚至是“靈性”。現(xiàn)代人顯然不會因?yàn)槠嚺艿帽热丝於锌f千,也不會因?yàn)橛?jì)算器求平方根比人快而驚嘆。但我們確實(shí)從當(dāng)前的一些AI應(yīng)用中感受到了超越一般意義上的工具和機(jī)器的特性。
事實(shí)上,大眾以擬人化的方式理解 AI 應(yīng)用的現(xiàn)實(shí),已經(jīng)被一些哲學(xué)家視作倫理上的新挑戰(zhàn)。在由北京大學(xué)哲學(xué)系副主任劉哲教授主導(dǎo)編撰的《中國機(jī)器人倫理標(biāo)準(zhǔn)化前瞻(2019)》中,“去人類中心主義”立場被放在了核心位置。其中的重要考量,即是因?yàn)楫?dāng)下的許多 AI 應(yīng)用已經(jīng)超越了普通的工具和機(jī)器,而越來越被人類當(dāng)作“伙伴”,獲得了人類豐富的情感聯(lián)結(jié),也越來越容易被當(dāng)成道德主體去考量。傳統(tǒng)的倫理考量是人類中心主義的,往往只把人類行為作為價(jià)值的載體,自然、動物和人造物的活動本身,無所謂道德與否。當(dāng)下,這種傳統(tǒng)考量已經(jīng)顯露不足。
我們應(yīng)該如何看待 AI 呈現(xiàn)出的這種“人性”和“靈性”?
1
當(dāng)前的 AI 真的具備一些“人性” 嗎?
如果從當(dāng)前基于機(jī)器學(xué)習(xí)原理和大數(shù)據(jù)訓(xùn)練 AI 技術(shù)應(yīng)用來看,答案是否定的。
在復(fù)旦大學(xué)哲學(xué)系從事多年人工智能哲學(xué)研究的徐英瑾教授看來,人類智能的關(guān)鍵是領(lǐng)域切換的能力。AlphaGo 的下棋能力超越了所有的人類,卻仍然無法評價(jià)自己剛剛下完的一盤棋——而這是最差的棋手也能做到的事情。復(fù)旦大學(xué)哲學(xué)系教授王球也表示,相比于開發(fā)出AlphaGo這樣的在下棋層面超越一切人類的 AI 應(yīng)用,開發(fā)出智能相當(dāng)于烏鴉的 AI 系統(tǒng),才會讓 AI 研究者更加興奮,因?yàn)闉貘f能夠自己選擇要去解決的問題。
當(dāng)前基于機(jī)器學(xué)習(xí)的 AI 應(yīng)用,其基本思路大致是這樣:建立一個(gè) “機(jī)器”(就是通常說的 “模型”),輸入特定的值后,可以輸出我們想要的值。例如,谷歌翻譯就是這樣一個(gè)機(jī)器,輸入中文,它可以輸出合理的英文。
顯然,這樣的機(jī)器需要非常復(fù)雜精巧。不過,所謂機(jī)器學(xué)習(xí),就是說并不需要工程師去設(shè)計(jì)這個(gè)機(jī)器的一切小零件和小齒輪,而是把這個(gè)機(jī)器的整體結(jié)構(gòu)設(shè)計(jì)好之后,灌入已經(jīng)配對好的輸入和輸出數(shù)據(jù),由機(jī)器自己去把這些小齒輪調(diào)節(jié)合適。“學(xué)得好不好”,需要一個(gè)標(biāo)準(zhǔn)(即誤差函數(shù))?!皩W(xué)習(xí)”的過程就是機(jī)器自己調(diào)整這些小齒輪,讓一個(gè)又一個(gè)的輸入進(jìn)入機(jī)器后,其輸出和理想的輸出盡量接近,即誤差函數(shù)可能小的過程。

神經(jīng)網(wǎng)絡(luò)中,每一個(gè)“神經(jīng)元”都是一個(gè)小齒輪,需要被調(diào)整到合適的狀態(tài)(權(quán)重)playground.tensorflow.org
機(jī)器學(xué)習(xí)本身已經(jīng)存在了半個(gè)多世紀(jì),但最近的技術(shù)突破在于人們找到了讓“多層神經(jīng)網(wǎng)絡(luò)”這種擁有巨量小齒輪的復(fù)雜機(jī)器的小齒輪們達(dá)到理想狀態(tài)的辦法,俗稱深度學(xué)習(xí)。在過去十幾年中 AI 的重要突破(也是開啟最近一波人工智能浪潮的技術(shù)突破),例如語音識別和機(jī)器翻譯,和精確性足以用于支付和解鎖手機(jī)設(shè)備人臉識別,都是基于這項(xiàng)技術(shù)。
我們或許常常聽到,深度學(xué)習(xí)技術(shù)是一個(gè)“黑箱”,仿佛其中有某種神秘的力量。但事實(shí)上,所謂黑箱,只是因?yàn)榭茖W(xué)家們難以清楚地說明某個(gè)小齒輪在決定機(jī)器的輸出時(shí),具體扮演了什么角色。這可能會帶來一些工程上的問題,例如在進(jìn)行圖像識別時(shí),某些圖像元素的改變,會讓 AI 將烏龜識別為來復(fù)槍,而工程師們可能難以找到具體是哪些齒輪壞掉了。但這并沒有神秘性。機(jī)器的工作目標(biāo),牢牢地掌握在工程師的手中。
這也就是為什么,當(dāng)前的 AI 系統(tǒng)幾乎都是“專用人工智能”,而我們距離發(fā)明烏鴉水平的“通用人工智能”還非常遙遠(yuǎn),大概率也不是基于深度學(xué)習(xí)技術(shù)。
2
為何人類會感嘆機(jī)器有“靈性” ?
但這些是對當(dāng)前 AI 實(shí)現(xiàn)原理的解釋,并不能解釋人們?yōu)槭裁磿J(rèn)為AlphaGo有某種“棋風(fēng)”和“大局觀”。
如果我們把考察的范圍擴(kuò)大一些就會發(fā)現(xiàn),人類本來就有一種將無意識的事物,看作有意識,或者拔高對方的意識水平的傾向,即所謂“泛靈論”傾向。這在世界各個(gè)文化的歷史早期都普遍存在。在古人看來,打雷,刮風(fēng),是因?yàn)槟硞€(gè)神靈發(fā)怒了。世間萬物,尤其是那些自己會運(yùn)動的事物,都是會思考,有意圖地存在。
現(xiàn)代世界的機(jī)械論世界觀,在近代啟蒙運(yùn)動和科技發(fā)展的巨大影響下,逐步成為大多數(shù)人的“標(biāo)配”。我們不再相信某個(gè)自然現(xiàn)象背后的原因是某種靈魂的意圖,而是訴諸物理實(shí)體的運(yùn)動和因果性。
即便如此,泛靈論的心理傾向并不會自動消失,而是在現(xiàn)代體現(xiàn)為心理學(xué)意義上的“泛擬人”的傾向。事實(shí)上,人類漫長進(jìn)化而來的大腦認(rèn)知機(jī)制讓我們格外地善于“看臉色”,善于共情。人們甚至能從雜亂的碎石或林間的陰影看出人臉來,難免會本能地覺得各處都有靈魂存在。人們會對自己的貓狗說話,不只是發(fā)出指令,而是充滿了復(fù)雜的請求、抱怨、責(zé)備等等——哪怕他們明知貓狗無法理解那么復(fù)雜的話語。
事實(shí)上,由于人的這種泛擬人傾向,無需多么高超的自然語言處理技術(shù),AI 也能在非常特定的情形近乎通過圖靈測試。早在1960年代,只會非常簡單地識別和替換特定關(guān)鍵詞的對話心理咨詢師 AI 系統(tǒng) ELIZA,就能獲得人類用戶的信任。許多人甚至?xí)@個(gè)非常簡單的 AI 系統(tǒng)傾訴,和“她”聊上幾個(gè)小時(shí)。ELIZA 實(shí)質(zhì)上是利用了人的某些認(rèn)知和心理特性,以及對心理咨詢場景的預(yù)期“蒙混過關(guān)”。這實(shí)際上和魔術(shù)很相似。

ELIZA 和人類的聊天記錄
除了“泛靈論”的因素,“當(dāng)局者迷”也是一個(gè)對人們?yōu)楹螘吖繟I的意識水平的解釋。對于和 AlphaGo 對弈的棋手來說,他們難免會以對待人類棋手的心境去理解對方的棋路,畢竟這是他一直以來所習(xí)慣的思維方式。站在局外,我們或許可以正確而輕巧地說,AlphaGo 的這些棋路不過是算法的結(jié)果,但這種評論不足以回應(yīng)棋手主觀的體驗(yàn)。他確實(shí)感受到了 AlphaGo 某步妙招的“天才”之處,從而被對手“懾服”。即便他也能同時(shí)承認(rèn),這步棋是算法和大規(guī)模計(jì)算的結(jié)果,但這種解釋未必能消解他直觀體驗(yàn)到的震撼。
更進(jìn)一步,我們也要認(rèn)識到,對事物的描述是有層級的。王球舉了一個(gè)例子來說明這一點(diǎn):如果我們的電腦壞了,別人問我們,“電腦為什么壞了?”我們會解釋說,“因?yàn)殡娔X進(jìn)水,主板燒壞了?!边@是一個(gè)合情合理的描述。理論上,如果我們熟知計(jì)算機(jī)硬件和半導(dǎo)體物理,并且對這臺進(jìn)水的電腦進(jìn)行了徹底的調(diào)查,也可以從水如何在物理層面影響電腦工作進(jìn)行描述。“主板燒壞了”和“特定線路的電學(xué)特性發(fā)生了改變”是兩個(gè)不同層級的描述,前者“功能層面”,描述某種功能的實(shí)現(xiàn),后者是“物理層面”,也可理解成實(shí)現(xiàn)這項(xiàng)功能的物理基礎(chǔ)。同樣的功能,可能由不同的物理基礎(chǔ)來實(shí)現(xiàn)。在有效溝通的意義上,我們不能說功能層面的“主板燒壞了”是錯(cuò)誤的。
事實(shí)上,我們的描述層級往往分成“物理層面”、“功能層面” 和“意向?qū)用妗薄τ谧匀皇挛?,我們通常會在前兩個(gè)層面進(jìn)行描述。對于人類的事務(wù),則往往在意向?qū)用婷枋?。KTV太吵鬧,朋友聚會時(shí)我獨(dú)自先離開了。人們大概不會將其解釋為“噪音讓我的神經(jīng)系統(tǒng)產(chǎn)生了如此這般的反應(yīng),最終讓腳邁出了大門”,而是會直接說“太吵了,我不想待了”。
對于圍棋棋手來說,使用一種意向?qū)用娴恼Z言,描述下棋時(shí)應(yīng)該做什么,不應(yīng)該做什么,顯然也是合情合理的。唐代王積薪《棋訣》一書提出的圍棋十訣是:“一不得貪勝;二入界宜緩;三攻彼顧我;四棄子爭先;五舍小就大;六逢危須棄;七慎勿輕速;八動須相應(yīng);九彼強(qiáng)自保;十勢孤取和?!边@些話語并非在算法層面描述圍棋,甚至還帶有某種生活哲學(xué)的寓意,但卻是人類溝通,交流和學(xué)習(xí)圍棋所不可或缺的。尤其是,王球提到,“靈氣”,“大局觀”,“圍棋真理”等等說法,也讓棋手們將圍棋看作一種更有價(jià)值的事業(yè)。
因此,雖然 AI “實(shí)際上”沒有人性和靈氣可言,但至少從心理機(jī)制上,我們可以理解人們?yōu)楹纹糜趯⑵淇醋饔徐`氣的;從有效溝通和描述的角度,我們也可以看到用“意向?qū)用妗比ッ枋?AI 系統(tǒng)的意義。
3
AI 僅僅是“看上去”有人性,
就不會帶來現(xiàn)實(shí)的社會影響嗎?
上文中,我們總體上理解了為何人類會認(rèn)為“當(dāng)前 AI 系統(tǒng)具有‘人性’,而不是普通的工具和機(jī)器”的想法。但這并不意味著,AI 僅僅是“看上去”有人性,就不會帶來任何的社會影響。
劉哲表示,人們現(xiàn)在已經(jīng)會對虐待“機(jī)器寵物”的行為表現(xiàn)出類似虐待真正貓狗的憤慨,例如網(wǎng)上確有“討伐”波士頓動力(Boston Dynamics)測試人員“虐待” 他們開發(fā)的“機(jī)器狗”的言論。
我們也可以想象這樣的場景:一個(gè)人在使用機(jī)器人服務(wù)員的飯店點(diǎn)餐時(shí),因?yàn)闄C(jī)器人無法理解他的命令,他便對這個(gè)機(jī)器人大打出手。在旁人看來,這種行為很可能比他砸碎一個(gè)普通餐廳的點(diǎn)菜平板電腦,要更加的 “殘忍”。事實(shí)上,旁人很可能據(jù)此判斷,他在類似情形下面對真人服務(wù)員,也會對其大打出手。從而,認(rèn)定他是一個(gè)道德上有問題的人。
換言之,雖然我們可能不會嚴(yán)肅地認(rèn)為機(jī)器人或者 AI 具有“人權(quán)”,但卻可能會接受,“虐待”機(jī)器人,會損害我們自己的道德品質(zhì)。
我們或許可以從科學(xué)的角度解釋機(jī)器人的工作原理,也可以從心理學(xué)角度解釋人們?yōu)楹螘魄橛谌诵挝矬w,但這種同情機(jī)器人的心理反應(yīng)本身是不可忽視的。劉哲認(rèn)為,這不是簡單的歸結(jié)于大眾傳媒和科幻文化誤導(dǎo)就能消解的問題,也不是通過對公眾進(jìn)行科普就可以簡單回避。
事實(shí)上,我們可以將對機(jī)器人和 AI 的移情,類比到動物保護(hù)領(lǐng)域。我們保護(hù)動物,尤其是保護(hù)貓狗等伴侶動物,和其他與我們在生物學(xué)上接近的哺乳動物,并不需要我們從生物學(xué)上認(rèn)識到動物和我們在基因上的同源,也不基于我們通過神經(jīng)科學(xué)和行為科學(xué)實(shí)驗(yàn)了解到貓狗的智能水平有多高。
上海交通大學(xué)哲學(xué)系教授蔡文菁認(rèn)為,“動物權(quán)利的基礎(chǔ),在于動物具有情感和意識是我們的直觀,而不是基于對其背后生物學(xué)機(jī)制的科學(xué)認(rèn)識”。她指出,一只小貓因?yàn)橥纯喽胍鞯臅r(shí)候,我們能共情,能直感到它的痛苦。相反,一只龍蝦因?yàn)楸粷L水煮而痛苦,我們就很難獲得 “直觀”,從而也較少關(guān)注龍蝦的動物福利?;蛟S有人會強(qiáng)調(diào),龍蝦的某種生理構(gòu)造,讓它們也會感受到痛苦。但客觀的痛苦和動物保護(hù)之間是否有邏輯關(guān)系,卻也是一個(gè)沒有定論的問題。
除非對 AI 算法原理的科普能消解公眾對機(jī)器人和 AI 的“直觀”,否則呼吁機(jī)器人福利,甚至機(jī)器人權(quán)利保護(hù),就不是一個(gè)完全荒謬的行為。
對此,北伊利諾伊大學(xué)(North Illinois University)的 David Gunkel 博士,提出了思考機(jī)器人倫理學(xué)的關(guān)系模型(relational model)。在他看來,我們與其他存在互動時(shí),無論是和動物,人類,自然環(huán)境,還是機(jī)器人,重要的不是它們究竟是什么,而是我們和它們建立了怎樣的關(guān)系。相應(yīng)的,我們對它們的道德責(zé)任,也來自于它們?nèi)绾蜗蛭覀兂尸F(xiàn)自身。如果人們越來越傾向于像對待同事,同學(xué),朋友那樣去對待機(jī)器人,機(jī)器人就應(yīng)該享有越來越多類似人所享有的權(quán)利。在《中國機(jī)器人倫理標(biāo)準(zhǔn)化前瞻(2019)》中,作者也呼吁建立一種“去人類中心主義”的,基于交互關(guān)系的倫理學(xué),來為未來可能會越來越普遍的人機(jī)共存社會作準(zhǔn)備。
4
更現(xiàn)實(shí)的問題不是 AI 權(quán)利保護(hù),
而是保護(hù)人類不被 AI 欺騙
不過,我們強(qiáng)調(diào)目前的 AI 技術(shù)讓我們“直觀”到 AI 的人性,并非真的為了保護(hù) AI,而更多是為了保護(hù)人類自身。除了上文提到的,虐待機(jī)器人可能會損害人類自己的道德品質(zhì),更大的問題是過分?jǐn)M人的、被大公司作為商品創(chuàng)造出來的機(jī)器人,可能會對我們造成更加實(shí)際的傷害和控制。
目前,已有研究人員使用機(jī)器狗和自閉癥兒童進(jìn)行交互治療。研究發(fā)現(xiàn),自閉癥兒童更愿意同機(jī)器狗進(jìn)行口頭和其他類型的交互。然而,如果這種自閉癥兒童最終只愿意和機(jī)器交互,對于治療而言,“是一場災(zāi)難”。對此,劉哲表示,應(yīng)該避免 AI 和機(jī)器人不必要的過度擬人,以免造成用戶心理依賴和成癮。
在可見的未來,機(jī)器人的“人性”或許只是我們的“幻覺”。但我們的“人性”被利用或?yàn)E用,卻無疑是更可能發(fā)生的事情。
4
未來的 AI,會擁有完整的“人性”嗎?
雖然當(dāng)前的 AI 技術(shù)所構(gòu)造的“人性”,本質(zhì)上更多是一種“魔術(shù)”或“當(dāng)局者迷”,稱之為“擬人感”或許比“人性”更加準(zhǔn)確。但未來,隨著科技發(fā)展,幾十年甚至幾百年后,AI 是否可能擁有“真正的人性”?
更進(jìn)一步,從心理和文化層面來說:如果 AI 歸根結(jié)底是由人類所造,而非如其他生命一樣“自然”生成,是否就永遠(yuǎn)會被人類視作“二等公民”?

《銀翼殺手》中著名的“雨中演講”片段