? 午夜性色一区二区三区不卡视频,色哟哟国产精品免费观看,我们的2018在线观看免费高清

亚洲 a v无 码免 费 成 人 a v,性欧美videofree高清精品,新国产三级在线观看播放,少妇人妻偷人精品一区二区,天干天干天啪啪夜爽爽av

機(jī)器人會夢見電子羊嗎?| 如何看待 AI 的 “人性”

2020/06/04
導(dǎo)讀
我們應(yīng)該如何看待 AI 呈現(xiàn)出的“人性” 和 “靈性”?


pixabay.com


機(jī)器是否能夠思考?如何看待機(jī)器的“人性”和“靈性”?如何看待機(jī)器的道德地位?這些問題是不是也讓你感到困惑?最近,《知識分子》和北京大學(xué)哲學(xué)系的劉哲博士,復(fù)旦大學(xué)哲學(xué)系的徐英瑾博士和王球博士,以及上海交通大學(xué)哲學(xué)系的蔡文菁博士聊了聊 AI 的“人性”和“靈性”。



撰文 | 華   夏

責(zé)編 | 陳曉雪


●         ●         


如何判斷機(jī)器是否能夠思考?“圖靈測試”是一個(gè)廣為人知的方案。這個(gè)方案由圖靈在1950年提出,用來判斷機(jī)器能否思考。被測機(jī)器和真人一起,通過語言的方式(例如通過打字)和人類“考官”自由交流,如果考官無法分辨出被測對象是機(jī)器還是真人,則機(jī)器就通過了圖靈測試。

 

圖靈測試的核心思想類似藥物研究領(lǐng)域的“盲測”:為了判斷某種藥物是否有療效,科學(xué)的方法主要不在于論證藥物背后的理論和機(jī)制有效,而在于通過“雙盲測試”,在臨床環(huán)境下獲得統(tǒng)計(jì)上顯著的藥效證明。對于“機(jī)器是否能思考”這個(gè)問題,“圖靈測試”避免了不斷爭論“智能”或者“思考”的本質(zhì)和機(jī)制,而給出了一種基于現(xiàn)象的,純屬觀察的,可操作的定義。

 

迄今為止,還沒有機(jī)器能通過不限制談話領(lǐng)域的圖靈測試。然而,如果不把圖靈測試限制于自由交談,機(jī)器的復(fù)雜行為則已經(jīng)能“騙過”人類。據(jù)澎湃報(bào)道,自2017年2月起,微軟開發(fā)的 AI 系統(tǒng)“小冰”,在天涯、豆瓣、貼吧、簡書四個(gè)平臺上使用了27個(gè)化名發(fā)表詩歌作品,獲得大量跟帖評論的同時(shí),幾乎沒有被察覺出非人為所作。

 

基于一張圖片,小冰就能“觸景生情”地寫出一首朦朧的中文現(xiàn)代詩: 

 

 
可以說,微軟小冰在“寫現(xiàn)代詩”這個(gè)領(lǐng)域,已經(jīng)表現(xiàn)出了和人類相近的能力。在大眾的直覺里,詩歌寫作這個(gè)領(lǐng)域和方程組求解不同,更能展現(xiàn)某種獨(dú)屬于人類的情感和創(chuàng)造力。在小冰的真實(shí)身份沒有披露之前,讀者不會懷疑這些詩句是一個(gè)多情的人兒所寫??梢韵胂瘢舾械淖x者甚至?xí)υ娙藙忧椤?/span>

 

小冰不是孤例。近年來,AI 系統(tǒng)已經(jīng)越來愈多的領(lǐng)域表現(xiàn)得“富有人性”。2017年1月,谷歌 DeepMind 開發(fā)的人工智能程序 AlphaGo 化名 Master 重出江湖,并在各大圍棋論壇上與中日韓頂尖選手過招,斬獲 60 場不敗的戰(zhàn)績。其手下敗將包括“棋圣”聶衛(wèi)平,日韓頂尖棋手井山裕太,樸廷桓,以及曾經(jīng)高調(diào)宣稱一定能下贏 AlphaGo 的世界排名第一的中國棋手柯潔。

 

曾負(fù)于 AlphaGo 的歐洲圍棋冠軍樊麾對新華社記者說“如果沒有人告訴我,我一定不知道它是電腦,它太像人了。它一定是在思考。按照人的說法,它應(yīng)該有棋風(fēng)吧?!甭櫺l(wèi)平也評價(jià)到:“阿爾法狗的大局觀遠(yuǎn)勝人類,如果差距拉近一些可能還有勝負(fù)?!笨聺嵰苍谧约旱纳缃幻襟w發(fā)言:“昨晚輾轉(zhuǎn)反側(cè),不想竟一夜無眠。人類數(shù)千年的實(shí)戰(zhàn)演練進(jìn)化,計(jì)算機(jī)卻告訴我們,人類全都是錯(cuò)的。我覺得,甚至沒有一個(gè)人沾到了圍棋真理的邊?!?/span>

  
 

對于和 AlphaGo 對弈過的棋手來說,AlphaGo 更像是一位“得道高僧”,而非算法和程序。“棋風(fēng)”、“大局觀”,都是用來形容人類棋手的詞語。當(dāng)這些概念被用來形容一個(gè)圍棋程序,到底意味著什么?一個(gè)程序,又如何懂得 “圍棋真理”?

 

但我們可以看到,無論是否知道微軟小冰和 AlphaGo 背后是程序,是否理解它們背后的算法原理,人們都從這些AI 的表現(xiàn)中感受到了某種“人性”,甚至是“靈性”。現(xiàn)代人顯然不會因?yàn)槠嚺艿帽热丝於锌f千,也不會因?yàn)橛?jì)算器求平方根比人快而驚嘆。但我們確實(shí)從當(dāng)前的一些AI應(yīng)用中感受到了超越一般意義上的工具和機(jī)器的特性。

 

事實(shí)上,大眾以擬人化的方式理解 AI 應(yīng)用的現(xiàn)實(shí),已經(jīng)被一些哲學(xué)家視作倫理上的新挑戰(zhàn)。在由北京大學(xué)哲學(xué)系副主任劉哲教授主導(dǎo)編撰的《中國機(jī)器人倫理標(biāo)準(zhǔn)化前瞻(2019)》中,“去人類中心主義”立場被放在了核心位置。其中的重要考量,即是因?yàn)楫?dāng)下的許多 AI 應(yīng)用已經(jīng)超越了普通的工具和機(jī)器,而越來越被人類當(dāng)作“伙伴”,獲得了人類豐富的情感聯(lián)結(jié),也越來越容易被當(dāng)成道德主體去考量。傳統(tǒng)的倫理考量是人類中心主義的,往往只把人類行為作為價(jià)值的載體,自然、動物和人造物的活動本身,無所謂道德與否。當(dāng)下,這種傳統(tǒng)考量已經(jīng)顯露不足。

 

我們應(yīng)該如何看待 AI 呈現(xiàn)出的這種“人性”和“靈性”?

 


1


當(dāng)前的 AI 真的具備一些“人性” 嗎?

 

如果從當(dāng)前基于機(jī)器學(xué)習(xí)原理和大數(shù)據(jù)訓(xùn)練 AI 技術(shù)應(yīng)用來看,答案是否定的。

 

在復(fù)旦大學(xué)哲學(xué)系從事多年人工智能哲學(xué)研究的徐英瑾教授看來,人類智能的關(guān)鍵是領(lǐng)域切換的能力。AlphaGo 的下棋能力超越了所有的人類,卻仍然無法評價(jià)自己剛剛下完的一盤棋——而這是最差的棋手也能做到的事情。復(fù)旦大學(xué)哲學(xué)系教授王球也表示,相比于開發(fā)出AlphaGo這樣的在下棋層面超越一切人類的 AI 應(yīng)用,開發(fā)出智能相當(dāng)于烏鴉的 AI 系統(tǒng),才會讓 AI 研究者更加興奮,因?yàn)闉貘f能夠自己選擇要去解決的問題。

 

當(dāng)前基于機(jī)器學(xué)習(xí)的 AI 應(yīng)用,其基本思路大致是這樣:建立一個(gè) “機(jī)器”(就是通常說的 “模型”),輸入特定的值后,可以輸出我們想要的值。例如,谷歌翻譯就是這樣一個(gè)機(jī)器,輸入中文,它可以輸出合理的英文。

 

顯然,這樣的機(jī)器需要非常復(fù)雜精巧。不過,所謂機(jī)器學(xué)習(xí),就是說并不需要工程師去設(shè)計(jì)這個(gè)機(jī)器的一切小零件和小齒輪,而是把這個(gè)機(jī)器的整體結(jié)構(gòu)設(shè)計(jì)好之后,灌入已經(jīng)配對好的輸入和輸出數(shù)據(jù),由機(jī)器自己去把這些小齒輪調(diào)節(jié)合適。“學(xué)得好不好”,需要一個(gè)標(biāo)準(zhǔn)(即誤差函數(shù))?!皩W(xué)習(xí)”的過程就是機(jī)器自己調(diào)整這些小齒輪,讓一個(gè)又一個(gè)的輸入進(jìn)入機(jī)器后,其輸出和理想的輸出盡量接近,即誤差函數(shù)可能小的過程。

 

神經(jīng)網(wǎng)絡(luò)中,每一個(gè)“神經(jīng)元”都是一個(gè)小齒輪,需要被調(diào)整到合適的狀態(tài)(權(quán)重)playground.tensorflow.org

 

機(jī)器學(xué)習(xí)本身已經(jīng)存在了半個(gè)多世紀(jì),但最近的技術(shù)突破在于人們找到了讓“多層神經(jīng)網(wǎng)絡(luò)”這種擁有巨量小齒輪的復(fù)雜機(jī)器的小齒輪們達(dá)到理想狀態(tài)的辦法,俗稱深度學(xué)習(xí)。在過去十幾年中 AI 的重要突破(也是開啟最近一波人工智能浪潮的技術(shù)突破),例如語音識別和機(jī)器翻譯,和精確性足以用于支付和解鎖手機(jī)設(shè)備人臉識別,都是基于這項(xiàng)技術(shù)。

 

我們或許常常聽到,深度學(xué)習(xí)技術(shù)是一個(gè)“黑箱”,仿佛其中有某種神秘的力量。但事實(shí)上,所謂黑箱,只是因?yàn)榭茖W(xué)家們難以清楚地說明某個(gè)小齒輪在決定機(jī)器的輸出時(shí),具體扮演了什么角色。這可能會帶來一些工程上的問題,例如在進(jìn)行圖像識別時(shí),某些圖像元素的改變,會讓 AI 將烏龜識別為來復(fù)槍,而工程師們可能難以找到具體是哪些齒輪壞掉了。但這并沒有神秘性。機(jī)器的工作目標(biāo),牢牢地掌握在工程師的手中。

 

這也就是為什么,當(dāng)前的 AI 系統(tǒng)幾乎都是“專用人工智能”,而我們距離發(fā)明烏鴉水平的“通用人工智能”還非常遙遠(yuǎn),大概率也不是基于深度學(xué)習(xí)技術(shù)。

 

2


為何人類會感嘆機(jī)器有靈性” ?


但這些是對當(dāng)前 AI 實(shí)現(xiàn)原理的解釋,并不能解釋人們?yōu)槭裁磿J(rèn)為AlphaGo有某種“棋風(fēng)”和“大局觀”。

 

如果我們把考察的范圍擴(kuò)大一些就會發(fā)現(xiàn),人類本來就有一種將無意識的事物,看作有意識,或者拔高對方的意識水平的傾向,即所謂“泛靈論”傾向。這在世界各個(gè)文化的歷史早期都普遍存在。在古人看來,打雷,刮風(fēng),是因?yàn)槟硞€(gè)神靈發(fā)怒了。世間萬物,尤其是那些自己會運(yùn)動的事物,都是會思考,有意圖地存在。

 

現(xiàn)代世界的機(jī)械論世界觀,在近代啟蒙運(yùn)動和科技發(fā)展的巨大影響下,逐步成為大多數(shù)人的“標(biāo)配”。我們不再相信某個(gè)自然現(xiàn)象背后的原因是某種靈魂的意圖,而是訴諸物理實(shí)體的運(yùn)動和因果性。

 

即便如此,泛靈論的心理傾向并不會自動消失,而是在現(xiàn)代體現(xiàn)為心理學(xué)意義上的“泛擬人”的傾向。事實(shí)上,人類漫長進(jìn)化而來的大腦認(rèn)知機(jī)制讓我們格外地善于“看臉色”,善于共情。人們甚至能從雜亂的碎石或林間的陰影看出人臉來,難免會本能地覺得各處都有靈魂存在。人們會對自己的貓狗說話,不只是發(fā)出指令,而是充滿了復(fù)雜的請求、抱怨、責(zé)備等等——哪怕他們明知貓狗無法理解那么復(fù)雜的話語。

 

事實(shí)上,由于人的這種泛擬人傾向,無需多么高超的自然語言處理技術(shù),AI 也能在非常特定的情形近乎通過圖靈測試。早在1960年代,只會非常簡單地識別和替換特定關(guān)鍵詞的對話心理咨詢師 AI 系統(tǒng) ELIZA,就能獲得人類用戶的信任。許多人甚至?xí)@個(gè)非常簡單的 AI 系統(tǒng)傾訴,和“她”聊上幾個(gè)小時(shí)。ELIZA 實(shí)質(zhì)上是利用了人的某些認(rèn)知和心理特性,以及對心理咨詢場景的預(yù)期“蒙混過關(guān)”。這實(shí)際上和魔術(shù)很相似。

 

ELIZA 和人類的聊天記錄

 

除了“泛靈論”的因素,“當(dāng)局者迷”也是一個(gè)對人們?yōu)楹螘吖繟I的意識水平的解釋。對于和 AlphaGo 對弈的棋手來說,他們難免會以對待人類棋手的心境去理解對方的棋路,畢竟這是他一直以來所習(xí)慣的思維方式。站在局外,我們或許可以正確而輕巧地說,AlphaGo 的這些棋路不過是算法的結(jié)果,但這種評論不足以回應(yīng)棋手主觀的體驗(yàn)。他確實(shí)感受到了 AlphaGo 某步妙招的“天才”之處,從而被對手“懾服”。即便他也能同時(shí)承認(rèn),這步棋是算法和大規(guī)模計(jì)算的結(jié)果,但這種解釋未必能消解他直觀體驗(yàn)到的震撼。

 

更進(jìn)一步,我們也要認(rèn)識到,對事物的描述是有層級的。王球舉了一個(gè)例子來說明這一點(diǎn):如果我們的電腦壞了,別人問我們,“電腦為什么壞了?”我們會解釋說,“因?yàn)殡娔X進(jìn)水,主板燒壞了?!边@是一個(gè)合情合理的描述。理論上,如果我們熟知計(jì)算機(jī)硬件和半導(dǎo)體物理,并且對這臺進(jìn)水的電腦進(jìn)行了徹底的調(diào)查,也可以從水如何在物理層面影響電腦工作進(jìn)行描述。“主板燒壞了”和“特定線路的電學(xué)特性發(fā)生了改變”是兩個(gè)不同層級的描述,前者“功能層面”,描述某種功能的實(shí)現(xiàn),后者是“物理層面”,也可理解成實(shí)現(xiàn)這項(xiàng)功能的物理基礎(chǔ)。同樣的功能,可能由不同的物理基礎(chǔ)來實(shí)現(xiàn)。在有效溝通的意義上,我們不能說功能層面的“主板燒壞了”是錯(cuò)誤的。

 

事實(shí)上,我們的描述層級往往分成“物理層面”、“功能層面” 和“意向?qū)用妗薄τ谧匀皇挛?,我們通常會在前兩個(gè)層面進(jìn)行描述。對于人類的事務(wù),則往往在意向?qū)用婷枋?。KTV太吵鬧,朋友聚會時(shí)我獨(dú)自先離開了。人們大概不會將其解釋為“噪音讓我的神經(jīng)系統(tǒng)產(chǎn)生了如此這般的反應(yīng),最終讓腳邁出了大門”,而是會直接說“太吵了,我不想待了”。

 

對于圍棋棋手來說,使用一種意向?qū)用娴恼Z言,描述下棋時(shí)應(yīng)該做什么,不應(yīng)該做什么,顯然也是合情合理的。唐代王積薪《棋訣》一書提出的圍棋十訣是:“一不得貪勝;二入界宜緩;三攻彼顧我;四棄子爭先;五舍小就大;六逢危須棄;七慎勿輕速;八動須相應(yīng);九彼強(qiáng)自保;十勢孤取和?!边@些話語并非在算法層面描述圍棋,甚至還帶有某種生活哲學(xué)的寓意,但卻是人類溝通,交流和學(xué)習(xí)圍棋所不可或缺的。尤其是,王球提到,“靈氣”,“大局觀”,“圍棋真理”等等說法,也讓棋手們將圍棋看作一種更有價(jià)值的事業(yè)。

 

因此,雖然 AI “實(shí)際上”沒有人性和靈氣可言,但至少從心理機(jī)制上,我們可以理解人們?yōu)楹纹糜趯⑵淇醋饔徐`氣的;從有效溝通和描述的角度,我們也可以看到用“意向?qū)用妗比ッ枋?AI 系統(tǒng)的意義。

 


3


AI 僅僅是“看上去”有人性,

就不會帶來現(xiàn)實(shí)的社會影響嗎?

 

上文中,我們總體上理解了為何人類會認(rèn)為“當(dāng)前 AI 系統(tǒng)具有‘人性’,而不是普通的工具和機(jī)器”的想法。但這并不意味著,AI 僅僅是“看上去”有人性,就不會帶來任何的社會影響。

 

劉哲表示,人們現(xiàn)在已經(jīng)會對虐待“機(jī)器寵物”的行為表現(xiàn)出類似虐待真正貓狗的憤慨,例如網(wǎng)上確有“討伐”波士頓動力(Boston Dynamics)測試人員“虐待” 他們開發(fā)的“機(jī)器狗”的言論

 

我們也可以想象這樣的場景:一個(gè)人在使用機(jī)器人服務(wù)員的飯店點(diǎn)餐時(shí),因?yàn)闄C(jī)器人無法理解他的命令,他便對這個(gè)機(jī)器人大打出手。在旁人看來,這種行為很可能比他砸碎一個(gè)普通餐廳的點(diǎn)菜平板電腦,要更加的 “殘忍”。事實(shí)上,旁人很可能據(jù)此判斷,他在類似情形下面對真人服務(wù)員,也會對其大打出手。從而,認(rèn)定他是一個(gè)道德上有問題的人。

 

換言之,雖然我們可能不會嚴(yán)肅地認(rèn)為機(jī)器人或者 AI 具有“人權(quán)”,但卻可能會接受,“虐待”機(jī)器人,會損害我們自己的道德品質(zhì)。

 

我們或許可以從科學(xué)的角度解釋機(jī)器人的工作原理,也可以從心理學(xué)角度解釋人們?yōu)楹螘魄橛谌诵挝矬w,但這種同情機(jī)器人的心理反應(yīng)本身是不可忽視的。劉哲認(rèn)為,這不是簡單的歸結(jié)于大眾傳媒和科幻文化誤導(dǎo)就能消解的問題,也不是通過對公眾進(jìn)行科普就可以簡單回避。

 

事實(shí)上,我們可以將對機(jī)器人和 AI 的移情,類比到動物保護(hù)領(lǐng)域。我們保護(hù)動物,尤其是保護(hù)貓狗等伴侶動物,和其他與我們在生物學(xué)上接近的哺乳動物,并不需要我們從生物學(xué)上認(rèn)識到動物和我們在基因上的同源,也不基于我們通過神經(jīng)科學(xué)和行為科學(xué)實(shí)驗(yàn)了解到貓狗的智能水平有多高。

 

上海交通大學(xué)哲學(xué)系教授蔡文菁認(rèn)為,“動物權(quán)利的基礎(chǔ),在于動物具有情感和意識是我們的直觀,而不是基于對其背后生物學(xué)機(jī)制的科學(xué)認(rèn)識”。她指出,一只小貓因?yàn)橥纯喽胍鞯臅r(shí)候,我們能共情,能直感到它的痛苦。相反,一只龍蝦因?yàn)楸粷L水煮而痛苦,我們就很難獲得 “直觀”,從而也較少關(guān)注龍蝦的動物福利?;蛟S有人會強(qiáng)調(diào),龍蝦的某種生理構(gòu)造,讓它們也會感受到痛苦。但客觀的痛苦和動物保護(hù)之間是否有邏輯關(guān)系,卻也是一個(gè)沒有定論的問題。

 

除非對 AI 算法原理的科普能消解公眾對機(jī)器人和 AI 的“直觀”,否則呼吁機(jī)器人福利,甚至機(jī)器人權(quán)利保護(hù),就不是一個(gè)完全荒謬的行為。

 

對此,北伊利諾伊大學(xué)(North Illinois University)的 David Gunkel 博士,提出了思考機(jī)器人倫理學(xué)的關(guān)系模型(relational model)。在他看來,我們與其他存在互動時(shí),無論是和動物,人類,自然環(huán)境,還是機(jī)器人,重要的不是它們究竟是什么,而是我們和它們建立了怎樣的關(guān)系。相應(yīng)的,我們對它們的道德責(zé)任,也來自于它們?nèi)绾蜗蛭覀兂尸F(xiàn)自身。如果人們越來越傾向于像對待同事,同學(xué),朋友那樣去對待機(jī)器人,機(jī)器人就應(yīng)該享有越來越多類似人所享有的權(quán)利。在《中國機(jī)器人倫理標(biāo)準(zhǔn)化前瞻(2019)》中,作者也呼吁建立一種“去人類中心主義”的,基于交互關(guān)系的倫理學(xué),來為未來可能會越來越普遍的人機(jī)共存社會作準(zhǔn)備。

 


4


更現(xiàn)實(shí)的問題不是 AI 權(quán)利保護(hù),

而是保護(hù)人類不被 AI 欺騙

 

不過,我們強(qiáng)調(diào)目前的 AI 技術(shù)讓我們“直觀”到 AI 的人性,并非真的為了保護(hù) AI,而更多是為了保護(hù)人類自身。除了上文提到的,虐待機(jī)器人可能會損害人類自己的道德品質(zhì),更大的問題是過分?jǐn)M人的、被大公司作為商品創(chuàng)造出來的機(jī)器人,可能會對我們造成更加實(shí)際的傷害和控制。

 

目前,已有研究人員使用機(jī)器狗和自閉癥兒童進(jìn)行交互治療。研究發(fā)現(xiàn),自閉癥兒童更愿意同機(jī)器狗進(jìn)行口頭和其他類型的交互。然而,如果這種自閉癥兒童最終只愿意和機(jī)器交互,對于治療而言,“是一場災(zāi)難”。對此,劉哲表示,應(yīng)該避免 AI 和機(jī)器人不必要的過度擬人,以免造成用戶心理依賴和成癮。

 

《中國機(jī)器人倫理標(biāo)準(zhǔn)化前瞻(2019)》提到,已有問卷調(diào)查表明,許多受訪者希望和自閉癥患者交互的機(jī)器人能夠得到治療師的指導(dǎo),能夠被遠(yuǎn)程控制,而不是完全自動化[1]。也有倫理學(xué)家憂慮,過分?jǐn)M人的機(jī)器人陪護(hù),是在為患者提供虛假的朋友[2]。即便是善意的,這也是一種欺騙。
 
再者,考慮到這些機(jī)器人往往作為商品被設(shè)計(jì)生產(chǎn)出來,難免也內(nèi)置了商業(yè)牟利的邏輯。我們可以想象,未來的機(jī)器寵物,可能運(yùn)用了高超的語言處理和運(yùn)動控制技術(shù),以至于能夠更萌,更善于撒嬌,從而,促使主人購買更多的機(jī)器寵物外設(shè),食物,裝備,一如目前網(wǎng)絡(luò)游戲中已經(jīng)出現(xiàn)的“氪金”模式。

 

在可見的未來,機(jī)器人的“人性”或許只是我們的“幻覺”。但我們的“人性”被利用或?yàn)E用,卻無疑是更可能發(fā)生的事情。

 


4


未來的 AI,會擁有完整的“人性”嗎?


雖然當(dāng)前的 AI 技術(shù)所構(gòu)造的“人性”,本質(zhì)上更多是一種“魔術(shù)”或“當(dāng)局者迷”,稱之為“擬人感”或許比“人性”更加準(zhǔn)確。但未來,隨著科技發(fā)展,幾十年甚至幾百年后,AI 是否可能擁有“真正的人性”?

 

更進(jìn)一步,從心理和文化層面來說:如果 AI 歸根結(jié)底是由人類所造,而非如其他生命一樣“自然”生成,是否就永遠(yuǎn)會被人類視作“二等公民”?

 

《銀翼殺手》中著名的“雨中演講”片段

 
人造之物,如何成為人?這些問題可以說是許多關(guān)于AI,機(jī)器人和克隆人的科幻作品的“母題”。在雷德利·斯科特的《銀翼殺手》中,人類創(chuàng)造的復(fù)制人在太空殖民地經(jīng)歷了史詩般的戰(zhàn)斗,勇氣與德性可能遠(yuǎn)超過人類,卻不斷被人類獵殺,只能“消逝在時(shí)間里,就像雨中的淚水”。在斯皮爾伯格的《人工智能》中,機(jī)器人小男孩大衛(wèi),被“養(yǎng)父母” 拋棄后,不斷尋找 “藍(lán)仙子”,以便成為真正的人類小孩,回到父母的懷抱。在美劇《西部世界》中,供人類取樂的 AI 機(jī)器人們,在一次次“虐待”中覺醒,開始反抗人類主人,反叛自己的“奴隸身份”。
 
顯然,重點(diǎn)不在于探討這些科幻作品中的 AI 的技術(shù)可能性,而是考察科幻文化所反映的人類文化潛意識。清華大學(xué)科學(xué)史系教授吳國盛在其《技術(shù)哲學(xué)講演錄》中指出,人工智能的英文 Artificial Intelligence (AI) 中,“artificial” 又有 “虛假” 之意。“這似乎反映出人類對自己的創(chuàng)造物的某種不自信”,吳國盛寫道。是否因?yàn)?AI 是人類創(chuàng)造的,人類就不會認(rèn)可 AI 具有完整的人性,無論它們表現(xiàn)得多么擬人?
 
這牽扯到我們說的“造”是什么意思。在人類的自然生育中,受精,胚胎發(fā)育和新生兒的成長,是一個(gè)母親無法也不需要理解的過程,但我們似乎能理解 AI 制造過程的每個(gè)細(xì)節(jié)。這種高分辨率的理解,似乎妨礙了我們將 AI 看做與我們同級別的智能。
 
不過,在徐英瑾看來,“未來真正智能的人工智能就不可控程度而言,會遠(yuǎn)遠(yuǎn)的超過現(xiàn)在的深度學(xué)習(xí)……未來的機(jī)器人是被設(shè)想成能夠跟著環(huán)境的互動,在無監(jiān)督的情況下進(jìn)行自主學(xué)習(xí)。它處于怎樣的環(huán)境,也是不能夠完全控制的,所以它將會形成怎樣的 ‘機(jī)器人人格’,你也只能進(jìn)行非常粗線條的控制,類似于父母對于孩子的性格,只有極為粗線條控制力”。如果控制過多,就會失去靈活性?!凹纫R兒跑,又要馬兒不吃草,是不可能的。”
 
進(jìn)一步,如果我們再更高水平上去理解人類道德,就會意識到,雖然人權(quán)被默認(rèn)賦予每一個(gè)自然人,但我們和他人的道德關(guān)系,卻絕不只是取決于我們自己意志,也取決于他人的意志。我們甚至可以把“道德主體”,定義為“有能力改變和他人的關(guān)系” 的存在。在這個(gè)框架下,無論我們多么能共情自己的機(jī)器寵物,將其視作家庭成員,只要它無法主動改變和我們的關(guān)系,它就只是我們的“玩物”。哪怕未來的人類極其富有同情心,將權(quán)利賦予AI,但我們恐怕仍然不能將這種“權(quán)利”看作 AI 具有完整人性的象征。
 
因此,按照父母對待孩子的方式來理解未來的高級 AI,甚至更加凸顯了人類對于 AI “獲得人性”的心理障礙。這就好像父母對孩子,總是處于“既希望他/她獨(dú)立,又希望能控制他/她”的矛盾心情中。
 
當(dāng)然,或許“AI 反叛人類”是很刻板的想法。在蔡文菁看來,AI 或許能夠像小孩一樣,通過“表現(xiàn)為超出我的預(yù)料,制造驚喜,提出自己的理由等等”,來讓我們感受到他的主體性,如同兒童的成長過程。
 
千年之后,人類的科技高度發(fā)達(dá),我們是否能在由我們制造的機(jī)器具備完整的人性時(shí),接受他們的人性?這個(gè)問題或許會永遠(yuǎn)處于爭論之中。


參考資料
1. S.G. Tzafestas, Roboethics: A Navigating Overview, 2016
2. M. Coeckelbergh et al, A Survey of Expectations About the Role of Robots in Robot-Assisted Therapy for Children with ASD: Ethical Acceptability, Trust, Sociability, Apperance, and Attachment".

 

 制版編輯 | 皮皮魚
參與討論
0 條評論
評論
暫無評論內(nèi)容
知識分子是由饒毅、魯白、謝宇三位學(xué)者創(chuàng)辦的移動新媒體平臺,致力于關(guān)注科學(xué)、人文、思想。
訂閱Newsletter

我們會定期將電子期刊發(fā)送到您的郵箱

GO