? 他趴在我两腿中间吸我电影,小粉嫩直流白浆

亚洲 a v无 码免 费 成 人 a v,性欧美videofree高清精品,新国产三级在线观看播放,少妇人妻偷人精品一区二区,天干天干天啪啪夜爽爽av

如何制造有道德的機(jī)器人?

2019/01/18
導(dǎo)讀
我們在使用全新的工具做全新的研究,而計算機(jī)正是我們的新工具。

圖片來源:Pixabay


編者按

2018年12月18日,歐盟人工智能高級別專家組(AI HLEG)正式向社會發(fā)布了一份人工智能道德準(zhǔn)則草案DRAFT ETHICS GUIDELINES FOR TRUSTWORTHY AI。在許多人擔(dān)憂人工智能取代人類、破壞倫理的大背景下,該草案旨在指導(dǎo)人們制造一種“可信賴的人工智能”。那么,如何才能讓機(jī)器人更令人信賴?可否賦予它們道德修養(yǎng)呢?


就此話題,我們采訪了美國匹茲堡大學(xué)科學(xué)哲學(xué)和科學(xué)史系杰出教授、西安交通大學(xué)長江講座教授科林·艾倫(Colin Allen)。艾倫長期致力于哲學(xué)與計算交叉領(lǐng)域,曾獲得美國哲學(xué)學(xué)會頒發(fā)的巴韋斯終身成就獎。在與耶魯大學(xué)教授溫德爾·瓦拉赫合著的《道德機(jī)器:如何讓機(jī)器人明辨是非》一書中,艾倫認(rèn)為:盡管完備的機(jī)器道德智能體(AMAs)還很遙遠(yuǎn),但是目前仍有必要,而且有可能開始建構(gòu)一種功能性道德,從而使人工道德智能體具有基本的道德敏感性。


今天,讓我們一起來看看艾倫對人工智能與道德問題的理解。

 

采訪 | 王小紅(西安交通大學(xué)計算哲學(xué)實驗室中方主任)

翻譯 | 楊冰潔、高元昊

譯校 | 王小紅

責(zé)編 | 惠家明


  ●         


1. 什么是人工智能的“道德”?

艾倫:人工智能的“道德”,或者說,“道德機(jī)器”(moral machine)、“機(jī)器道德”(machine morality),有很多不同的含義。在此,我將這些含義歸為三大類。在第一種含義中,機(jī)器應(yīng)具有與人類完全相同的道德能力。第二種含義中,機(jī)器不用完全具備人類的能力,但它們對道德相關(guān)的事實應(yīng)該具有敏感性,并且能依據(jù)事實進(jìn)行自主決策。第三種含義則是說,機(jī)器設(shè)計者會在最低層面上考慮機(jī)器的道德,但是并沒有賦予機(jī)器人關(guān)注道德事實并做出決策的能力。

 

就目前而言,第一種含義所設(shè)想的機(jī)器仍是一個科學(xué)幻想,我們并不知道應(yīng)該如何實現(xiàn)它。所以,我在《道德機(jī)器》一書中略過了對它的探討,而更有興趣探討那些介乎第二、第三種意義之間的機(jī)器。當(dāng)下,我們希望設(shè)計者在設(shè)計機(jī)器人時能夠考慮道德因素。這是因為,在沒有人類直接監(jiān)督的情況下,機(jī)器人可能將在公共領(lǐng)域承擔(dān)越來越多的工作。這是我們第一次創(chuàng)造可以無監(jiān)督地運行的機(jī)器,這也是人工智能倫理問題與以往一些科技倫理問題之間最本質(zhì)的區(qū)別。在這樣的“無監(jiān)督”情境中,我們希望機(jī)器能夠做出更道德的決策,希望對機(jī)器的設(shè)計不僅僅要著眼于安全性,更要關(guān)注人類在乎的價值問題。

 

科林·艾倫

來源:http://www.pitt.edu/~pittcntr/Being_here/photo_album/2014-15_albums/09-19-14_allen/DSC01601.JPG


2. 如何讓人工智能具有道德呢?



艾倫:首先要說的是,人類自己還不是完全道德的,將一個人培養(yǎng)成有道德的人可不是一件容易的事。我們?nèi)祟惖谋举|(zhì)都是出于利己主義做事,而不考慮他人的需求和利益。然而,一個道德的智能體必須學(xué)會克制自己的欲望以方便他人。但我們現(xiàn)在構(gòu)建的機(jī)器人,其實并不具有自己的欲望,也沒有自己的動機(jī),因為它們沒有自私的利益。所以,訓(xùn)練人工智能和訓(xùn)練人的道德是有很大差異的。對機(jī)器的訓(xùn)練問題在于,我們怎樣才能賦予機(jī)器一種能力,讓它敏感地察覺到那些對人類的道德價值觀而言是重要的事情。此外還有一個問題,機(jī)器需要認(rèn)識到它的行為是否會對人類造成痛苦嗎?我認(rèn)為是需要的。我們可以考慮通過編程使機(jī)器按照這種方式行事,且無需考慮怎么讓機(jī)器人優(yōu)先考慮他者利益,畢竟目前的機(jī)器還不擁有利己的本能。

 

3. 發(fā)展人工智能的道德應(yīng)采用怎樣的發(fā)展模式?


艾倫:我們曾在《道德機(jī)器》中討論了機(jī)器道德發(fā)展模式,我們認(rèn)為,“自上而下”和“自下而上”相混合的模式是這一問題的最佳答案。首先,我想來談一談“自上而下”和“自下而上”意味著什么。我們以兩種不同的方式使用著這兩個術(shù)語。一個是工程的視角,也就是一些技術(shù)和計算機(jī)科學(xué)的視角,例如機(jī)器學(xué)習(xí)和人工進(jìn)化(artificial evolution),而另一個則是倫理學(xué)視角。機(jī)器學(xué)習(xí)和人工進(jìn)化并不從任何原則開始,它們只是試圖使機(jī)器符合特定類型的行為描述,并且在給定輸入使機(jī)器以這種方式行事時,它的行為能夠符合特定類型,這叫“自下而上”。與之相比,自上而下的方法則意味著一個清晰的、將規(guī)則賦予決策過程的模式,并且試圖寫出規(guī)則來指導(dǎo)機(jī)器學(xué)習(xí)。我們可以說,在工程領(lǐng)域中,自下向上是從數(shù)據(jù)當(dāng)中學(xué)習(xí)經(jīng)驗,而自上向下則是用確定的規(guī)則進(jìn)行預(yù)編程。

 

在一些倫理學(xué)領(lǐng)域也有這種“上下之別”,比如康德,還有更早些時候的功利主義學(xué)派,如邊沁和密爾,他們就更像是“自上而下”。這些學(xué)者試圖制定規(guī)則以及普遍原則,以便通過這些“條條框框”判斷出一個行為是不是道德的。這樣對康德的道德律令而言,其涵義就包含著多項具體規(guī)則,例如“不撒謊”。

 

但是在西方傳統(tǒng)中,亞里士多德對于道德持有相當(dāng)不同的觀點。他認(rèn)為,道德應(yīng)當(dāng)是一個人通過訓(xùn)練而習(xí)得的。因此,亞里士多德的觀點就更傾向于一種自下向上的方法,這種方法就是一個人通過練習(xí)變得好、善良、勇敢。當(dāng)踐行道德的時候,我們就稱之為美德倫理。通過這樣做,一個人會變得更具美德、會有更好的行為。

 

若問人類是怎樣做的,我還是認(rèn)為,亞里士多德的看法更正確。因為我們?nèi)祟惒⒉皇强俊跋古鱿棺病比ヰB(yǎng)成習(xí)慣的,我們也會對習(xí)慣進(jìn)行思考,并且思考我們是否需要那些原則。亞里士多德注意到,在原則灌輸和習(xí)慣訓(xùn)練之間存在著一種相互作用。我們認(rèn)為,這種途徑同樣也適用于人工道德智能體的構(gòu)建。在很多實時決策的情境下,我們并沒有足夠的時間來反思行為背后的理論或原則含義。但是,我們還可以從錯誤中學(xué)習(xí),因為我們可以使用這些自上向下的原則重新評估我們所做的事情,之后再進(jìn)行調(diào)整和重新訓(xùn)練以便在下一次做得更好。

 

這就是混合方法的基本思路,我認(rèn)為它確實符合人類的情形。舉個例子,當(dāng)你還是個孩童時,你對兄弟姐妹做了什么不好的事情,父母會說“如果這種事情發(fā)生在你身上,你會有何感受呢”,是吧?在許多道德傳統(tǒng)中都有這樣一種原則:“以你自己對待自己的方式,或是你希望被別人對待的方式去對待他人”,有時人們也稱這一原則為黃金法則。所以,你不僅僅被告知不要那樣做,也并不僅僅因此而受罰,實際上你會被告知去思考這樣做為何是好的或不好的,這就是“自上而下”與“自下而上”的結(jié)合。

 


4. 我們應(yīng)該限制人工智能的發(fā)展嗎?


艾倫:我認(rèn)為,這取決于其應(yīng)用的領(lǐng)域。我現(xiàn)在并不擔(dān)心機(jī)器人或人工智能會取代人類,我也不認(rèn)為人類正處在這一危險的邊緣。如果情況變得危險,我們是有能力去阻止它的。比如說,如果我們突然間看到機(jī)器人可以開始生產(chǎn)機(jī)器人,我們所需要做的無非就是切斷電源。

 

當(dāng)然,如果我們能辦到的話,確實存在一些應(yīng)當(dāng)停止人工智能應(yīng)用的地方,其中一個就是人們正致力開發(fā)的軍事領(lǐng)域。我們應(yīng)當(dāng)擁有人工智能武器嗎?我認(rèn)為這是應(yīng)該極力避免的,并且我在各種方面都對此持悲觀態(tài)度。因為從人類的歷史來看,一旦有人構(gòu)想出一個武器,那將很難阻止另一些人的欲望及其為之奮斗的野心。在這方面,核武器和無人機(jī)就是很好的例子。所以,人工智能武器時代或許真的將要來臨,但如果我們能阻止它的話,我會對此十分支持。

 

但是,我不認(rèn)為我們應(yīng)該阻止其他形式的人工智能發(fā)展。我們需要思考技術(shù)對生活帶來了怎樣的后果,比如說,自動駕駛汽車會使行人過馬路更困難,還是更加容易呢?自動駕駛汽車面臨行人過馬路的情形時應(yīng)附加什么樣的權(quán)限呢?無人車看到行人能不能安全停下,還是說它像人類司機(jī)一樣,依然有可能撞到行人?這些都是我們需要對人工智能進(jìn)行思考的問題。不過話說回來,我覺得無人駕駛汽車不該停止發(fā)展,反而應(yīng)該投入更多。

 

5. 機(jī)器人會變得更好還是更危險?


艾倫:過去十年來,人工智能在某些方面的飛速發(fā)展是有點令人吃驚,但仍然算不上滿意。在我看來,未來的十年內(nèi),無人駕駛汽車投放到真實路況中的可能性不大。我也非常驚訝,蘋果公司推出了一個可以交談的智能體Siri——蘋果公司也是第一個這樣做的公司——但以現(xiàn)在的情形來看,Siri很糟糕不是嗎?

 

所有我使用過的類似產(chǎn)品,諸如Alexa, Google Talk, 都不盡人意。所以從很多層面來看,我現(xiàn)在并不會從倫理的視角對人工智能的飛速發(fā)展過于擔(dān)心。我很驚訝這些企業(yè)居然真的發(fā)布了這些產(chǎn)品,但更令我驚奇的是,人們居然在很大程度上調(diào)整了自身的行為以適應(yīng)人工智能。你以一種絕非與人類對話的方式和Siri交談,因為你知道把Siri當(dāng)成正常人來交談的話,它將永遠(yuǎn)不會明白你的意思。因此,你調(diào)整了你的話語,以便機(jī)器更容易讀懂你的想法。這是人類在做出調(diào)整,并非是機(jī)器作出調(diào)整,因為機(jī)器并不是一個自適應(yīng)的系統(tǒng)?;蛘哒f,它比人類具有更弱的適應(yīng)性。而這,就是最令我擔(dān)心的。

 

當(dāng)然,我所擔(dān)心的并不是機(jī)器做的事情超出人類的預(yù)想,而是它們可能改變并限制我們的行為。AlphaGo贏了圍棋,但它并未改變我們的日常生活,所以這沒什么好擔(dān)心的。我擔(dān)心人們用愚笨的方式與機(jī)器交談,以便機(jī)器按照我們的想法做事。要知道,這具有許多潛在的危險。它潛移默化地改變我們的習(xí)慣行為,使我們對某些類型的錯誤更具容忍性而對有些錯誤卻更加苛刻。人們會預(yù)料到并且能容忍人類所犯的道德錯誤,但是,人類可能不會容忍這樣的錯誤在機(jī)器上發(fā)生。經(jīng)過規(guī)劃考慮后仍對他人造成傷害的決定如果發(fā)生在機(jī)器上,會比發(fā)生在人類身上更不能令人容忍。在過去十年內(nèi),這種改變已經(jīng)發(fā)生了。即使軟件會變得更好,機(jī)器也會變得更好,但是永遠(yuǎn)都存在著讓人類去適應(yīng)機(jī)器而非真正提高人類能力的危險。

 

圖片來源:wikipedia


6. 如何將計算與哲學(xué)相聯(lián)系?




艾倫:人工智能的道德問題,實際上也是計算與哲學(xué)跨學(xué)科研究的一個話題。最近幾年,我?guī)ьI(lǐng)我的中國實驗室團(tuán)隊所做的研究就是“中國哲學(xué)的計算分析”(Computational analysis of Chinese philosophy)。我們曾經(jīng)只是嘗試著做做看的,然而現(xiàn)在有機(jī)會了。近十年內(nèi),我們可以在大規(guī)模的電子文本之上使用計算機(jī)算法。在美國,許多高校的圖書館合作掃描了一千四百萬本書籍。在中國,我們設(shè)法訪問了包含一萬八千四百份文本的經(jīng)典文本語料庫“漢典”,以及若干中國經(jīng)典文本。而在此之前,所有這些存在于書籍當(dāng)中的有趣哲學(xué)文本只能由人眼來閱讀。

 

一千四百份書籍,沒人會去讀這一千四百萬份書籍,這實在是太多了。但是借助于計算機(jī),我們現(xiàn)在能夠從所有文本中系統(tǒng)地提取信息。以漢典為例,它共有一萬八千份文件。一個人是可能將之全部讀完的,但這兩千多年積累的資料至少要耗費你數(shù)年的時間。所以,我們選擇用一些計算方法來尋找其中的哲學(xué)意義和兩千年來的哲學(xué)思想變化,這就是我們將計算與哲學(xué)相聯(lián)系的一種方式。

 

最近,我們還做了關(guān)于查爾斯·達(dá)爾文的研究。這位生物學(xué)泰斗是一個非常好的研究對象,因為在1837到1860年的二十三年間,他完整記錄了自己閱讀的每一本書。現(xiàn)在,歸功于HathiTrust這樣的數(shù)據(jù)庫,我們有了這些書籍的電子掃描件。正如我之前所提到過的那樣,我們可以找到他所讀的幾乎所有書籍的電子版,將這些書籍做成了一個語料庫,并且使用算法來尋找他閱讀經(jīng)歷所展現(xiàn)的模式。我們發(fā)現(xiàn)達(dá)爾文讀的有些書是比較相似的,利用計算機(jī)對這種相似性進(jìn)行衡量,接著就可以探討他的閱讀習(xí)慣。比如說,看看他是否有意選擇更相近的書來讀,還是喜歡挑些不一樣。結(jié)果證明,在達(dá)爾文生命的某些階段,他堅持閱讀相似的書籍。而在另一些時候,他轉(zhuǎn)而做了不同方面的研究。

 

除此之外,我們還想要知道,他的寫作內(nèi)容是如何與他的閱讀相關(guān)聯(lián)的?使用相同的技術(shù),我們分析發(fā)現(xiàn),隨著達(dá)爾文閱讀年限的增長,他的書稿中出現(xiàn)了越來越多的、自己構(gòu)建的新內(nèi)容。也就是說,他不僅僅是重復(fù)他所閱讀的書籍,也不僅僅是將各種觀點進(jìn)行簡單拼湊,而是在獨立構(gòu)思新的材料。

 

我認(rèn)為,我們站在了一個新的開端,我們在使用全新的工具做全新的研究,而計算機(jī)正是我們的新工具。 

 

(感謝溫新紅對本文的貢獻(xiàn)。)

 

制版編輯 | 皮皮魚


參與討論
0 條評論
評論
暫無評論內(nèi)容
知識分子是由饒毅、魯白、謝宇三位學(xué)者創(chuàng)辦的移動新媒體平臺,致力于關(guān)注科學(xué)、人文、思想。
訂閱Newsletter

我們會定期將電子期刊發(fā)送到您的郵箱

GO