? 天堂а√在线官网,亚洲 激情 ,欧美精品,他扒开我奶罩揉吮我奶头

亚洲 a v无 码免 费 成 人 a v,性欧美videofree高清精品,新国产三级在线观看播放,少妇人妻偷人精品一区二区,天干天干天啪啪夜爽爽av

全球第一個聊天機器人是怎樣誕生的?

2025/02/24
導(dǎo)讀
近幾年,ChatGPT一類的聊天機器人風靡一時,受到公眾的空前關(guān)注。那么,你知道歷史上的第一個聊天機器人是誰發(fā)明的?又是哪年發(fā)明的呢?它的功能如何?造成了多大的影響?

近幾年,ChatGPT一類的聊天機器人風靡一時,受到公眾的空前關(guān)注。那么,你知道歷史上的第一個聊天機器人是誰發(fā)明的?又是哪年發(fā)明的呢?它的功能如何?造成了多大的影響?


這些問題把我們帶回到 20 世紀 60 年代中期。當然,我們指的是聊天機器人[1],如果說到更廣泛的人工智能思想,要開始得更早的多。


ELIZA橫空出世


誰是ELIZA?如果你看過美國好萊塢1964 年的電影《窈窕淑女》,那里面女主角的名字就叫ELIZA,全名伊麗莎·杜立德 (Eliza Dolittle)。這部片子贏得了包括最佳影片在內(nèi)的8項奧斯卡大獎,扮演主角的演員赫本,更是粉絲無數(shù)家喻戶曉!


奇怪了!這和聊天機器人有什么關(guān)系呢?且聽我們慢慢道來。


正值電影《窈窕淑女》從好萊塢橫空出世,在全美國票房爆滿之時,東部的麻省理工學(xué)院(MIT),有一位科學(xué)家維森鮑姆,卻沒日沒夜地對著計算機,正在苦苦思索一個問題。


那個年代,是計算機技術(shù)蓬勃發(fā)展的年代,自從1947年晶體管被發(fā)明出來后,計算機的功能迅速增強,體積逐年縮小。1964年, IBM公司宣布用System/360取代早前的計算機。這是一個里程碑式的轉(zhuǎn)換,使用IBM固態(tài)邏輯技術(shù),將制造過程標準模塊化,成功地涵蓋了廣泛的功能和價格。當時也是美國西岸硅谷的精英們剛剛研制成功了集成電路,正準備大規(guī)模推廣應(yīng)用之際。


看見計算機硬件的巨大變化,維森鮑姆思考著另一種可能性:是否有可能實現(xiàn)圖靈關(guān)于人工智能的想法?圖靈1950 年在他的題為“ 計算機械與智能 ”的論文中提出,如果一臺計算機可以通過文本與人類進行令人信服的對話,則可以認為它是智能的,這一思想也是著名的圖靈測試的基礎(chǔ)。維森鮑姆想,不管叫不叫智能,首先要實現(xiàn)的是“人類和機器的對話”,也就是說,需要機器懂得人類的語言。


維森鮑姆要做的,就是我們現(xiàn)在稱為NLP(自然語言處理)的問題。

 

當時已經(jīng)存在一些基本的數(shù)字語言生成器,用戶可以使用打字機輸入人類的自然語言,然后獲得機器的響應(yīng),機器可以輸出一些連貫的文本。然而,并沒有一個明確設(shè)計用于與人互動的程序,這便是維森鮑姆當時的夢想。


說干就干,維森鮑姆使用(并改進)了一種名為 MAD-SLIP 的專有編程語言,自己來創(chuàng)建了一個程序。特別令人高興的是,程序雖簡單效果卻不錯。因此,兩年之后的1966年,維森鮑姆推出了世界上第一個聊天機器人ELIZA。


想必維森鮑姆太忙了,沒有時間去看電影,所以,他以蕭伯納 1913 年戲劇《皮格馬利翁》中的虛構(gòu)角色為名,將他的“機器對話程序”命名為“ELIZA”。而好萊塢的《窈窕淑女》這部電影,就是由《皮格馬利翁》改編而來,女主角的名字是一樣的:ELIZA。


維森鮑姆如何設(shè)計ELIZA?


約瑟夫·維森鮑姆 (Joseph Weizenbaum,1923-2008)出生于德國柏林一個猶太家庭,12歲時與家人一起逃離納粹德國來到美國。他本科學(xué)數(shù)學(xué),一年后中斷學(xué)業(yè)加入美國陸軍航空隊,但因他的德國原籍,被拒絕加入密碼學(xué)工作。戰(zhàn)后他取得了數(shù)學(xué)學(xué)士學(xué)位,迷上了計算機。1955年,維森鮑姆協(xié)助通用電氣設(shè)計了第一臺用于銀行業(yè)的計算機。他1964年在MIT得到教授職位后,開始探索計算機與普通人進行英語交互的可能性,這在當時是很難令人想象的。


基于當時計算技術(shù)的水平,維森鮑姆認為,實現(xiàn)人機之間對話的最佳方式是模仿精神分析的方法,即利用重復(fù)結(jié)構(gòu),讓程序重復(fù)單詞并重新表述以問題形式給出的陳述。因此,他1966年發(fā)表的聊天機器人ELIZA,只不過是一個簡單小程序,可以在36比特架構(gòu)的IBM 7094計算機上運作。執(zhí)行過程中,ELIZA通過分析輸入的文字內(nèi)容,將特定字句重組,變成全新的字句輸出。程序只有200條左右的代碼,通過一個名為DOCTOR的腳本,可以以極類似心理學(xué)家的方式與人類交談。


維森鮑姆設(shè)計ELIZA時,模仿羅杰式心理醫(yī)生與病人的對話風格以一問一答的方式獲得有趣的的對話互動,有人將此稱為“狡猾策略”。



所謂“羅杰斯治療”,是50年代出現(xiàn)的一種“以人為本的心理咨詢” 方式,與傳統(tǒng)的心理治療相反,醫(yī)生不以權(quán)威或?qū)<易跃?,而像一個有專業(yè)知識的伙伴或朋友,與病人建立融洽的關(guān)系,使病人產(chǎn)生信任感。也稱為“非指令性治療”,即治療者不對病人發(fā)出指令,也不下診斷,而是耐心傾聽病人的陳述,通過重復(fù)病人所說的話,對病人陳述中的情感作出反響,以便讓病人盡量表達和暴露自己,使病人逐漸有所進步。


因此,為了鼓勵用戶與機器對話,維森鮑姆使用“狡猾策略”設(shè)計對話風格。雖然ELIZA的出現(xiàn)已經(jīng)是將近60年之前的事情,與如今的ChatDPT不可同日而語,但看看她的對話方式,也挺有趣的,也許對我們深刻理解ChatDPT的原理,還會有所啟發(fā)。


示例如下,ELIZA與瑪麗(人類)的簡短交談:


瑪麗:男人都是一樣的。
ELIZA:怎么說?
瑪麗:他們總是用一些事情來打擾我們。
ELIZA:你能給一個具體例子嗎?
瑪麗:嗯,是我男朋友讓我來這里的。
ELIZA:是嗎,你男朋友讓你來這里?
瑪麗:他說我經(jīng)常很沮喪和郁悶。
ELIZA:聽說你沮喪和郁悶,我很遺憾。
瑪麗:確實如此。我不開心。
ELIZA:你經(jīng)常不開心,不快樂嗎?
麗:以前不是,近來幾個月……
ELIZA:近來幾個月?發(fā)生了什么?
瑪麗:……………(瑪麗更多的傾述)


或許以你的眼光看,這機器人什么也沒說,確實如此。當測試人給出問題描述時, ELIZA所做的不過是利用信息抽取技術(shù)和語言處理方法,提取幾個關(guān)鍵詞,然后將這些關(guān)鍵詞組合成一個問題,作為答案來回應(yīng)。ELIZA并不需要真正理解輸入和輸出的含義,但她的反應(yīng)往往能夠給人一種“具有智能”的錯覺。


對某些人而言,這機器很“善解人意”,同情對話人的處境,比如例子中的瑪麗,因此,她愿意向ELIZA敞開心扉……。如此一來,ELIZA可以得到并且儲存起來更多的、有關(guān)瑪麗的信息,更有助于增加她與瑪麗聊天時的用語。


像“男朋友”、“沮喪”、 “母親”、“父親”這樣的詞都可以引起反應(yīng)。對某些問題,ELIZA也有不知所措不知如何回答的時候,如果這樣,它可能會使用“請繼續(xù)”、“這很有趣”、“我明白了” 、“告訴我更多” ,這些含糊的詞語。直到它收到可以組合問題的更多的關(guān)鍵字。


此外,維森鮑姆ELIZA的代碼應(yīng)該可以改寫成其它用途,不一定只是“心理醫(yī)生”。據(jù)他自己說,他的想法是開發(fā)一個不需要深厚知識儲備的程序。這個概念需要“對話中的一方不必知道一切,而我當時想到了一位精神病醫(yī)生。也許如果我再多想 10 分鐘,我就會想出一個調(diào)酒師?!?/span>


維森鮑姆對AI的困惑


事實上,ELIZA的對話風格非常簡單,但給人的印象卻是令人吃驚的。特別是,維森鮑姆僅用了 200 行代碼就實現(xiàn)了這個過程,給人一種被機器聽到了和理解了的錯覺。即使在維森鮑姆向測試人員介紹了機器聊天人的工作原理并解釋說它并不真正理解用戶所說的任何內(nèi)容之后,測試人員對 ELIZA的這種親近感仍然持續(xù)存在。即便維森鮑姆的助手,她見證了ELIZA被創(chuàng)造出來的全過程。然而,在與ELIZA測試對話時,仍然堅持讓維森鮑姆離開房間,以便她可以與 Eliza 進行真正私密的交談。

 


諷刺的是,盡管維森鮑姆設(shè)計 ELIZA的意圖是為了展示人機對話的狀態(tài)是多么膚淺,但它卻產(chǎn)生了相反的效果。ELIZA 的消息在麻省理工學(xué)院社區(qū)迅速傳播,人們被迷住了,涌向計算機實驗室。雖然維森鮑姆經(jīng)常小心翼翼地對人們解釋說,這只是一個程序,線路的另一端沒有人,但仍然有人會偷偷地花上幾個小時來與ELIZA分享親密的對話。維森鮑姆對公眾的反應(yīng)感到非常不安,在隨后的1976年,他發(fā)表了一本名為《計算能力與人為原因:從判斷到計算》的書,維森鮑姆不相信任何機器能夠真正理解人類對話,他1977 年告訴《紐約時報》:“成為一個人是必要的。愛和孤獨與我們生物體質(zhì)的最深層后果有關(guān)。對于計算機來說,這種理解原則上是不可能的?!?/span>


維森鮑姆原來以為,發(fā)表他對 ELIZA 內(nèi)部功能的解釋將會解開人們的謎團。他寫道:“一旦一個特定的程序被揭開面紗,一旦它的內(nèi)部工作原理被用足夠簡單的語言解釋以促進理解,它的魔力就會消失?!?然而,人們似乎不在乎該程序是如何運作的,對繼續(xù)對話更感興趣。


公眾完全相反地理解了維森鮑姆的意圖,把他對人機對話的膚淺展示作為計算機深度的證明。自動化治療過程的潛力讓精神科醫(yī)生也興奮不已,人們下意識地認為機器能與人溝通,因而對ELIZA產(chǎn)生了如此可靠的情感和擬人化的依戀,使維森鮑姆十分沮喪不安,他稱此為 ELIZA 效應(yīng)。維森鮑姆認為,正是因為當時的社會環(huán)境越來越冷漠,才讓人如此絕望,以至于拋棄了應(yīng)有的理性與判斷力,轉(zhuǎn)而相信一臺機器程序能理解人類的心聲。


人們愿意將程序與實際人際關(guān)系混為一談,沒有讓 ELIZA 的發(fā)明者感到高興,而是感到困擾。結(jié)果,ELIZA 成為了維森鮑姆的一個痛點,到 20 世紀 70 年代中期,維森鮑姆對人工智能的發(fā)展軌跡十分關(guān)注,他將余生的注意力都轉(zhuǎn)向收集對AI的批評,批評過快地引入人類思想,過分相信智力的幻覺。


維森鮑姆也開始質(zhì)疑圖靈關(guān)于人工智能的想法,他認為對人類智能的模擬,并非智能本身,但又足以使人蒙昧。維森鮑姆稱這種現(xiàn)象是數(shù)字時代人類的一種“妄想” ,是一種困擾現(xiàn)代人的廣泛病理學(xué)。圖靈測試顯然存在缺陷,一方面,該測試的結(jié)果受到主觀因素的影響,這意味著只要測試人員沒有足夠的技能和知識來評估AI系統(tǒng)的性能,測試結(jié)果就會不準確;另一方面,ELIZA的實踐說明,人工智能系統(tǒng)在指定主題上模仿人類并欺騙測試人員實際上并不困難。


ELIZA的經(jīng)驗對維森鮑姆來說是一次深刻的沖擊,直接影響了他未來十年里所做研究的思想軌跡。


書中對人們?yōu)楹卧敢庀嘈拧耙慌_簡單的機器也許能夠理解復(fù)雜的人類情感” 進行了深刻的剖析。


他認為,在一個被科學(xué)技術(shù)占領(lǐng)的世界中,社會環(huán)境日漸冷漠,人們習(xí)慣于將自己看作是一臺大機器中的齒輪(小小的螺絲釘)。因而絕望的人類才會去相信一個機器程序可以聆聽他們的心聲。維森鮑姆的余生都在致力于這種對人工智能和計算機技術(shù)的人文主義批評。他的任務(wù)是提醒人們 ,他們的機器并不像通常所說的那樣聰明,“即使有時好像他們會說話,但他們從未真正聆聽過你,它們只是機器?!?/span>


維森鮑姆的創(chuàng)作雖然具有開創(chuàng)性,但讓他對技術(shù)的倫理影響有了深刻的認識,使他余生中都一直質(zhì)疑創(chuàng)新帶來的責任以及人工智能開發(fā)中道德準則的必要性。


從ELIZA到ChatGPT


由上所述我們知道,聊天機器人的最基本原理之一是計算機的自然語言處理(NLP)能力。根據(jù)這五十多年NLP的發(fā)展,可將聊天機器人發(fā)展進程大體分為下述幾個時期[2]

 


自然語言處理的發(fā)展,一開始著重探討語言的規(guī)則,因此,早期的聊天機器人也重視從規(guī)則來產(chǎn)生對話輸出。然而后來,越來越多的NLP專家們認識到,自然語言除了有語法句法的種種規(guī)則之外,還有非常大的隨機性。所以,統(tǒng)計概率的方法被引進了這個領(lǐng)域,1948年,香農(nóng)把離散馬爾可夫過程的概率模型應(yīng)用于描述語言,之后,他又把熱力學(xué)中“熵”的概念應(yīng)用于語言處理的概率算法中。兩種不同方法的存在,使得自然語言處理的研究一度分為了兩大陣營:一個是基于規(guī)則方法的符號派(symbolic),另一個是采用概率方法的隨機派(stochastic)。兩種方法的研究都取得了長足的發(fā)展,也引發(fā)了數(shù)十年有關(guān)基于規(guī)則方法和基于概率方法孰優(yōu)孰劣的爭執(zhí)。


再后來,自然語言處理結(jié)合機器深度學(xué)習(xí)技術(shù),之后由于互聯(lián)網(wǎng)的成功,又有了大規(guī)模語言模型,NLP及聊天機器人都到達新時代的發(fā)展高峰。以下概括幾段時期中的典型聊天機器人產(chǎn)品。


a:20世紀60年代和70年代,主要采用“詞典+規(guī)則”(的自然語言處理范式,以1966年的ELIZA,和 1972年斯坦福大學(xué)精神病學(xué)家科爾比的PARRY為典型代表。二者較為成功地實現(xiàn)了在英語語境下,對人類提問的關(guān)鍵詞做出特定回應(yīng),但在人機交流過程有明顯的機械化特征。


ELIZA使用模式匹配和替換方法來模擬人類對話,工作方式是將用戶輸入的單詞傳遞給計算機,然后將它們與可能的腳本響應(yīng)列表配對。


PARRY由美國精神病學(xué)家肯尼斯·科爾比 (Kenneth Mark Colby) 于1972年構(gòu)建,該程序模仿了一位精神分裂癥患者,通過一個復(fù)雜的假設(shè)、歸因和“情緒反應(yīng)”系統(tǒng)來工作。它試圖模擬這種疾病,是一種類似于個人思維的自然語言程序。


為了驗證這項工作,使用圖靈測試的變體對 PARRY 進行了測試。人類審訊員通過遠程鍵盤與程序交互,無法準確地將 PARRY 與原始個體區(qū)分開來。


科爾比是一位思考計算機如何有助于理解精神疾病的精神病學(xué)家。他開始的“克服抑郁癥”項目,一直持續(xù)到他 2001 年去世。


b:20世紀90年至21世紀初,美國科學(xué)家兼慈善家休·勒布納(Hugh G. Loebner)1990年設(shè)立了勒布納人工智能獎(Loebner Prize)。在該獎項的激勵下,聊天機器人智能化進程全面提速,誕生出了基于NLP“統(tǒng)計模型的阿爾伯特一號(Albert One)、愛麗絲(ALICE)及埃爾伯特(ELBOT)等典型代表。其中的三次問鼎勒布納獎的ALICE,被視為當時智能化程度最高的聊天機器人。不過她無法與人維持長時間對話,因此最終未能通過圖靈測試。



1995 年Richard Wallace 率先構(gòu)建了ALICE,是一種通用語言處理的聊天機器人,它使用啟發(fā)式模式匹配來進行對話。使用稱為人工智能標記語言(AIML)的 XML 模式,有助于指定對話規(guī)則。


ALICE被定義為一位年輕女性,她可以通過互聯(lián)網(wǎng)與人聊天。她會告訴用戶她的年齡、愛好和其他有趣的事實,并回答用戶的對話。


1998年,ALICE的程序采用 Java 編輯,2001 年根據(jù) AIML 規(guī)范,起草了 ALICE 的免費和開源代碼。


c:21世紀初至20年代,以蘋果2010 年為 iOS 開發(fā)的Siri、2012 年在 Google Inch 推出的Google Now、微軟2014的 Cortana、谷歌Google Assistant、亞馬遜Alexa等,服務(wù)于私人用戶的數(shù)字助理為代表。這一時期的智能聊天機器人基于“深度學(xué)習(xí)模型”(deep learning models)的自然語言處理范式,采用語音識別與信息檢索技術(shù),能夠為用戶提供個性化和便捷性的服務(wù),初步實現(xiàn)了人機的雙向交流。然而依舊與真實人類對話交流存在差距,不知道如何回答時,聊天機器人還可能會搜索網(wǎng)頁上的相關(guān)信息,給出鏈接讓用戶自行尋找。


d:21世紀20年代,以采用“預(yù)訓(xùn)練+微調(diào)”(pre-training + fine-tuning)自然語言處理范式的生成式人工智能ChatGPT為代表。


ChatGPT是 OpenAI 推出的大型語言模型。該模型基于大量數(shù)據(jù)進行訓(xùn)練,使其能夠生成通常難以與人類書寫的文本區(qū)分開來的文本。ChatGPT旨在幫助用戶根據(jù)給定的輸入來生成文本,可用于包括語言翻譯和對話生成在內(nèi)的多種任務(wù)。


ChatGPT及近年來各個大公司推出的新一代聊天機器人,因其生成聽起來自然的文本的能力及其在各個領(lǐng)域的潛在應(yīng)用而受到贊譽。


超級人工智能?


如今,人工智能這個詞經(jīng)常與世界末日聯(lián)系在一起,這個領(lǐng)域的每一個新發(fā)展都為群眾所關(guān)注,都會立即在群眾中引起震驚的反應(yīng),恐懼是自然的,這是由于我們對一切新鮮、神秘和陌生的事物的不信任,同時也是由于電影等媒體的不實宣傳,認為人工智能將獲得超人的力量,然后,這個超級人工智能便會摧毀人類等。


但無論如何,這種說法有很多夸張的地方,人工智能似乎可以執(zhí)行許多的認知任務(wù),但以我們目前所擁有的技術(shù)能力,以我們對人類智能定義的理解以及我們對人腦工作原理的了解,這仍然是一個遙遠的夢想。


從ELIZA到ChatGPT,聊天機器人確實有了驚人的變化,體現(xiàn)了人工智能和機器學(xué)習(xí)的技術(shù)發(fā)展。ChatGPT這一代應(yīng)用了神經(jīng)網(wǎng)絡(luò)技術(shù),它能模擬人腦工作方式,用于處理復(fù)雜的數(shù)據(jù),這使機器能夠識別數(shù)據(jù)中的模式,理解圖像,處理自然語言,甚至可以用與人類相同的方式進行學(xué)習(xí)。


但實際上,從以上介紹的聊天機器人發(fā)展歷史,變化的不過是:從少量單詞到前所未有的海量數(shù)據(jù),以及如今超強的數(shù)據(jù)處理能力,還有機器學(xué)習(xí)方法的巨大發(fā)展等等,并非“機器人”本質(zhì)上的改變。它們?nèi)匀恢皇穷A(yù)測文本中下一個單詞和句子的機器,仍然難以產(chǎn)生所謂的“超級人工智能”,至今為止,它們既沒有真正的智能,也無生物體具備的意識。


當然,任何技術(shù)都具兩面性,能做好事也能做壞事。因此,與其宣揚和關(guān)注人工智能接管世界并毀滅人類的恐懼心理,不如把注意力轉(zhuǎn)向真正迫在眉睫的挑戰(zhàn),比如AI這些新技術(shù)造成的侵犯隱私、網(wǎng)絡(luò)欺詐、經(jīng)濟利益分配等現(xiàn)實的社會問題。


五十多年前維森鮑姆的擔憂仍然存在,并且隨著AI的突飛猛進而變得更加重要。如今的人工智能不僅是一個學(xué)術(shù)項目,而且還涉及若干人的商業(yè)利益。設(shè)計人工智能可以賺大錢,它不僅能回答技術(shù)問題,還能改變我們的行為以實現(xiàn)更大的盈利。正如維森鮑姆所看到的,如果沒有智慧和深思熟慮,人類可能會在自己扭曲的反思中迷失自我。


在當今科技高速發(fā)達的世界中,人工智能或聊天機器人的擴散速度前所未有。在這個發(fā)展的關(guān)鍵時刻,審視一下這門領(lǐng)域的老祖宗ELIZA的歷史,以及其創(chuàng)建者維森鮑姆的警告是有必要的。至少能使我們更好地理解人類正在創(chuàng)造什么,它是否將反過來重新塑造人類?


參考文獻

[1]The Evolution of Chatbot Technology: From ELIZA to ChatGPT. https://en.softonic.com/articles/evolution-of-chatbot-technology.

[2]The History Of Chatbots – From ELIZA to ChatGPT. https://onlim.com/en/the-history-of-chatbots.


參與討論
0 條評論
評論
暫無評論內(nèi)容