人工智能ChatGPT爆火背后:以后跟你一起上網(wǎng)的沒有真人了?
圖源|Pexels
導 讀
ChatGPT是重大技術突破嗎?
簡單回答,不是根本性的突破。
OpenAI的ChatGPT是“現(xiàn)象級”技術創(chuàng)新,但不是根本性的科研或工程突破。最近幾年AI生成內(nèi)容(AIGC)突飛猛進,其中最為革命性的突破包括2017年提出的Transformer模型,2020年OpenAI發(fā)布的GPT-3,以及2022年替代GAN成為圖像、視頻生成主力的Diffusion模型家族。
ChatGPT是基于GPT-3的進一步創(chuàng)新,是站在巨人肩膀上的明星技術。簡單說,ChatGPT是OpenAI原創(chuàng)性自動問答系統(tǒng)InstructGPT的延續(xù),建立在GPT-3的后續(xù)改進版本GPT-3.5基礎上,通過引入強化學習模型,大幅提高了AI在人機對話時的準確度和可控性。
非專業(yè)人士可以這樣理解——OpenAI在2020年發(fā)布的GPT-3讓計算機第一次擁有了惟妙惟肖模仿人類“說話”的能力,但此時的AI就像一個童言無忌的孩子,啥都會說,也啥都不顧忌。GPT-3生成的文字內(nèi)容經(jīng)常腦洞大開,觀點和邏輯跨度好比天馬行空,甚至屢屢輸出錯誤觀點、車轱轆話、臟字臟話。很顯然,聰明但不懂事的“孩子”需要嚴加管教。
OpenAI引入了人類監(jiān)督員,專門“教”AI如何更好地回答人類問題。AI的回答符合人類評價標準時,就給AI打高分,否則就給AI打低分。基于人類監(jiān)督員的評價,OpenAI圍繞GPT-3.5打造了一個強化學習模型,督促AI按照人類價值觀優(yōu)化數(shù)據(jù)和參數(shù),最終開發(fā)出效果驚艷,火爆出圈的ChatGPT。
如何看待ChatGPT?
概言之,我的感覺是,喜憂參半。
喜的是,依靠“暴力”學習幾乎所有人類知識內(nèi)容,建立無比復雜、龐大的神經(jīng)網(wǎng)絡,這條讓AI越來越“聰明”的路看來還能繼續(xù)走下去。GPT-3有1750億個參數(shù)用于“記憶”和“提煉”人類知識的規(guī)律,很快就要問世的下一代模型GPT-4據(jù)說擁有遠超GPT-3的復雜度。
像ChatGPT一樣為這條路增加少量強化學習元素,更是能起到畫龍點睛的作用,將AI在應用領域的潛力充分激活。超大模型,強化學習,領域優(yōu)化——這三件事可能意味著,AI在未來幾年內(nèi)比以前任何時候都更容易深入人類各個應用場景,真正承擔起許多原本只有人類能完成的一些工作。
憂的是,今天的超大規(guī)模AI模型依然具備科研“黑盒子”的典型特征。
科學家和工程師知道如何建立這個“黑盒子”,但無法根據(jù)輸入數(shù)據(jù)準確預測“黑盒子”的輸出結果,無法精密控制“黑盒子”工作時的行為邊界。這類似于我們知道如何掘開堰塞湖的堤壩讓洪水泄出,卻無法準確預測洪水會沿著怎樣的路徑向下游流淌。
OpenAI的超大規(guī)模預訓練模型是深度學習誕生以來,AI在行為表現(xiàn)上最接近人類智慧的一個時期。但因為缺乏理論支持,科學家和工程師并不知道這種依靠海量參數(shù)來記憶和擬合人類知識特征的模仿游戲是不是通向通用人工智能(AGI)的正確道路,也很難從科學邏輯的角度準確判斷未來的AI會不會一直都是人類的幫手,而不會發(fā)展成影響人類進步的負面技術。
最擔憂ChatGPT的哪種前景?
我最擔心類似技術被濫用在知識教育領域。
OpenAI在研發(fā)ChatGPT時,已經(jīng)想盡方法,讓AI在回答人類問題時盡量保持謙虛、謹慎,不要用戲謔性的風格回答問題,更不要給出與人類價值觀不符的回答。這種謙虛、謹慎的態(tài)度,在ChatGPT的回答中幾乎隨處可見。例如,即便談起自己的缺點,ChatGPT也從不遮遮掩掩,如下圖所示。
但ChatGPT畢竟是建立在超大規(guī)模神經(jīng)網(wǎng)絡的基礎上。人類通過強化學習對AI行為的監(jiān)督,并不能完全杜絕AI在“不得已”的時候編造、杜撰答案。
這種編造和杜撰在有些領域可能是非常有用的。很多游戲開發(fā)者、科幻作者、美術工作者就經(jīng)常用AI來啟發(fā)自己的思路。但是,在知識教育領域,任由AI一本正經(jīng)地“編造”知識型答案的前景是非常危險的!
想象一臺內(nèi)容創(chuàng)作成本接近于零,正確度80%左右,對非專業(yè)人士的迷惑程度接近100%的巨型機器,用超過人類作者千百萬倍的產(chǎn)出速度接管所有百科全書編撰,回答所有知乎問題,負責孩子課外讀物的生成,甚至直接被既懶又壞的教程編撰者、科普作者用來代筆……
例如,以下是我用杜撰的學術概念“鏡像等離子規(guī)范場”向ChatGPT提問的情形??吹贸?,對一個根本不存在的概念,AI是在不懂裝懂地賣弄“學識”:
ChatGPT的模仿能力和文筆越好,這個未來風險就越恐怖。
未來三五年內(nèi)幾乎一定會發(fā)生的事情是:社交媒體、短視頻平臺上開始大量出現(xiàn)普通人不容易分辨,完全由AI創(chuàng)作的“灌水”內(nèi)容。這些內(nèi)容既可以極大豐富社交媒體的內(nèi)容厚度,還可以根據(jù)AI對人類興趣愛好的學習追蹤,為不同人群打造更為龐大、牢固的“信息繭房”,并幫助內(nèi)容平臺更精準地投放廣告、提高廣告受益。
如果AI僅僅像這樣被用于“信息繭房”的自動構建,我們還可以說這是一種不值得鼓勵,但也不算很壞的商業(yè)行為。但是,假如批量的“灌水”內(nèi)容進入每個孩子都在學習的網(wǎng)絡百科全書里呢?加入這樣的AI被用于輔導孩子學習呢?
根本問題在于,今天的AI生成理論沒辦法保證生成內(nèi)容的邏輯正確與合理。我覺得,建立更完善的,由人類領域專家參與的AI訓練過程,發(fā)展與正確性相關的增強學習算法,必然會成為未來的一個AI科研熱點。就像我們討論所有新一代技術的社會倫理問題一樣,對AI在知識教育領域的“灌水”風險,大家一定要有正確的認知和足夠的心理準備。
ChatGPT最好的應用場景是什么?
也許是,所有重復性的語言文字工作,以及所有啟發(fā)性的藝術創(chuàng)作。
雖然擔憂ChatGPT被濫用在知識教育領域,但我依然看好類似ChatGPT的高水平人機對話技術在其他一些真實應用場景里大放異彩。
首先,人類世界有太多重復性的語言文字工作,根本不需要復雜的邏輯思考或頂層決策判斷。接聽電話或處理郵件以幫助客戶訂旅館、訂餐的語言文字工作,根據(jù)固定格式把數(shù)據(jù)、信息填入合同、財報、市場分析報告、事實性新聞報道內(nèi)的工作,在現(xiàn)有文字材料里提煉大綱、梳理要點的工作,將人類會議的實時文字記錄提煉成會以簡報,幫助人類撰寫一些流程性、程式化文章的工作……這些工作領域,會很快出現(xiàn)一大批基于GPT-3或其他大模型的應用產(chǎn)品。上個月我在硅谷,就拜訪了許多這一類AI創(chuàng)業(yè)的熱點項目。
其次,無論是AI對話、AI寫文章還是AI作畫,大規(guī)模預訓練模型固有的非確定性、發(fā)散性、天馬行空的特點,恰好可以成為激發(fā)人類靈感的好幫手。需要創(chuàng)作廣告文案或商業(yè)展示的市場工作,需要發(fā)散性地探索不同故事路線的電影編劇工作,需要極大豐富視覺感受的游戲場景設計工作……在這些工作領域,使用AI已經(jīng)不是未來趨勢,而是真真切切發(fā)生的事實了。
我熟悉的很多藝術設計師,插畫師,廣告創(chuàng)意顧問,游戲美術師,都已經(jīng)在日常工作中,將AI當做輔助工具,坦然接受與AI協(xié)作的現(xiàn)實了。
05
如何看待AIGC的創(chuàng)業(yè)熱潮?
AIGC(AI-generated content,字面意思是AI生產(chǎn)內(nèi)容)的確火了,但AI和CS的專業(yè)人士必須保持冷靜。
上個月我在硅谷拜訪投資公司、科技公司、創(chuàng)業(yè)團隊。科技圈里,幾乎人人都在談AIGC,似乎沒有AIGC包裝的創(chuàng)業(yè)項目就不是好項目,沒有AIGC概念的科研就發(fā)不出好論文。
有件事給我一個“當頭棒喝”:因為行業(yè)大佬的安排,我們有幸與OpenAI的兩位聯(lián)合創(chuàng)始人一起喝咖啡。期間,統(tǒng)領OpenAI科研的兩位科學工程大牛用非常技術化、務實的心態(tài)談他們的工作計劃和技術思考。但,讓我們無比詫異的是,兩位創(chuàng)始人竟然不知道AIGC是什么意思!
仔細想來:從科技上開創(chuàng)AIGC這個新領域的OpenAI創(chuàng)始人,其實并不需要知道類似AIGC之類純粹用來包裝科技概念的新名詞;他們要研究的是大模型結構、并行訓練加速、神經(jīng)網(wǎng)絡優(yōu)化等等具體科學與技術。這樣的人才是真正的創(chuàng)建者和領航者。
在AIGC的概念下一擁而上,或創(chuàng)業(yè),或投資,或把AIGC快速包裝成應用產(chǎn)品的大多數(shù),其實都是沒能力決定科技大方向的跟風者。這世界上本來就跟風者多,領航者少,一點兒也不奇怪。
我只是簡單期望所有跟風者在AIGC這個大舞臺上,不要過于頭腦發(fā)熱,還是要多判斷一下,自己構建的所謂“產(chǎn)品”,到底是有益于人類進步的,還是向已經(jīng)碎片化的內(nèi)容世界繼續(xù)灌水或傾倒垃圾的。