- +1
復旦通識·人工智能丨ChatGPT的生成特性及其意義
【編者按】隨著聊天程序ChatGPT成為時下關注的焦點,人們意識到人工智能正在影響著各個領域與學科,正在成為推動人類文明進入一段新旅程的力量。復旦大學通識教育中心組織“人工智能”系列,邀請校內外不同領域的學者,從多學科視角入手、以平實的語言,嘗試與讀者一起了解有關人工智能的方方面面。以下是中國科協-復旦大學科技倫理與人類未來研究院楊慶峰教授的文章《ChatGPT的生成特性及其意義》。
ChatGPT是一種內容生成式的嵌入性工具,本文將重點討論生成特性,對于嵌入不加討論。生成主要是過程生成和內容生成。前者是算法的生成機制,后者是指借助算法進行話語、文本生成,如可以寫電子郵件、書籍大綱和修改文章。可以說這項技術把我們正帶入一個智能生成的時代,不斷產生新物的過程。但是這個新物并不是存在之新,而是注意之新。換句話說,新是從舊的東西中發現未曾見過的過程,本質上仍是舊的東西,是重新注意的過程。最近喬姆斯基認為ChatGPT本質上是高科技剽竊,這引起了我們的關注,希望對此進行分析和反思。
一、ChatGPT能做什么?
我曾經詢問過兩個問題:第一個是“吃了嗎”,第二個是數據倫理學的大綱。第一個問題多少是有些無聊和刁難,因為這是一個日常問題,對于ChatGPT來說,怎么回答都是有問題的。ChatGPT回答“吃了”,雖說回應了問題,卻又給我們留下疑惑:ChatGPT不需要吃東西,當它回答吃了,是否意味著一種不誠實的表達呢?如果說它的回應只是回應一個問題,但是“吃了嗎”很顯然不是一個一般問題。大多數人都知道這只是打招呼用的,顯示了人們在生活世界層面的交往。我們日常見面,“吃了嗎”幾乎是一句帶疑問的問候,回答“吃了”也只是無實際內容的回應,更重要的是回應對方的問候。通過這種方式實現了人類之間的交流。我最擔心它的回答是“吃了吃了”,帶重復的兩個回應那簡直是人類一樣的回應,而且這種回應最為精準地表達了一種問候的回應。很可惜,ChatGPT的“吃了”的回應是以一種常見方式回答了問題,而不是實現人與人之間的問候。另一個問題是讓它生成一份數據倫理的教材大綱。很快,它給我們一份帶有導論的大綱。說實話,當我看到生成的結果時有點震驚了,這個大綱像模像樣。大綱包括導論和章節內容。導論說“當我們繼續倚重技術和它生產的數據時,這種趨勢的倫理意義逐漸變得重要。數據倫理是一個檢驗在搜集、存儲、分析和使用數據過程中的研究領域。本大綱目的是提供數據倫理中關鍵問題和理念的面貌性概覽,并對哲學的、社會的和技術方面做出勾勒。”可以看出導論簡潔而清楚;章節包括七章,包括數據倫理介紹、數據搜集中的倫理問題、數據分析中的倫理問題、數據使用中的倫理問題、數據倫理方法、數據倫理中的新興問題以及結論。這個大綱從專業角度看,確實有些窄了,緊扣數據處理的倫理問題進行生成而且不全。通過這兩個問題可以確定ChatGPT作為一種智能生成工具,能夠生成各式文本,能夠借助生成的文本進行互動交流。
然而,喬姆斯基卻不看好,他認為ChatGPT是從海量數據中發現規律,然后依據規則將數據進行連接,形成類似人寫的內容,在此基礎上他指出ChatGPT是剽竊工具。這個看法有些不準確。對于新的認識存在一種情況:新是從舊的東西中發現未曾見過的過程,換句話說,本質上仍是舊的東西,但卻是重新注意的過程。AIGC使用了交叉注意力的機制,這種注意力機制可以執行自注意力提取和執行交叉注意力提取,從而確保了新的內容的出現。谷歌是從一篇《注意力就是你全部需要的》(Attention is all you need)提出了transformer。從Midjourney等看,這種生成也并非完全是一種剽竊,它可以生成圖像,如2022年9月,杰森·艾倫(Jason Allen)使用AI工具Midjourney生成的繪畫作品《太空歌劇院》在美國科羅納州博覽會上獲得藝術比賽一等獎,它所生成的作品令人驚異。另外,從對話生成來說,它依靠算法的推理,所產生的結果并非是剽竊所能概括的。比如楊立昆(Yann LeCun)的增強語言模型(augmented language Models)在很大程度上依靠將一個潛在復雜任務分解成更簡單子任務的推理。
二、ChatGPT是否是顛覆性技術?
在描述第四次工業革命的時候,有一個概念是值得關注的,這就是數智時代。對這個概念我們給出兩種解釋,其一數智時代是數據和智能的并列,這是從國家戰略的角度來說的,如今大數據與人工智能分別是國家重大科技戰略,因此在地位上有種等同性。然而這種描述只是外在描述,而且沒有把握住數據和智能的內在關聯。從二者的內在關聯就構成了第二種解釋,即相關關系,對于智能體而言,智能的生成離不開數據。盡管有很多學者如斯圖爾特·羅素(Stuart Russell)已經指出,更多的數據和更多的算力不能帶來真正的智能。但是從經驗生成角度來說,智能的生成離不開記憶,而這一點與過去的數據無法分開。而如今AIGC就成為典型代表,而其中文本生成就是GPT系列,其中包括今天最為火爆的ChatGPT。
智能生成是從兩個意義上來說的。其一是從內容生產的方面來講,ChatGPT的意義就是進行內容生成。它有兩個特征,一是具有自主學習特征,它是在對海量數據進行分析、組合而進行的生成;二是智能生成的特征,ChatGPT在生成中進化,從而獲得“心智”。美國學者米切·康辛斯基(Michal Konsinski)認為ChatGPT擁有9歲左右兒童心智。這讓我們想到LaMDA,布萊克·勒蒙(Blake Lemoine)認為它具有靈魂。其二是從與機械復制時代相對的角度來講。德國學者本雅明曾經提出機械復制時代的觀念,并用這一觀念來描述工業社會中藝術生產的特性,藝術作品可以實現無限復制。我們用智能生成來描述的恰恰是智能社會的產品生產特征。此時范圍更為寬廣,不僅包括藝術作品,還有日常生活的對話文本以及包括醫學在內的治療文本。此時,對于這個范疇的闡述有利于我們重新認識文本的概念。我們曾提到數字文本,但是時代發展使得超越了這個范疇,而需要新的范疇來理解我們所面對的對象。
我們已經確立了ChatGPT具有的特性,然后再來看這項技術本身。我們問題是:ChatGPT是否是顛覆性技術(disruptive technology)?美國學者羅素·芬克(Russell Funk)曾經提到鞏固性技術(Consolidating technology)和顛覆性技術等兩類技術的分類,并稱之為CD模式。他指出,目前科學技術發展的特征不再是創新、顛覆,而更多是一種鞏固。換句話說,科學技術發展呈現出的圖景是科學技術的突破性都在隨時間流逝而下降。從這個觀點來看,ChatGPT是否是對以往技術的顛覆和突破就成為一個問題。從其發展歷史來看,ChatGPT具有延續性,是OpenAI公司的GPT系列。2018年發布GPT-1,包括1.17億個參數,預訓練數據量達到5GB;2019年發布GPT-2,包括15億個參數,預訓練數據量達到40G;2020年發布GPT-3包括1750億個參數,預訓練數據量45TB;隨后推出了GPT-3.5。從算法來看,ChatGPT是Transformer的應用,可以做到通過重新注意舊數據從而產生新東西。所以ChatGPT作為一種技術類型,也并不是全新的,而是屬于鞏固性技術范疇。楊立昆也認為這項底層技術并不是革命性的。目前對它的應用的期望和技術的過度想象造成了當前的迷思局面。
三、ChatGPT在什么意義上是可信的?
2023年2月13日,英國哲學家薩夫拉斯庫(Julian Savulescu)發表了《比得洛夫悖論:GhatGPT時代的道德責任》(The Petrov dilemma: Moral responsibility in the age of ChatGPT)。在這篇文章中他把ChatGPT看作是從人類對話中搜集信息和做出快速反應的機器智能。他從ChatGPT思考人類面對AI應該做三件事情:先思考、承擔責任和合乎倫理的行動。先思考是涉及機器信任,生成的答案、文本是否值得相信;承擔責任涉及某人負責任的程度依靠他們確保福利或者避免傷害的努力和承諾;合乎倫理的行動涉及行動要合乎倫理,而這一點的前提是需要意識到技術的價值,然而要確保風險是合理的。他這篇文章非常應景,尤其是他提到的信任問題是最為重要的問題之一。而這一點取決于ChatGPT給出的回答是否正確的。然而,他忽略了ChatGPT的透明性問題,這也是信任的另一個基礎。
回答正確是ChatGPT可信的根據之一,因為ChatGPT可以做到事實正確,所以我們可以信賴它。從提問-回答本身來說,目前在很多使用者那里提出的問題希望ChatGPT回答正確而不出錯,也只有在這個基礎上,人類才能夠信任并且接受它。這在搜索領域是如此,我們希望獲得正確而有效的答案。當然,事實正確并無法保證道德正確。從倫理要求角度來說,我們希望它們的回答是友好的、無偏見的。無偏見是人類對于人工智能的基本倫理要求,希望在執行任務時表現得公正。友好的是一種基于人類自身的要求,我們總希望對話者表達友好,而不至于懟我們,以至于讓我們情感上難以接受。然而,目前在使用ChatGPT過程中已經出現不友好的表現,比如不會回應、無視問題等等。這可以看作是無法做到道德正確的表現。事實正確與道德正確的完全是一個外在于ChatGPT的要求,這是人工智能倫理的要求,換句話說,是人類把自己的道德期望作為一種必然的要求給予它。可以看出,這種要求不是必然的。
透明性問題也是會影響ChatGPT的可信的。這一點為薩夫拉斯庫忽略了。ChatGPT學習的數據來自人類歷史數據,充滿了各式各樣的偏見。此外,ChatGPT的黑箱問題尤其明顯,羅素非常明確地指出,我們不清楚ChatGPT的工作原理和機制,他也不認為語言大模型讓我們距離真正的智能更近。面對比如Stable Diffusion、LaMDA和ChatGPT等生成式AI的迅速發展,歐盟即將出臺新的人工智能法規,強迫AI公司闡明其人工智能模型的內部運作原理,違反者將面臨高達其全年收入6%的罰款。但是,事實上,那些試圖讓ChatGPT變得更加透明的想法有可能是一種奢望。
四、ChatGPT是否是可錯的?
一般說來,ChatGPT是可錯的(fallible),它的回答可以模糊、錯誤、帶有偏見。上面的分析指出,ChatGPT無法做到道德正確,它的回答明顯充滿了偏見。還有一種情況是ChatGPT的幻覺,即會產生不準確的、誤導或錯誤的信息。OpenAI的首席執行官山姆·阿爾特曼(Sam Altma)承認ChatGPT給人一種誤導性印象。在科學家的眼里,這一缺陷是可以通過技術方式來解決和彌補的。面對這種缺陷和有限,他們通過對改進現有架構或者AI方法論變更來解決這一問題。
可以看出,技術的可錯性有其自身特性,能夠通過技術方式加以解決。這與人類的可錯性存在極大區別。人類的有限性是人自身的先天特性,斯蒂格勒將這種有限性稱之為先天的缺陷;此外,人類的有限性是無法徹底克服,換句話說,人類無法做到完美,通過各種技術手段無法實現完美;最后,人類的有限性是主體意志的必然結果。在保羅·利科的哲學中,“可錯的人”是一個專有的概念用來描述人的特征,人的可錯與人的意志相關。
ChatGPT的出錯與意志沒有任何關系,是參數和數據導致的偏差,甚至是神秘的黑箱導致的無法避免的結果。在這個分析中,我們把ChatGPT的可錯性分析與意志的關系完全剝離出來。畢竟它只是一個智能體,而不是主體。我們需要做的是把ChatGPT可錯程度控制到一定范圍內,完全不犯錯誤是不可能的。
國家社科基金重大項目“當代新興增強技術前沿的人文主義哲學研究”(20ZD&045)階段性成果。

本專欄內容由復旦大學通識教育中心組稿。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司