长兴郴障科技有限公司

澎湃Logo
下載客戶端

登錄

  • +1

“AI發展現狀反思”筆談|預測方法對AI的限制

邱德鈞(蘭州大學哲學社會學院);馮霞(蘭州大學大氣科學學院)
2024-05-27 15:26
思想市場 >
字號

【主持人語:劉永謀(中國人民大學吳玉章講席教授)】近年來,以大模型為代表的AI技術發展迅猛,掀起一波席卷全球的AI發展熱潮。關注AI發展狀況的人不限于AI的研發者、推廣者和AI發展的評論者、人文社科研究者,更包括深感生活將被AI深刻影響的普通公眾。AI發展的問題不再是純粹技術問題,而是成為某種意義上的公共議題。在最近OpenAI發布Sora、馬斯克開源Grok等一系列相關事件中,這一點表現得非常清楚。在各種相關公共討論中,AI發展現狀尤其受到關注,其中的基本問題是:當前AI發展的大方向是否有問題,未來應該朝什么方向前進。為此,組織計算機、經濟學、馬克思主義理論和哲學等領域的八位學者,對AI發展現狀進行跨學科反思以期拋磚引玉,求教于方家。

本系列文章共8篇,轉載自《科學·經濟·社會》2024年第2期,本文《預測方法對AI的限制》為第6篇。在文中,邱德鈞和馮霞認為大模型技術主要以預測方法為基礎,而這限制了 AI的發展,使之不能建立完備的“世界模型”。

一、科學界推理為主流下預測方法的興起

如何看待AI發展的大方向有沒有問題,是不是走在正確的道路上?這個問題被細化為三點:第一,當前AI發展是否言勝于行,或者脫實向虛,甚至呈現出某種娛樂化的傾向?第二,當前AI發展在技術路線、應用戰略等方面存在什么局限或問題,比如通用人工智能是不是歧路?第三,當前AI發展是否堅持了以人為本、為人民服務的根本宗旨,是不是走上了無所顧忌的唯科學主義道路?分析下來,第二點技術路線的特點和局限最為重要,弄清楚技術路線的特征,第一點和第三點也就基本清晰了,因此,以下主要來分析AI發展的技術特征,并找出其中的不足。

推理和預測在科學發展中都非常重要,尤其是邏輯推理,從古希臘的亞里士多德、蓋倫,經歷布爾、弗雷格,一直到希爾伯特,邏輯學的公理化方法和相關的元邏輯研究影響了許多學科,大多學科都有了廣泛的公理化應用,使得人們相信依據基本概念和基本原則,再依靠推理,我們能夠推出未知的真理。然而,隨著Godel不完備定理等結果的出現,人們對于通過邏輯系統能否完全描述現實也產生了更為審慎的觀點。但是,在基本概念、公理下建立某個領域的理論科學發展模式開始成為科學的“范式”,朱迪亞·珀爾(Judea Pearl)將這種情況稱為“有理論科學”。

改變發生在近代,標志性的事件是哈雷生命表的出現。由于1462年后基督教和新教為共同對付伊比利亞半島的摩爾人而加強合作,尤其是科學探索上的合作一直延續了下來,到1693年天文學家哈雷輾轉從牛頓處得到了波蘭布雷斯勞小鎮的新教牧師卡斯帕·諾依曼(Caspar Neuman)對教區內新生兒出生和教區內死亡人數的記錄表。諾依曼原來的研究目的是通過對人口數的記錄,確認當地長期迷信的49歲、63歲和81歲的更年期迷信,哈雷對之進行插值和平滑后,開始研究生命的規律。哈雷生命表的出現有著重要的意義,它表明預測與這個時候已經成熟的古典物理學和數學可以沒有關系,而只與數據本身相關,其依據的原理是:未能被我們今天觀察到的未來事件,通常遵循過去的運行方式發生。這成了自1693年后幾個世紀以來人們進行決策的重要的經驗原則。從此,依據統計進行預測和依據邏輯推理得到確定性的知識,這二者一起成為了人類兩個最重要的知識來源,珀爾在人工智能討論域下稱前者為“無理論科學”,連接主義正是在此基礎上取得進展的。當時正值“九年戰爭”期間,哈雷根據此表,假設18~56歲的人能夠拿起武器上戰場,根據人口數量來估計戰爭的兵源數量,并且依據每個年齡段的死亡數量出售保險產品,使國王的收益最大化。自此,預測與推理一樣進入了科學研究中。

二、預測與推理的不同作用導致AI發展

推理和預測兩者之間存在一些區別,首先推理的目的是為了得到確定性的結論,通過已知事實和規律進行邏輯推導得出更廣泛或更深層次的知識。預測的目的是擬定未來可能發生的情況,通過分析現有信息推測可能結果,利用多種多樣的方法使已知信息盡可能地收斂于期望的結果。推理依賴于公理、定理和已知事實,其結論的正確性來源于前提條件的正確性。預測依賴于對歷史和當前趨勢的分析,需要判斷各種影響因素并權衡其可能的影響程度。推理能夠得出必然成立的結論,預測結果則往往是一個可能范圍或多個可能結果,難以確定具體結果,存在一定程度的不確定性。而且推理通常描述的是靜態結論,預測結果是針對未來做出的預估,依據后驗可以動態修正先驗。這也進而導致推理結論能通過邏輯解析求證其真實性,而預測結果需要隨時間推移進行驗證,看是否符合事實從而成真。其次,推理和預測的使用范圍不同,這與本文討論密切相關。推理適用于任何學科,是普適性思維框架,預測主要用于社會科學和實驗科學對未來趨勢的研究,近期才略微涉足物理科學。下面就這一點展開詳細討論。

推理可應用于任何學科,只要該學科具有一定的論證框架和邏輯規則,就可以進行推理得出新的理論或是新的定理。預測的使用范圍主要在社會科學和實驗科學中。社會科學如經濟學、政治學等可以根據歷史數據和當前趨勢來預測社會、經濟等方面的未來發展走勢。實驗科學如天文學可以根據定律預測行星和星體的運動規律,氣象學可以根據目前條件預測未來一段時間的天氣變化情況。生物學也可以根據細胞和生命規律預測疾病的發展趨勢,材料科學可以預測新材料的性能,計算機科學可以預測程序的運行效率等。推理主要用于論證和解釋現有知識,不一定涉及未來預測。但預測需要基于目前對規則和趨勢的理解,通過一定推理得到可能的未來狀態。

更深入地從方法論看,推理和預測在科學研究中也存在不同,這點尤其重要。推理可用于建立理論模型,通過邏輯演繹得出新結論,推理結果的正確與否取決于前提條件,推理結論具有必然性。這為科學理論提供理論支持,也成為1950年代以后至1970年代AI中符號主義路線的信心來源。預測通常需要通過對歷史數據進行統計分析,建立數學模型,并考慮可能的影響因素,這為科學實驗和實踐提供了參考依據。預測得到的結論需要時間證實,有時也可以通過后續觀察和驗證得到部分證實。與推理結果不同,預測結果帶有不確定性因素,但通過重復實驗,某些預測也可以取得較高準確率,或者依據經驗訓練為期望的收斂值,尤其是在大數據輔助下,可以插值補充缺失數據進行預測,或者用復雜的數值模擬和深度神經網絡的函數逼近進行預測。有人主張推理和預測方法上有相同點,比如,都需要收集和分析事例資料,了解先前的知識體系;都需要建立一定的邏輯或數學模型并一定程度地抽象描述問題。但預測方法明顯表現出了新的特征,例如,建立統計或計算模型,考慮大數量的各種影響因素而不是不多的幾個變量表達的公式;給出可能結果范圍或多個可能結果,帶有概率性;結果取決于模型對復雜因素的權重的把握程度。

推理是我們非常熟悉的科學研究方法,把它和今天人工智能技術主要依賴的統計方法的預測進行比較,就是為了更深入地認識這種預測方法能把AI技術帶到何種方向。

從羅森布拉特開創了感知機的分類和模式識別方法以來,AI的文本、圖像處理預測都大量依據數據分類、聚類、插值運算或擴散算法,用歷史數據(或訓練集)來建立統計模型或者數值模擬模型。這些模型通過數據點之間的相關性分析,利用插值和擬合方法給出新的預測值。達特茅斯會議參與者們尤其是明斯基(Marvin Minsky)在《計算幾何學》里主張的以推理為主導的符號主義的專家系統出版的第二年,即1971年,就被英國數學家萊特希爾(James Lighthill)報告宣布是非人工智能。繼承羅森布萊特方法的學者則以ImageNet庫為基準成功開發出了能夠精準識別16x16像素的圖像的技術,隨后將該識別并預測圖像的方法用于自然語言處理又獲得了進展,直至媒體熱切關注的AlphaGo依據大量的圍棋棋譜的統計數據戰勝人類棋手,預測方法的能力隨深度神經網絡開始進入公眾關注的領域。今天回頭追究其原因,是因為相比于復雜的推理過程,預測問題本身通常更容易形式化和量化,比如分類、回歸等。這使得數據驅動的連接主義模型表現出強大的能夠聚焦于解決“簡單”問題逐步積累能力。其次,今天深度學習模型的發展和評價很大程度上被特定的數據集和評測任務所驅動和制約,這些評測任務大多屬于感知預測類,缺乏對認知推理能力的綜合考核,或者說只集中于數據可大量集中的領域發力,而這些領域正好是統計預測擅長的地方,其實在發展人工智能領域,目前我們有意或無意地忽略了認知中離不開的推理能力的要求。總之,集“解決‘簡單’問題逐步積累能力”和“回避預測不擅長的不具備可統計的大量數據領域”這兩個根本因素,預測方法在今日成了AI中的主流。盡管希望目前以預測為主的AI方法能帶領人類突破盡可能多的未知,但在可見的未來里,隨數據枯竭等的到來,推理會以某種可行的方式進入AGI領域。

三、預測方法的不足

對于人類而言,未知域遠大于已知,邏輯推理等已經讓我們建立起了依據理論擴展認知領域的習慣,但理論的建構過于偶然且太過寶貴,遠遠滿足不了人們對未知的渴求。同時,未知域里的事物未必遵從我們關于過去已知的規律的假設,因此,預測也就存在困難,即便承認作為統計學基礎的U.d假設,但因為模型不可能完全、很好地捕捉系統中的所有重要影響因素,最終會導致預測不可靠而得不到推理的理論給出的確定性知識。隨著系統復雜性變高,模型難以完全反映實際情況。若一味地為保證不遺漏重要因素,必然增加模型復雜性和計算負擔,導致模型不斷擴大,最終造成對計算量的大幅增加而不可行。今天的GPT-4已使用了2.5萬塊H100,能耗和資金投入總會有限度,產出平衡點也會對參數增加進行約束。

哪些才是純數據中的重要的影響因素?這不但與數據規模和特征不足有關,還與難以建立可靠的統計關系或因果關系密切相關,后面我們將專門就此討論。數據饑渴和匱乏隨著AI訓練不久就會到來,它會降低預測能力。預測結果難以量化誤差范圍,對結果的可信度描述不清,產生誤導,也會產生不好的后果。預測結果難以實時更新調整,響應新情況反應力度不足,以及預測應用難成為定制決策的有效參考,缺乏應用驅動的視角,還有預報結果與決策者之間溝通差或決策者難以接受導致結果誤導或誤用,預測結果難與事后結果對比,缺乏結果改進機制,等等。這些都是預測的不足之處。

2009-2018年,珀爾的努力使因果關系成為現象級焦點,但數據中因果關系的發現固然重要,系統復雜性卻造成預測的困難,加上預測方法與應用驅動能力不總是匹配,使得實際在處理因果關系時,需要調整模型、數據、應用三者之間的關系。由于因果關系的基本難題存在,也就是我們總是只能觀察到事實或者反事實之一而不能同時觀察到二者,于是采用平均因果效應來近似個體因果效應,但面對個體的異質性問題卻無法處理,因此很難發現有關個體的因果關系,這使得在因果關系的相關研究中天然設置了一道無法逾越的障礙。珀爾想利用因果關系給“無理論”的預測方法找到一個可信的基礎,至少從今天的因果理論現狀來看還十分困難。就在幾天前,珀爾主張隨著依據推理的“有理論科學”和進行預測的“無理論科學”的發展,人類也許會創造出高于二者的元理論,就他這種觀點來看至少他本人對于純數據中因果關系的發現已經產生了動搖。

這樣一來,預測的諸多難題至今沒有辦法解決。這些難題也正是大眾對現今的AI技術在接受上存在一些困難的根本原因,換句話說,連結主義依靠預測技術成就了今天的AI技術,也戰勝了符號主義,但也天然地束縛住了自己。

不可忽視預測結果難以被大眾接受的另一個重要原因,AI在文本、視頻等領域因可采集的大量數據使得效果非常優異,但也因此在一定程度上讓人質疑目前AI的發展方向是否偏于娛樂。但是,目前數學和邏輯模型都無法完全捕捉和表達人類語言的全部含義,特別是在處理含有豐富語義細節的自然語言文本或視頻內容時。更具體來說,人類語言中不僅包含邏輯關系,更包含豐富的隱喻、比喻、語境等語義層面,這對現有模型來說難以完全理解和表達。數據很難在量化數值的形式中完整呈現物理世界中諸如重量、色調、氣味等類型的信息。人類情感和心理狀態很難用數值壓縮而不失真,這也成為模型難以預測人類行為的原因。現有模型在處理包括時間和空間在內的豐富上下文關系時也存在限制。語言之間的多義性和歧義也增加了預測結論的不確定性。如果模型能更好地理解和再現語言中的語用層面和豐富上下文關系,其預測結果很可能會受到更廣泛的認可。這也將是未來研究的一個重要方向。

有觀點質疑語言的歧義性會影響AI的預測結果,另一方面則有人認為該問題已經被符號邏輯解決。但在廣泛的應用領域,符號化并沒有完全覆蓋。除語言本身的歧義性外,人類智力活動中還包含一些無法通過明確輸出來表達的內容,這也給預測計算帶來難度。人類在思考和交流中,會采用暗示、隱喻、語用等手段來表達想法,而非一定以直接明確的語句為輸出。比如表達同情不用語言直接說出,而用語調和眼神交流,這些很難僅通過語言數據準確捕捉。情緒和態度也往往通過細微表情和肢體語言來傳達,但這些很難從文字中讀取。思考過程本身就是一個無形的過程,包含推斷、聯想等步驟,這不能直接從交流中反映出來。在沉思或猶豫時,人可能會選擇暫時不給出明確回復,這對模型來說很難處理。藝術和文學創作也需要大量隱喻與象征,難以單純依靠邏輯關系進行表達。這說明人類智能活動中,存在著廣泛的隱而不示區域,這對計算模型的訓練數據和評估標準提出了新的挑戰,也應成為接下來AI要發展的領域。

四、預測不能建立完備的“世界模型”

早期的阿西莫夫機器人原則,雖然文字上回避了“應當”“必須”等模態詞,但本質上是對機器人行為的約束。今天楊·立昆(Yarni Lecun)借世界模型提出了更為全面的理論,主張agent在與世界的交互中通過學習建立世界模型。二者相結合,能形成agent在對世界理解的基礎上加以約束后按照人類利益導向展開行動的基本框架。簡言之,與世界交互、學習并約束,達成對agent該有的“世界觀”的構建。邏輯推理在給定前提下得到確定的結論天然地被用來建立可信的世界模型,模態邏輯尤其擅長約束性規則。但從近70年的AI發展看,推理在方法上應對不了一般原則向復雜具體應用的映射,至少可從今日NLP中的機器翻譯中主要以詞之間的距離分類、聚類取得成功而不是以語法原則取得成功窺見一斑,原則與應用之間存在的不只是距離遙遠,許多領域可能需要的不是“有理論的科學”。那么,依靠預測能夠建立起世界模型嗎?

預測方法已經被證明能學習,agent也能與環境交互,算法能進行收斂并約束每次計算,本質上預測也能形成agent的世界模型,但過程的復雜性導致非專業的大眾不理解,這一點又反作用于學術界最終成為一個需要討論的問題。但從agent與世界的交互以及agent之間的交互來看,即便感知、采集、數據化后學習以及多個agent之間交互的問題全部能夠解決,并且最終使得agent能形成數據化的世界模型,其結果,模型也必然是不完備的,因為從目前來看,在建立世界模型之前,至少存在這幾個具體的問題需要解決,而目前依據預測方法發展起來的AI模型是沒有將其解決的:

1.暗示:用眼神表示“我們換個地方繼續談”而不直接說出。

2. 隱喻:在聊天中說“剛才網速像拖著鉛塊”來描述網絡很慢。

3. 語用:同事問“今天晚上有什么安排嗎”,實際上暗示可以一起吃晚飯。

4. 表達情緒:在聽到噩耗時眉頭緊鎖,用手不自覺地握著衣角來表達難過。

5. 思考過程:看著相冊發呆,腦海中回想起以前種種細節但沒有明顯外部行為。

6. 暫緩回復:朋友提出問題,自己需要時間沉思而沒有當場給出答復。

7. 藝術創作:有作家喜歡用鳥代表自由,這在小說中是常用的隱喻手法。

8. 肢體交流:母親以腿蓋住孩子,以隱喻的方式表達母愛。

現實中允許多義、轉義、模糊等方法從而通過有限的詞匯去表達一個無限豐富的世界,計算技術中的有限性和確定性不允許上述方法存在,Transformer等模型用整數標注詞匯,忽略了詞匯在語義空間中的真實含義是多重或模糊的。目前,預測計算在建立agent的世界模型時對抽象概念、連續性、過程性概念度量和表達的缺陷一定會限制AI的能力從而構建不完備的模型。價值觀上agent對齊人類價值已經有許多研究成果,但agent如何自我認知還是較少討論的問題,結合以上兩點再加上克服了上述缺陷的預測方法建立起來的世界模型,應該才是完整的。具有“三觀”的機器人一定會變為人類能接受并共處的機器人。當然,這是AI發展的遠期目標。

即便目前AI發展因不能建立完備的世界模型而受限,但目前的AI進展在縮小人與人之間的智力水平方面也將發揮巨大作用,如同大航海造成歐洲人文化進步一樣這也將造成人類整體知識能力的提高。曾經很高門檻的編程,現在只需要看看視頻教程,看看提示工程(prompt),孩童都能用它(AI)做出驚人的事情。AI必將縮小人類在很多前沿技術領域的差距。

    責任編輯:龔思量
    圖片編輯:張穎
    校對:劉威
    澎湃新聞報料:021-962866
    澎湃新聞,未經授權不得轉載
    +1
    收藏
    我要舉報
            查看更多

            掃碼下載澎湃新聞客戶端

            滬ICP備14003370號

            滬公網安備31010602000299號

            互聯網新聞信息服務許可證:31120170006

            增值電信業務經營許可證:滬B2-2017116

            ? 2014-2025 上海東方報業有限公司

            反饋
            百家乐官网娱乐注册就送| 宝马会百家乐官网现金网| 迷你百家乐的玩法技巧和规则| 百家乐官网利来| 百家乐群1188999| 百家乐官网论坛代理合作| 大发888游戏论坛| 欢乐谷百家乐的玩法技巧和规则 | 亚洲皇冠| 大发888娱乐场18| 澳门百家乐的玩法技巧和规则 | 保时捷百家乐官网娱乐城| 大发888投注| 威尼斯人娱乐场 赌场网址| 百家乐送现金| 2024九紫离火| 利高百家乐官网的玩法技巧和规则 | 香港六合彩号码| 威尼斯人娱乐城003| 百家乐五湖四海娱乐场开户注册| 百家乐打印机分析| 百家乐官网双层筹码盘| 山东省| 漾濞| 南投市| 盈乐博| 威尼斯人娱乐网上百家乐| 游戏机百家乐官网庄闲| 百家乐官网赌场网| 新世百家乐官网的玩法技巧和规则| 金城百家乐官网买卖路| 金樽百家乐官网的玩法技巧和规则| 木棉百家乐官网网络| 百家乐官网平注秘籍| 百家乐对打反水| 百家乐博彩策略| 百家乐的玩法和技巧| 至尊百家乐奇热网| 太阳城百家乐主页| 澳门百家乐怎么看小路| 真人百家乐对决|