- +1
ChatDB提升LLM的復雜推理能力
自去年11月份,ChatGPT面世以來,大語言模型(Large Language Models,即LLM)瘋狂升級,不斷爆火。而如何讓大語言模型更好的應對有很長的上下文信息(超出其最大處理長度)的場景,并利用相關歷史信息做復雜的推理,也就成了各國科學家們競相攻堅的熱點研究話題。
日前,清華大學和北京智源人工智能研究院的研究者們提出了一種新型的符號性(symbolic)記憶模塊,即用數據庫作為符號性記憶模塊來增強大語言模型。該符號性記憶框架由一個大語言模型和一個數據庫組成,稱為 ChatDB,其框架包含三個主要階段:輸入處理、記憶鏈和總結回復。其中,記憶鏈是一個新提出的方法,以更有效地操作符號性記憶模塊,從而進一步增強 LLMs 的推理能力。
在 ChatDB 中,大語言模型通過生成 SQL 指令來操縱數據庫,從而實現對記憶模塊中歷史信息精確的增刪改查,并在需要時為大語言模型提供信息,以幫助其回應用戶的輸入。這樣可以讓大語言模型勝任需要對歷史信息進行長期且精確的記錄、處理和分析的場景,例如各種管理和分析系統,以后甚至有望替代管理者,直接讓大語言模型根據精確的歷史數據做分析和決策。
相比較于ChatDB,之前的記憶模塊設計,要么需要依靠文本的 vector embedding 之間的相似度,要么將歷史信息隱式地存儲在神經網絡的權重中,都涉及神經性的操作,無法像符號性操作那樣精確操縱記憶模塊中的歷史信息。所以,這些設計存在著沒有以結構化的形式存儲歷史信息和對存儲在記憶模塊中的信息的操作不夠精確的問題。
ChatDB 則是利用支持 SQL 指令的數據庫作為符號性記憶模塊,來支持對歷史信息抽象的、可拓展的和精確的操作。而且,符號性記憶模塊還可以跟之前的記憶模塊同時使用,起到相輔相成的作用,這無疑是極具優勢的。
本文為澎湃號作者或機構在澎湃新聞上傳并發布,僅代表該作者或機構觀點,不代表澎湃新聞的觀點或立場,澎湃新聞僅提供信息發布平臺。申請澎湃號請用電腦訪問http://renzheng.thepaper.cn。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司