长兴郴障科技有限公司

澎湃Logo
下載客戶端

登錄

  • +1

Manus背后的大行為模型:AI從“想”到“做”的躍遷

胡逸
2025-03-11 07:01
來源:澎湃新聞
? 澎湃商學院 >
字號

隨著技術的進步,AI已不再局限于理解我們說的話,而是能夠獨立完成復雜的任務。2025年3月,中國AI公司Monica發布了名為Manus的通用智能體。這款號稱“全球首款通用AI代理”的產品,憑借其在“思考”與“行動”方面的能力,迅速引起了廣泛關注。

在一段4分47秒的演示視頻中,Manus展示了其較高的自主性:當用戶上傳一個包含15份簡歷的壓縮包時,它不僅能自動解壓,還能逐頁分析,提取關鍵信息,最終生成候選人的排名和評估表。當面對“紐約購房”這一需求時,它會把任務分解、編寫Python腳本來計算預算,整合社區的安全和教育資源數據,輸出一份堪比專業房產經紀的詳細報告。甚至在金融分析方面,它也能調取工具,分析股票趨勢,并用可視化圖表清晰地解釋因果關系。

Manus的名字源自拉丁語“Mens et Manus”(心智與手),它的設計哲學強調,知識不僅要存在大腦中,更應轉化為實際行動。Manus的定位遠超傳統的聊天機器人或任務助手,它的核心能力是從目標設定到成果交付的全方位自主執行。正如網友所言:“ChatGPT是‘紙上談兵’的軍師,Manus則是‘披甲上陣’的將軍。”

Manus的獨特之處,不僅在于它能夠理解語言、分析數據,更在于它能像人類一樣,實際操作、解決現實問題。這種能力突破了傳統大語言模型(Large Language Model,簡稱LLM)僅限于文字生成的桎梏,展示了“大行為模型”(Large Action Model,簡稱LAM)所蘊藏的潛力。此前,谷歌的Project Astra、微軟的Copilot Studio均已布局智能體生態。Manus和這些前沿產品一起,被認為是“AI智能體商業化”進程中的重要節點。

大語言模型 VS 大行為模型:從“思維鏈”到“行動鏈”的技術躍遷

要理解LAM的核心價值,我們可以先從LLM談起。像ChatGPT、Deepseek這樣的大模型,通過海量文本數據訓練,擁有強大的語言處理能力。它們能寫詩、解題、生成商業計劃書,甚至模擬心理咨詢。但當任務從“回答如何預訂機票”升級為“實際完成機票預訂”時,LLM便顯得力不從心。它更像一個“戰略顧問”,擅長提供建議,卻無法“擼起袖子”親自操作購票系統。LLM的局限性在于,它更多扮演的是一個“思維者”,而非“行動者”。

于是,大行為模型應運而生。LAM不僅僅停留在語言生成和知識提煉上,更具備了通過計算、協調和實時行動的能力。它能思考問題,但更重要的是,它能夠行動、調整方案并付諸實踐。以Manus展示的“我要在紐約買房”為例,LAM像一個高效的私人助理,幫你從規劃到執行,再到檢查優化,完成所有任務。

規劃階段,當你給出購房需求,LAM就會把這個大目標拆解成一系列小任務——預算計算、房源篩選等,并生成一張動態的流程圖,確保每個步驟有條不紊。執行階段,它開始動手,利用工具調取房產數據、編寫算法、生成報告等,確保每個環節都精準到位。驗證階段,通過強化學習,LAM會評估任務結果,核對房源的準確性和預算的匹配度,甚至自動調整并優化方案。通過這三步,LAM不僅能“想得明白”,還能夠“做得精確”。更重要的是,它會在執行過程中不斷自我優化,像一個無時無刻不在調整的精密機器,確保最終結果完美無缺。

大語言模型(LLM)與大行為模型(LAM)的本質差異,在于前者專注于語言的解析與生成,而后者則打破了語言與行動的界限,實現了從意圖理解到任務執行的完整閉環。這不僅僅是技術架構的不同,更是AI從“思考者”到“行動者”的范式躍遷。正如德勤報告所預測的,到2028年,15%的日常工作決策將由LAM驅動的智能體完成。如果說LLM讓我們獲取知識更加便捷,那么LAM則讓我們的行動更加高效、精準。未來的智能世界,不再是一個靜止的圖書館,而是一個不斷變動、不斷執行的行動場。

LAM的核心優勢:讓“行動”變得可控與智能

想象一下,你是一位公司CEO,面臨一系列復雜的戰略決策。你向傳統的AI咨詢系統提問,它會為你提供大量的數據分析、預測和建議。但最終,這些信息仍需要你親自篩選、分析、做出決策。整個過程充滿了“思考”的成分,但行動依舊掌握在你手中。

而LAM的工作方式不同。它是一個虛擬的“智能CEO”,不僅能為你提供決策依據,還能主動執行計劃中的每一項任務。例如,LAM能夠根據市場變化自動調整公司資源、安排員工任務,甚至在戰略執行過程中進行實時優化。這樣一來,你不僅獲得了決策支持,還通過LAM的能力將計劃轉換為具體行動。無論是招聘、財務調整還是營銷策略,它都能精準地為你執行。甚至在面對突發危機時,LAM能夠迅速調整應對策略、制定應急預案。

這種超強超前的執行能力,正是LAM與LLM最大的不同——LAM不再僅停留在知識表層,它進入了行動的深水區,具備了更多的“主動性”和“執行力”。通過增強行動智能,LAM打破了“語言的巨人,行動的矮子”的魔咒,將AI技術從單純的理解和表達,推向了更高的層次——實際操作和執行。

商業、生活、城市治理:LAM帶來的全方位變革

LAM的魅力,不僅在于它的技術原理,更在于它如何徹底改變我們的工作和生活方式。在隨著技術的不斷發展,LAM將會在越來越多的領域中發揮作用。讓我們來看幾個典型的應用場景:

從“輔助工具”到“數字員工”

LAM驅動的智能體將不再是簡單的輔助工具,而是能夠獨立承擔完整工作流的“數字員工”。例如,在市場營銷領域,LAM不僅能進行市場調研、數據分析、廣告投放,還能實時評估廣告效果,完成整個流程。而在財務部門,LAM可以自動處理發票、生成財務報告,甚至進行預算規劃和風險評估。在物流配送中,LAM能根據實時交通信息優化路徑,確保貨物按時送達。這種從“輔助”到“執行”的轉變,極大提升了工作效率,減少人為錯誤。

個人助理:從提醒到全面執行

想象有一天,你醒來時,身邊有一個虛擬助手,它不僅能提醒你今日日程、重要事項,還能根據天氣自動調整出行計劃、預訂符合健康需求的餐廳,甚至在你下班前啟動掃地機器人并預熱空調。LAM驅動的個人助理,已經遠超傳統語音助手的功能。它不僅主動分析需求、協調事務,甚至在你未曾察覺時優化你的時間安排。它的執行力,不再局限于“提醒”或“建議”,而是全面滲透到你日常的決策與行動中。

聚會籌備無憂:從菜單到送餐的無縫銜接

想象一場家庭聚會的籌備過程,LAM不僅能提前幫你規劃菜單和布置場地,還能根據來賓的飲食偏好和過敏信息自動調整食品安排。它會與送餐服務平臺對接,確保食物準時送達。在這個過程中,你只需要享受成果,LAM為你完成了從構想到執行的所有步驟。在這場聚會中,你從“決策者”變成了“驗收者”,享受著LAM帶來的高效與便捷。

我們可以想象LAM在更大范圍發揮的作用。例如在城市治理方面,LAM能夠集成交通、能源、環境等各類數據,實時優化決策。在極端天氣來臨時,LAM可以自動調度排水系統、調整交通信號燈配時,甚至為市民推送避險路線,確保城市在突發事件中的穩定運行。在環境保護與治理中,城市的空氣質量、垃圾處理等環保問題,通常需要跨部門的協調與實時監控。LAM能夠整合這些不同領域的數據,實時監控污染源,自動調整應對措施。例如,當空氣污染指數達到一定標準時,LAM會自動啟動應急預案,控制工業排放,并指導市民如何減少外出,及時發布防護提示。同時,LAM能夠優化垃圾清運路線,根據實際情況動態調整垃圾處理頻率,避免污染擴散。

LAM與LLM:互補共生,共同推動AI進化

盡管LAM與LLM分別在理解與行動領域各自占據獨立的技術陣地,但它們并非對立,而是互為補充,攜手推動AI的進化。LLM賦予AI強大的語言理解和生成能力,讓它能夠與人類進行流暢溝通;而LAM則賦予AI行動力,使其能夠將語言轉化為具體操作,實現真正的“行動”。

以醫療場景為例,LLM可以與患者進行詳細對話,準確理解癥狀并生成醫學報告;而LAM則將報告轉化為具體的治療方案,自動安排后續的治療、檢查以及藥物處方。兩者攜手配合,才真正實現了從“理解”到“執行”的無縫銜接,將復雜的醫療過程自動化且精準化。

這種“理解與行動”相輔相成的機制,正在推動AI從“腦袋型”智能走向“行動型”智能。正如一位優秀的指揮官不僅需要擅長指揮(理解),更需要帶領隊伍去執行(行動),LAM與LLM的結合,是推動AI走向全面智能的重要一步。

LAM技術的困境:智能決策與自主行動的平衡

盡管LAM展現了巨大的潛力,但它的應用背后依然存在許多挑戰和難題。

首先,LAM的決策和行動高度依賴于數據的準確性與全面性。可以說,數據是LAM的“眼睛”,如果眼睛看錯了,行動就會偏離軌道。例如,在企業管理中,若LAM依賴的市場數據有誤,它可能做出錯誤的戰略決策,反而加劇公司風險;在醫療場景中,錯誤的病歷數據可能導致誤診,甚至危及生命。因此,確保數據的精準與完整,建立“輸入數據質檢”和“執行結果復核”的雙重機制,成為了LAM系統不可忽視的基礎保障。

其次,LAM的過度依賴可能導致“依賴性文化”的出現。當過多的決策權交給AI時,人們可能逐漸失去自我判斷的能力,甚至盲目信任系統。例如,某電商公司會因完全依賴LAM定價系統,未能及時識別競爭對手“偽裝數據”的漏洞,導致季度虧損。人機協同的關鍵,正是劃定AI的權限邊界。在復雜的決策場景中,人類的判斷力與直覺依然至關重要,尤其是在面對非標準化、不可預測的情況時,AI的決定不應完全取代人類的洞察力和決策。

最后,如何確保LAM的行為符合道德和倫理標準,也是一個亟待解決的問題。假設LAM在執行醫療方案時出現錯誤,責任該由誰承擔?是醫生、系統運營方,還是患者本人?如何避免AI的行為失控,確保它始終為人類服務,而不是帶來傷害?這些問題涉及科技倫理的邊界,亟須通過行業規范和法律框架來約束。人工智能的“智慧”越高,其“責任”也越重,如何在提升AI自主性的同時,保持其可控性,是未來發展的關鍵課題。

通過解決這些挑戰,LAM才能真正發揮其潛力,既不失控,也不讓人類的判斷力被過度削弱。未來的AI,應當是智慧與責任并行的“伙伴”,而非無條件的“執行者”。

當AI不僅能回答“怎么做”,還能主動“做到”,人機協作將進入真正的共生時代。我們是否準備好將更多的“行動權”交給AI?在追求高效與便利的同時,我們又該如何平衡控制與信任的微妙關系?

或許,未來的某一天,當LAM技術更加普及與優化,它將成為我們每個人的得力助手、企業的核心引擎,甚至是社會運作的“中樞大腦”。人類需要重新思考自身的角色——是成為全局的監督者,還是細節的執行者?答案或許在于找到那個微妙的平衡點:讓AI挑起重復勞動的扁擔,讓人類牢牢掌控創新的韁繩。

(作者胡逸為數據工作者,著有《未來可期:與人工智能同行》一書)

    責任編輯:蔡軍劍
    圖片編輯:樂浴峰
    校對:施鋆
    澎湃新聞報料:021-962866
    澎湃新聞,未經授權不得轉載
    +1
    收藏
    我要舉報
            查看更多

            掃碼下載澎湃新聞客戶端

            滬ICP備14003370號

            滬公網安備31010602000299號

            互聯網新聞信息服務許可證:31120170006

            增值電信業務經營許可證:滬B2-2017116

            ? 2014-2025 上海東方報業有限公司

            反饋
            大世界百家乐官网娱乐场| 百家乐官网赌博破解| 新濠百家乐的玩法技巧和规则 | bet365备用主页器| 百家乐出千的高科技| 百家乐官网必胜法技巧| 网上百家乐官网新利| 百家乐官网平注法技巧| 百家乐投注外挂| 百家乐官网冲动| 闽清县| 玩百家乐技巧看| 百家乐平台哪个比较安全| 百家乐官网技巧心| 百家乐官网注册就送| 大发888真人网站| 钱柜百家乐的玩法技巧和规则| 百家乐博彩安全吗| 黄金城百家乐官网安卓版| 百家乐官网破解软件真的有用吗| 皇冠备用投注网| 大发888官方网站| 金域百家乐的玩法技巧和规则| 百家乐专打单跳投注法| 嘉禾百家乐官网的玩法技巧和规则| 真人百家乐官网ea平台| 百家乐官网保单破解方法| 百家乐官网现场网络| 百家乐官网代打公司| 社会| 开心8百家乐官网现金网| 百家乐官网怎么注册| 财神百家乐官网娱乐城| 赌博娱乐城| 盈禾娱乐| 足球投注网址| 百家乐试玩| 利来娱乐开户| 百家乐骗局视频| 百家乐玩法和技巧| 鸡西市|