- +1
專訪亞馬遜云全球產(chǎn)品副總裁:生成式AI像馬拉松,比賽才剛開始
·“生成式AI的發(fā)展就像一場馬拉松比賽,當比賽剛剛開始時,如果只以前三四步就判斷比賽結(jié)果,顯然并不科學。這是一場長跑,我們現(xiàn)在還處于非常早期的階段,要拭目以待。”
·亞馬遜云計劃如何解鎖生成式AI的價值?伍德總結(jié)了三點:用Amazon Bedrock調(diào)用模型、機器學習創(chuàng)新及定制化芯片。

亞馬遜云科技全球產(chǎn)品副總裁馬特·伍德(Matt Wood)在峰會現(xiàn)場作主題演講。
“生成式AI有一種特殊的能力,用得越多,性能就越好。換句話說,當越來越多的企業(yè)、初創(chuàng)公司甚至個人更頻繁地使用這些模型,隨著使用量的增加,其反饋和回答都會變得越來越好。”在亞馬遜云科技中國峰會期間,亞馬遜云科技全球產(chǎn)品副總裁馬特·伍德(Matt Wood)在接受澎湃科技(www.usamodel.cn)采訪時表示,“所以我們現(xiàn)在所見到的生成式AI是基礎(chǔ),是起跑線,而不是天花板。”
亞馬遜云科技(以下簡稱“亞馬遜云”)和微軟被稱為全球云計算市場的兩大龍頭。據(jù)Synergy Research Group估計,2023年第一季度,亞馬遜云在全球云基礎(chǔ)設施市場的份額達到32%,微軟占23%。而在微軟憑借對OpenAI的早期投資在生成式AI這一局比賽中下了先手棋后,亞馬遜云便時常被議論為因動作慢而被第二名逐漸蠶食領(lǐng)先地位。
在采訪中,伍德毫不諱言地直面了這個問題,“生成式AI的發(fā)展就像一場馬拉松比賽,當比賽剛剛開始時,如果只以前三四步就判斷比賽結(jié)果,顯然并不科學。這是一場長跑,我們現(xiàn)在還處于非常早期的階段,要拭目以待。”
亞馬遜云的“三板斧”
隨著數(shù)據(jù)爆炸、高度可擴展計算能力的可用,以及機器學習技術(shù)的不斷進步,生成式AI登上了舞臺。“GPU以及芯片方面的巨大進展,使得我們在過去6個月的時間能夠看到機器學習方面的驚人發(fā)展。”伍德說。
那么,亞馬遜云計劃如何解鎖生成式AI的價值?伍德總結(jié)了三點:用Amazon Bedrock調(diào)用模型、機器學習創(chuàng)新及定制化芯片。
4月,亞馬遜云推出Amazon Bedrock,也就是說通過API(應用程序編程接口)即可訪問來自AI21 Labs、Anthropic、Stability AI和亞馬遜的基礎(chǔ)模型,并由此構(gòu)建生成式AI驅(qū)動的應用程序。
“我們并不認為目前會有一個單一的模型包辦一切,每一個模型都有自己的專長,一些特別適用于圖像生成,另外一些適于推理,還有一些在寫作方面特別有優(yōu)勢。我們希望把所有模型整合,提供對所有最佳模型的訪問,無論它們來自亞馬遜還是第三方,抑或開源。”伍德說。
國內(nèi)的互聯(lián)網(wǎng)大廠字節(jié)跳動也做了類似的戰(zhàn)略選擇。6月底,字節(jié)跳動旗下火山引擎發(fā)布大模型服務平臺“火山方舟”,集成了百川智能、出門問問、復旦大學MOSS、IDEA研究院、瀾舟科技、MiniMax、智譜AI等多家AI科技公司及科研團隊的大模型,類似于為各行各業(yè)提供了一個“大模型商場”。
不過,伍德在采訪中表示,亞馬遜云不會把Amazon Bedrock做成類似應用市場的模型市場,而是選擇最有趣、最有用的模型,同時確保其是低時延且具有廣泛可用的運維性能。
“最終在Amazon Bedrock上可能會有幾十個拳頭模型產(chǎn)品,它們非常新穎有趣,或是與眾不同。不過在Amazon SageMaker(為機器學習提供工具和工作流)上會有幾百個模型存在,用戶可以選擇他們想要的基礎(chǔ)模型,然后進行重新訓練,使其與自己的需求高度匹配。”伍德說。
第二,通過技術(shù)創(chuàng)新保證用戶可以安全、隱私地在模型上做優(yōu)化和微調(diào),以及基于機器學習為開發(fā)人員提供代碼生成服務Amazon CodeWhisperer。伍德說,“當你使用這些大型語言模型時,你必須非常清楚數(shù)據(jù)在使用時的去向,因為它可能會意外地泄露,并可能落入競爭對手手中。我們不會使用流經(jīng)我們系統(tǒng)的任何數(shù)據(jù)來改進底層基礎(chǔ)模型。”
第三,自研定制芯片,以實現(xiàn)低成本、低延遲地進行基礎(chǔ)模型的訓練和推理。
從2013年推出首顆Amazon Nitro芯片至今,亞馬遜云是最先涉足自研芯片的云廠商,已擁有網(wǎng)絡芯片、服務器芯片、人工智能機器學習自研芯片3條產(chǎn)品線。
目前亞馬遜云已經(jīng)發(fā)展出三代不同的機器學習芯片。亞馬遜云科技大中華區(qū)產(chǎn)品部總經(jīng)理陳曉建在亞馬遜云科技中國峰會上介紹道,“機器學習分為兩個主要的場景,一個是訓練,一個是推理。在整個生命周期之中推理所占的成本往往更高,因為推理是7×24在線不中斷服務,而訓練往往只是階段性的服務。所以我們在2019年推出了第一代用于機器學習的推理芯片Amazon Inferentia,之后2022年推出了第二代推理芯片Amazon Inferentia2。通過優(yōu)化,第二代Amazon Inferentia可以大規(guī)模部署復雜模型,如大型語言模型(LLM),訓練方面則推出了加速芯片Amazon Trainium。”
在AI芯片競賽中,亞馬遜云似乎占據(jù)了先機,已擁有兩款AI專用芯片——訓練芯片Amazon Trainium和推理芯片Amazon Inferentia,谷歌則擁有第四代張量處理單元(TPU)。相比之下,微軟等還在很大程度上依賴于英偉達、AMD和英特爾等芯片制造商的現(xiàn)成或定制硬件。
數(shù)據(jù)是一切的起點
伍德認為,數(shù)據(jù)對于生成式AI而言是一切的起點。
牛津大學、劍橋大學和英國帝國理工學院等機構(gòu)的研究人員發(fā)現(xiàn),未來模型訓練使用的高質(zhì)量數(shù)據(jù)將會愈來愈昂貴,內(nèi)容創(chuàng)作者將會竭盡全力防止其內(nèi)容被免費抓取,社交媒體公司也逐漸認識到其數(shù)據(jù)的價值,對API訪問收取昂貴費用。研究認為,如果未來的模型使用容易獲取的數(shù)據(jù)(很可能是其它模型生成)訓練,那么這將會加速模型的崩潰,增加對模型進行中毒攻擊的可能性。
對于可供AI訓練的數(shù)據(jù)未來可能稀缺的問題,伍德對澎湃科技表示,目前沒有遇到過模型訓練所需數(shù)據(jù)不足的問題。
“有海量可用數(shù)據(jù),不僅是公開可用數(shù)據(jù),還有各種類型的自有數(shù)據(jù),我們都可以獲得使用許可。實際上客戶手里掌握的數(shù)據(jù)比現(xiàn)在亞馬遜云上已有的數(shù)據(jù)還要多,可能令人驚訝的是,一些大型企業(yè),甚至是成功的初創(chuàng)企業(yè),他們在亞馬遜云上擁有的數(shù)據(jù)已經(jīng)達到XB(Xerobyte是目前已知最大的數(shù)據(jù)存儲計算單位,1XB = 2^130B)級別。”伍德認為,在可預見的未來,還不會出現(xiàn)模型訓練所需數(shù)據(jù)不足的問題。
對于企業(yè)利用數(shù)據(jù)開始構(gòu)建生成式AI,伍德提出四點建議:
第一,基于企業(yè)現(xiàn)有的數(shù)據(jù)戰(zhàn)略構(gòu)建生成式AI。此前投入很多時間和精力構(gòu)建的數(shù)據(jù)戰(zhàn)略和數(shù)據(jù)湖,會在生成式AI時代成為巨大的先發(fā)優(yōu)勢。
第二,思考如何在組織內(nèi)更廣泛、更安全地進行生成式AI實驗。在組織內(nèi)部設置相關(guān)安全護欄,同時在構(gòu)建團隊方面給予更高自由度。
“目前生成式AI在早期發(fā)展階段,沒有人知道其邊界在哪里,沒有現(xiàn)成的模型和架構(gòu)可以采用,所有的機會和想法、創(chuàng)業(yè)的點子都是日新月異,所以組織要有自由度,能夠追逐機遇,同時推出新的產(chǎn)品和新的功能。有一些基礎(chǔ)性的規(guī)則,更廣的意義上可以讓構(gòu)建者放心去實驗。”伍德說。
第三,為需求場景定制化模型。
第四,選擇場景,即刻啟程。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務許可證:31120170006
增值電信業(yè)務經(jīng)營許可證:滬B2-2017116
? 2014-2025 上海東方報業(yè)有限公司