本文來自:光錐智能,作者:周文斌,編輯:王一粟,原文標題:《重復造輪子的百模大戰:兩極熱,中間空》,題圖來自:視覺中國
“不敢下手,現在中國還沒跑出來一家絕對有優勢的大模型,上層應用沒法投,擔心押錯寶?!蓖顿Y人Jucy(化名)向光錐智能表示,AI項目看得多、投得少是這段時間的VC常態。
ChatGPT點燃AI大爆炸2個月中,中國一直在等待自己的GPT-3.5。
(資料圖片)
AI真的冒犯到了打工人。游戲團隊替代掉30%的原畫師,電商團隊用AIGC生成低成本數字人模特,基礎程序員也感受到了被降維打擊的焦慮……眼看著GPT在國外要將所有領域都重新做一遍的趨勢,科技顛覆裹挾著金錢的味道滾滾而來。
于是,除了焦慮的打工人,企業急著用大模型降本增效,創業者急著接入大模型推出新產品,股市急著用ChatGPT概念割韭菜,培訓機構更是先賺一波為敬。
襯托之下,反而顯得喜歡追逐風口的中國科技巨頭們比以往更沉得住氣。 果然,周期使人成長,公司也是。
終于,眾望所歸、望眼欲穿、姍姍來遲,4月第二周,中國也迎來了新一代大模型的密集發布。
繼通義千問開放測試4天后,張勇在接手阿里云后首次亮相,宣布所有阿里產品未來將接入“通義千問”大模型,進行全面改造;
商湯科技在10日的技術交流會上,演示了“日日新”大模型的能力:對話、AI繪畫、編程、數字人,第二天開盤大漲9%;
華為盤古大模型在8日低調亮相,并于10日發布新產品;
明星創業者王小川公開亮相,攜手搜狗老搭檔茹立云正式開啟AI創業的新征程,將在下半年推出百川智能的大模型;
毫末發布首個自動駕駛大模型DriveGPT雪湖·海若,把人類反饋強化學習引入到駕駛領域;
就連游戲公司昆侖萬維也趕來湊熱鬧,宣稱“中國第一個真正實現智能涌現”的國產大語言模型將于17日啟動邀請測試,但隨后被媒體質疑其借熱點炒作股價。
熱熱鬧鬧、真真假假,大模型一時竟然有點亂花漸欲迷人眼。中國的大模型怎么就一下子如雨后春筍般都冒了出來?如果不重復造輪子,大家還能干點什么?
雖然是摸著Open AI過河,但中國大模型也都邁入了無人區。
涌現之前:亦步亦趨,又分道揚鑣
如果要為AI大模型找一個時間節點,2019年應該是關鍵的一個。
這一年2月,遠在大洋彼岸的OpenAI推出了GPT-2,恰好也是這個時間點,微軟慷慨地投入了10億美元,讓OpenAI從“非營利性”組織變成了“盈利上限”組織。
大概在一個月之后,太平洋的另一邊,百度發布了ERNIE1.0,成為中國第一個正式開放的預訓練大模型。
但這種第一其實有很多,比如華為的盤古大模型,業界首個千億參數的中文語言預訓練模型;比如阿里的M6,中國首個千億參數多模態大模型;再比如騰訊HunYuan,國內首個低成本、可落地的NLP萬億大模型……
總之,只要定語加的足夠多,就總能在某個領域當第一。那段時間,從硅谷到北京西二旗、再從五道口到上海臨港,包括華為、阿里、騰訊、商湯在內,凡是有能力的企業,都開始涉足AI大模型的相關研究。
但中國第一波AI大模型的“涌現”卻是在兩年之后。
2021年,曾任職過微軟亞洲工程院院長、后被雷軍親自邀請到金山接替求伯君任CEO的張宏江,牽頭成立的智源研究院發布“悟道1.0”,包括國內首個面向中文的NLP大模型、首個中文通用圖文多模態大模型和首個具有認知能力的超大規模預訓練的模型等等。
智源成立于2018年,也就是OpenAI發布GPT-1的前五個月,作為北京市和科技部牽頭成立,并集合學界和頭部科技企業資源的研究機構,智源其實是中國早期探索AI大模型的一個代表。
可以說,“悟道1.0”其實為中國后來所有AI大模型的一個樣本。除此之外,智源研究院還為中國構建了大規模預訓練模型技術體系,并建設開放了全球最大中文語料數據庫WuDaoCorpora,為后來其他企業發展AI大模型打下了基礎。
也正是在“悟道1.0”之后,中國大模型開始出現井噴的狀態。
2021年,華為基于昇騰AI與鵬城實驗室聯合發布了鵬程盤古大模型。2022年,阿里發布了“通義”大模型系列,騰訊發布混元AI大模型……
在中國AI大模型如雨后春筍般涌現的同時,國外的AI大模型也走到了從量變到質變的節點。
2022年11月,OpenAI發布了基于GPT-3.5的ChatGPT,徹底打開了人工智能的魔盒,然后就是席卷全球的AI 2.0浪潮。
事實上,如果以2018年GPT-1發布為節點,中國的AI大模型的發展與國外的發展脈絡一直都亦步亦趨,但ChatGPT為什么并沒有出現在中國?
這其實和國內外AI大模型兩種不同的發展路徑有關。
從目前國外具有代表性的AI大模型產品來看,比如ChatGPT、Midjourney、Notion AI或者Stable diffusion等等,都是以C端用戶為基礎的產品。
而反觀國內,目前大模型的主要應用場景都在B端。
比如阿里的“通義”大模型的典型應用場景包括電商跨模態搜索、AI輔助設計、開放域人機對話、法律文書學習、醫療文本理解等等,而騰訊的HunYuan-NLP-1T大模型則應用在騰訊廣告、搜索、對話等內部產品落地,或者像商湯的大模型,為自動駕駛、機器人等通用場景任務提供感知和理解能力支持。
之所以選擇To B,一個重要的原因是,B端更容易進行商業化。
To B的行業特點導致中國的AI大模型并不需要做到非常大的參數規模,甚至于當ChatGPT出來之后,國內的公司討論的一個重要方向,是如何將已有的大模型規?!白鲂 ?,應用到具體的行業上。
所以中國采用谷歌BERT路線的AI大模型會比較多,以更小的參數,做更有效率、更適合垂類的場景。
所以某種程度上,從出生的第一天,中國大模型就帶著商業化的任務。
而國外To C的大模型則不同,如ChatGPT的用戶在短短兩個月就達到一億,其底層預訓練大模型GPT-3.5作為通用大模型,“大”成為參數的一個基本要求。
這在某種程度上促進OpenAI不停為GPT增加參數,然后激發更強大的“涌現”現象,最終實現“大力出奇跡”的ChatGPT。
因此,To B和To C兩種完全不一樣的發展路徑,也將中國和美國的AI大模型引向了兩種完全不同的發展方向。
不要重復造輪子,但大家都想當輪子
“基建狂魔”的稱號在大模型上再次得到驗證。
到目前為止,中國已經發布的AI大模型產品已經發布了5個,而這之后,還有5個AI大模型產品正在趕來的路上。
模型大亂斗已經開始。
大部分國內的大模型能力都在GPT-2的水平上,但關注度卻遠遠高于GPT-2推出時,這就造成了一種尷尬的局面——明知道還沒有完全準備好,但卻不得不積極地在推進模型發布,似乎稍微晚一點就會錯過整個市場。
的確,無論是市場還是技術本身,都在要求企業更快地將大模型推向市場。
從技術上講,越早進入市場就能越早地獲得用戶的使用數據,進而推動模型優化迭代。從市場角度而言,當國外AI大模型與產業結合帶來更高效率的同時,國內企業也存在同樣的需求。
比如目前,光錐智能向多個SaaS公司調研發現,幾乎都已經接入GPT-3.5,目前在同步測試文心一言中。
而對于推出大模型的企業來說,這個時候搶占市場先機就變得尤為重要。
某頭部機構負責AI的投資人告訴光錐智能,“中國現在被排除在ChatGPT生態之外是非常危險的?!?nbsp;
他認為,雖然應用層存在更大的創業機會,但應用層的所有應用卻都依賴于大模型而存在。就像PC互聯網時代,所有的桌面應用都基于Windows開發,而移動互聯網時代所有APP又都基于Android或iOS系統一樣,在模型即服務的時代,也需要出現一些“操作系統”級別的底層大模型。
目前國外GPT-4已經明確可以成為這樣的存在,但國內還沒有相應的大模型出現。因此,在底層大模型的格局還未明朗的情況下,一旦大模型的市場格局發生變化,建立在大模型之上的應用也將付之東流。
這也成為許多投資人不愿意現在就下場的原因,他們想讓這個市場再跑一跑,等待一個明確能夠成為“操作系統”級別的底層大模型出現。
所以,無論是百度還是阿里,在推出大模型之后,第一件關心的事就是——是否有更多企業能夠達成合作。
比如,在2月份明確文心一言推出計劃后,百度就開始積極推進不同行業的企業接入文心一言,到3月16日百度發布文心一言時,已有超過650家企業宣布接入文心一言生態。而在4月7日,阿里官宣“通義千問”之后,第一件事也是向企業開放測試邀請。
如今國內的AI大模型正處在競爭“誰能成為底層操作系統”的階段,各家積極推出自己的大模型,開放內測,引導企業入駐,一個核心目標就是圍繞大模型建立起自己的模型生態。
這是大廠能否在下一個時代繼續成為大廠的關鍵。下一個AI時代的船票并不是大模型,而是圍繞大模型建立起來的生態。
因此,即便所有人都在口口聲聲表示不要重復造輪子,不要浪費資源建立一個同樣的大模型,但機會當前,所有人都在重復造輪子。
但如今從百度到阿里,再從華為到商湯,底層大模型的戰爭也才剛剛開始,畢竟不只是像騰訊、字節這樣的科技巨頭,還有像王小川、王慧文、李開復等創業大佬也在虎視眈眈。
王小川、王慧文都先后入駐搜狐網絡科技大廈,五道口似乎又恢復了之前的榮光。
畢竟,許多人都感覺到,“這是一次文藝復興”。
到目前為止,更多具有競爭力的玩家還沒有完全下場,但底層大模型的“百團大戰”卻已經一觸即發。
AI熱“兩極化”,中間真空
大模型讓AI公司越來越重。
4月10日,商湯在公布“日日新SenseNova”大模型體系的同時,其實還提到另一個關鍵點,即依托于AI大裝置SenseCore實現“大模型+大算力”的研發體系。
為了滿足大模型海量數據訓練的需求,原本可以輕裝上陣的算法公司,開始自己做云,也自建人工智能數據中心(AIDC)。
另一個案例就是毫末,這家自動駕駛公司為了用大模型訓練數據,也建了自己的智算中心。
這些垂類的AI巨頭和獨角獸,之所以要自己做得這么重,最重要的原因之一,就是市面上幾乎沒有高性能的現成產品可以滿足。
近年來,大模型參數量以指數級的速率提升,而數據量隨著多模態的引入也將大規模增長,因此就必然會導致對算力需求的劇增。例如,過去5年,超大參數AI大模型的參數量幾乎每一年提升一個數量級。過往的10年,最好的AI算法對于算力的需求增長超過了100萬倍。
一位商湯員工表示,商湯上海臨港AIDC的服務器機柜設計功耗10千瓦~25千瓦,最大可同時容納4臺左右英偉達A100服務器,但普通的服務器機柜普遍設計功耗以5千瓦居多,而單臺A100服務器的功耗即高達4.5千瓦左右。
科技巨頭就更是如此,每個巨頭都希望在自己的生態中形成閉環,一定程度上也是因為整個國內開源的生態不夠強大。
目前,大模型產業鏈大致可以分為數據準備、模型構建、模型產品三個層次。在國外,AI大模型的產業鏈比較成熟,形成了數量眾多的AI Infra(架構)公司,但這一塊市場在國內還相對空白。
而在國內,巨頭們都有一套自己的訓練架構。
比如,華為的模型采用的是三層架構,其底層屬于通識性大模型,具備超強的魯棒性的泛化性,在這之上是行業大模型和針對具體場景和工作流程的部署模型。這種構架的好處是,當訓練好的大模型部署到垂類行業時,可以不必再重復訓練,成本僅是上一層的5%~7%。
阿里則是為AI打造了一個統一底座,無論是CV、NLP、還是文生圖大模型都可以放進去這個統一底座中訓練,阿里訓練M6大模型需要的能耗僅是GPT-3的1%。
百度和騰訊也有相應的布局,百度擁有覆蓋超50億實體的中文知識圖譜,騰訊的熱啟動課程學習可以將萬億大模型的訓練成本降低到冷啟動的八分之一。
整體來看,各個大廠之間的側重點雖然有所不同,但主要特點就是降本增效,而能夠實現這一點,很大程度上就是受益于“一手包辦”的閉環訓練體系。
這種模式在單一大廠內部固然有優勢,但從行業角度而言,也存在一些問題。
國外成熟的AI產業鏈形成了數量眾多的AI Infra公司,這些公司有的專門做數據標注、做數據質量、或者模型架構等。
這些企業的專業性,能夠讓他們在某一個單一環節的效率、成本、質量上都要比大廠親自下場做得更好。
比如,數據質量公司Anomalo就是Google Cloud和Notion的供應商,它可以通過ML自動評估和通用化數據質量檢測能力,來實現數據深度觀察和數據質量檢測。
這些公司就像汽車行業的Tier 1,通過專業的分工,能夠讓大模型企業不必重復造輪子,而只需要通過整合供應商資源,就能快速地搭建起自己模型構架,從而降低成本。
但國內在這一方面并不成熟,原因在于:一方面國內大模型的主要玩家都是大廠,他們都有一套自己的訓練體系,外部供應商幾乎沒有機會進入;另一方面,國內也缺乏足夠龐大的創業生態和中小企業,AI供應商也很難在大廠之外找到生存的空間。
以谷歌為例,谷歌愿意將自己訓練的數據結果分享給它的數據質量供應商,幫助供應商提高數據處理能力,供應商能力提升之后,又會反過來給谷歌提供更多高質量數據,從而形成一種良性循環。
國內AI Infra生態的不足,直接導致的就是大模型創業門檻的拔高。
王慧文剛下場做光年之外的時候曾提出5000萬美金的投入,這筆錢其實是李志飛為他算的,具體可以分為2000萬美金搞算力,2000萬美金找人,1000萬美金做數據。這體現出一個直接的問題,如果將在中國做大模型比喻成吃上一頓熱乎飯,那必須從挖地、種菜開始。
目前,在AI 2.0的熱潮中,一個重要的特點就是“兩極化”:最熱門的要么是大模型層、要么就是應用層。而類似AI Infra(架構)的中間層,反而有很大的真空。
別都盯著造輪子,能造一顆好的螺絲也很重要。
結語:巨頭&創新者
王小川和百度的隔空口水戰,成為最近大模型混戰中一個熱鬧的插曲。
“高富帥”李彥宏認為,中國基本不會再出OpenAI,用巨頭的就可以了。
“直男”王小川說,“行業中有些人”對未來的觀點從來就沒有判斷對過,一直活在平行宇宙里。
除了陳年恩怨,這大體上可以看作是巨頭和創業者之間的立場對立:巨頭都喜歡包攬一切,而創業者則喜歡打破常規。
而科技行業的成功似乎更依仗于創新。畢竟,從打造AlophaGo的DeepMind,到發布ChatGPT的OpenAI,沒有一個是從巨頭中(直接)孵化出來的。
這就是創新者的窘境。
對于科技巨頭而言,自己造輪子固然重要,但能找到、孵化出下一個OpenAI又未嘗不可呢?
標簽: