(資料圖)
日前,OpenAI 發布 o1-preview,問鼎最強大語言模型,引發業內轟動。也正因如此,國內也產生了質疑的聲音:為何大模型領域國內追趕了一兩年,差距好像沒見縮小,甚至是擴大了。差距真的是在擴大嗎?事實可能并非如此。
根據行業專家張俊林的觀點,o1-preview 之所以能夠更強,其方法本質上是思維鏈(Chain-of-Thought, CoT)的自動化。通過 CoT 把一個復雜問題拆解成若干簡單步驟,這有利于大模型解決復雜邏輯問題,但之前這個過程主要靠人工來達成。o1 采用的這種方法,將使得 Prompt 工程逐漸消亡,也就是說所有復雜人工環節的自動化成為了大勢所趨。
但其實,這種思想和方法并非 OpenAI 的首創,更非獨創。早在 7 月底的 ISC.AI2024 大會上,360集團創始人周鴻祎就宣布,“用基于智能體的框架打造慢思考系統,從而增強大模型的慢思考能力”,并且此后多次強調類似觀點。這種方法的技術和產品應用上,國內也已經走在前面:還是在 ISC.AI 上 360 發布的CoE(Collaboration-of-Experts,專家協同)技術架構及混合大模型,就是該方法的產物;并且,該技術架構已經落地到了多個產品中,比如360AI搜索、360AI瀏覽器。
值得一提的是,在大模型技術前沿,國內比 OpenAI 在開放協作的道路上走的更遠,更加“open”。比如 CoE 架構并非只接入了一家企業的模型,而是由 360 牽頭,百度、騰訊、阿里巴巴、智譜AI、Minimax、月之暗面等 16 家國內主流大模型廠商合作打造的,目前已經接入了這些企業的 54 款大模型產品,未來預計會全量接入 100 多款大模型產品。
更進一步的是,CoE 技術架構不僅接入了“大模型”,還接入了很多十億甚至更小參數的專家模型,這使得整個系統更加智能。CoE 架構在實現“讓最強的模型回答最難的問題”的同時,還能在回答簡單問題時調用更精準的“小模型”,在獲得高質量回答的同時,節約推理資源、提升響應速度。
有了上述的多種底層技術創新,基于CoE 架構的混合大模型在翻譯、寫作等 12 項指標的測試中取得了80.49分的綜合成績,超越了GPT-4o的69.22分;特別是在“弱智吧”和“詩詞賞析”這類比較具有中文特色的問題上,該架構的領先優勢更加明顯。即使是對于最新發布的 o1-preview,CoE 架構在未經專門優化的情況下也展現出了優勢。
擁有了底層技術創新的情況下,國內在做應用和產品層面的優勢更大。CoE 架構和混合大模型沒有止步于技術創新,而是比OpenAI更快一步地進入了實際應用領域。
一方面,360 通過 CoE 技術架構,構建了大模型競技平臺——模型競技場(bot.360.com),目前已經入駐360AI瀏覽器,成為國內大模型領域的基礎設施。在多模型協作模式下,用戶可以從 16 家國內主流大模型廠商的 54 款大模型中任意選擇 3 款大模型,進行多模型協作,以此達成比單個大模型回答問題好得多的效果。
另一方面,CoE 還成為了支撐360AI搜索的底層技術架構。正是由于全球領先的技術架構的支撐,和國內多家主流大模型廠商的通力協作,讓360AI搜索能夠讓360AI搜索能夠在2024年1月誕生后八九個月的時間里,就超越 Perplexity AI。
我國基于高素質的工程師人才優勢和時代創新精神,完全有可能讓AI大模型賽道,成為繼新能源汽車之后的又一個領跑國際前沿的重要科技創新領域。
標簽: