自2022年11月Chat GPT上線后,短短2個月的時間內,月活躍用戶就已突破1億,成為史上用戶增長速度最快的消費級應用程序。
目前Chat GPT也已更新至4.0版本。新版GPT-4在諸多能力上也進行了優化,以文字生產領域為例,GPT-4能實現作詩、寫郵件、寫廣告、劇本和小說。采用AIGC技術所撰寫的高考作文,在不到1分鐘的時間,完成了40多篇文章,獲得專家打分48分的成績,擊敗了75%的考生。
在此背景下,國內大廠紛紛跟進推出屬于自身的AI大模型。比如說,百度的“文心一言大模型”,騰訊的“混元大模型”,阿里的“通義大模型”,華為的“盤古大模型”等等。
而在二級市場上,Chat GPT的火爆也直接帶火了和AI相關的概念股。以人臉識別、大數據、智能交互技術、產品及服務提供商漢王科技為例,按照漢王科技對外公布的業績預告來看,公司在2022年歸屬于上市公司股東的凈利潤為:-9800萬元至-14000萬元。長期的虧損,讓漢王科技在1月30日以前的市值僅有40.85億元左右。
但進入到今年2月份以后,漢王科技的股價一路上漲,甚至在今年3月時,股價曾達到30.66元/股的最高點。這一股價若是和今年1月份時期的15.34元/股相比,漲幅比例接近1倍。
但硬幣的另一面卻是關于Chat GPT的爭議聲音越來越大。3月30日,人工智能和數字政策中心向美國聯邦貿易委員會投訴,試圖阻止向消費者發布強大的AI系統。次日,意大利隱私監管機構宣布境內暫時禁用Chat GPT。4月2日,在三星引入Chat GPT不到20天的時間內,已先后出現三次泄密事件等等。
針對以上問題,在美國當地時間5月16日召開的Open AI首次聽證會上,圍繞著外界所關注的由AI所產生的版權侵害,虛假內容、失業問題,數據安全等問題也展開了相關討論。
本次接受質詢的對象包括Open AI CEO Sam Altman,IBM副總裁兼首席安全官Christina Montgomery,紐約大學教授Gary Marcus。而本次聽證會上的一些核心內容,也讓我們提前感知到未來Chat GPT行業發生的一些變化。
一、Chat GPT發展依然坎坷
針對3月29日,科學界聯名呼吁:所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統,為期至少6個月的聯名信。
作為聯名信簽署人之一的Gary Marcus在會上解釋道,簽署聯名信并不是要求暫停AI研發,而是希望在具備規范、安全的AI管理措施之前,暫停部署比GPT-4更大的AI模型。若現階段將這些具備超級功能的AI,全部交給普通人使用,這未免太過于冒進了。
對此,Sam Altman解釋道,未來6個月內Open AI暫無推出類似于GPT-5的計劃。因為現階段Open AI對部署更高版本的Chat GPT仍存在諸多顧慮。但與此同時,Sam Altman也提出了一個靈魂問題:若我們暫停6個月的AI研發,很有可能就會與時代脫節,6個月之后我們要怎么辦呢?還要再停6個月嗎?
如Sam Altman所言,若超級AI大模型需不斷保持自身優勢的話,則需要對模型進行不斷反復的訓練,但在訓練過程中也產生了諸多問題。比如說,高成本和商業化問題。
以Chat GPT為例,2018年Open AI在訓練GPT-1時,所用到的參數數量和數據訓練量分別為1.17億和5GB。但在2020年訓練GPT-3時,以上兩項數字則分別增長到1750億和45 TB,GPT-4的訓練參數量更是高達1.6萬億。
另據Open Al發布的相關數據顯示,訓練13億參數的GPT-3 XL模型訓練一次消耗的算力約為27.5 PF-days,訓練1750億參數的完整GPT-3模型則會消耗算力3640 PF-days(以一萬億次每秒速度計算,需要3640天完成)。
龐大的數據量以及算力決定了搭建AI模型為典型的重資金產業。以GPT-3模型消耗的算力3640 PF-days來看,相關證券機構測算,保守估計前期成本至少投入在200多億元。并且Chat GPT在前期訪問階段初始投入近十億美元,單日電費數萬美元。訓練階段,單次訓練約為百萬至千萬美元。
然而,在高成本的背后,目前關于整個Chat GPT不管是在TOC端還是TOB端的商業化仍不清晰。以TOB端為例,Chat GPT若想要完全打開TOB端市場,也面臨著諸多現實問題。
一方面,如何打消TOB端的諸多顧慮,進而讓TOB敢用Chat GPT。比如說,目前TOB端普遍擔心因使用Chat GPT而產生數據泄露風險,進而對企業業務產生諸多不利影響。
但正如美國NIST(國家標準與技術研究院)發布了《AI風險管理框架1.0》所提到的那樣,AI模型的優化可解釋性和隱私增強性之間會存在矛盾;或者在數據較稀疏的情況下,隱私增強技術可能導致有效性降低。過度關注某一方面特性,例如:高度安全但不公平的系統、有效但不透明和不可解釋的系統以及不準確但安全、隱私增強和透明的系統都是不可取的。
另一方面,對標圍繞TOB端的SaaS產業的發展來看,TOB端產品只有給企業帶來真正“降本增效”的價值,企業才愿意付費。但由于TOB端行業的分散性、差異性、多而亂的特點,行業很難形成規模效應。
目前國內SaaS產業所走的“以低價換取市場份額”的路線,也決定了當前國內和SaaS相關的企業,除具有先發優勢的阿里云實現盈利,絕大多數企業仍以虧損為主。
那么未來Chat GPT在為TOB端服務時,其價格到底要如何制定呢?是走SaaS行業以價換量的路線,或是將價格定得很高,只服務小部分企業呢?但不管走哪個路線,均決定了Chat GPT在TOB端想要實現盈利,并非易事。
另外考慮到當前全球經濟進入到新一輪下行周期,未來諸多行業業績承壓已是不爭的事實。因此,不管是投資機構,或是大廠又是否有足夠的現金流和足夠的耐心,來真正探索出各類“超級AI大模型”的盈利,這里仍值得商榷。
二、生成式AI仍面臨外部多重壓力
若成本和收益問題超級AI大模型內部需面臨的問題,來自外部的種種質疑也決定了生成式AI后續的發展并不明朗。
其一,如何對AI公司進行監管。Sam Altman提出的建議如下:對AI廠商提供許可證,并吊銷不符合政府標準的廠商的許可證。為AI大模型創建一套安全標準,包括評估其風險,大模型必須通過一些安全測試;指派第三方專家獨立審核AI產品的各方面指標,支持創立一個為AI制定相關標準的國際組織,由美國領導。同時,Sam Altman和Gary Marcus均呼吁成立專門的TOG機構,負責對AI的監管。
事實上,Sam Altman 和 Gary Marcus所提出的這些建議,也的確符合未來超級AI大模型的需要。比如說,對標國內的網約車拍照和金融支付拍照的發放來看,政府監管加強后,能讓行業從此前的野蠻生長階段逐漸回歸到理性增長階段。
但仍需要指出的是,因全球不同國家的文化、政治差異性較大,又疊加自2022年全球地緣沖突的不斷升級和加劇,一套全球可行的AI式標準制定未來估計需要很長的時間才能制定。在尚無清晰的標準下,也決定了未來超級AI大模型的出海業務,將面臨著層層壓力。
其二,如何解決反壟斷問題。在聽證會上,參議員Cory Booke提出了一個問題:Open AI由微軟支持,Anthropic則由谷歌支持。那么,未來隨著這些公司的規模越來越大,其必然也會對人們的生活影響越來越大,并有可能在商業上實現壟斷。
對此,Sam Altman則解釋道AI大模型的研發相對困難,只有少數企業能夠研發出AI大模型。這并不會造成壟斷,反而會在一定程度上降低監管難度。但坦白來說,Sam Altman的解釋并不成立。一方面,如上文所述,基于研發AI大模型對企業的資金、技術均要求極高,目前AI大模型也的確被掌握在大廠手中。
但另一方面,從國內多個行業的經驗來看,當大廠完全主導后,行業必然會出現壟斷現象,比如網約車行業、在線貨運平臺、外賣行業等等。而隨著各國政府對本國反壟斷法律法規政策制定的愈發完善,不排除后續各國政府對由超級AI大模型所產生的壟斷問題,監管只會更加嚴格。
其三,針對外界所關注的由Open AI所產生的版權以及版權付費問題。Sam Altman則表示,未來Open AI會拿出相關政策保護地方新聞業的發展。但對于內容創作者版權權益的問題,Sam Altman并沒有給出明確的回復。
事實上,對于Sam Altman的不回復雖能理解,畢竟Chat GPT在內容創作上需海量的內容作為支撐,而從國內內容平臺給到創作者的收益來看,Open AI若是真正為創作者付費的話,這必然會加重Chat GPT的成本投入。
但坦白來說,Chat GPT對創作者內容的隨意抓取,并且不付費的方式,無異于殺雞取卵。一旦后續內容創作者進行聯合,全面抵制Open AI的這種做法,未來GPT更高版本是否能繼續保持優勢,仍有待觀察。
而從現階段來看這種情況已經出現,比如說,去年柏林兩位藝術家搭建了一個名為“我正在被用來訓練嗎”的網站,藝術家可以檢索自己的作品是否進入了AI訓練數據庫。但Chat GPT所面臨的問題并非個案,而是國內外AI大模型公司都必須要思考的問題。
三、AI大模型是否會引發大規模失業?
在聽證會上,Gary Marcus指出人們不應該小看AI對就業帶來的影響。事實上,Gary Marcus的擔憂并非空穴來風。此前IBM曾宣布:暫緩可以被AI取代的崗位的招聘,約7800人將被永久淘汰。
微軟也宣布將于6月底進行裁員,裁員對象主要為記者和編輯,并將在未來加大力度使用AI技術取代人類新聞編輯。“新上崗”的AI算法將會代替人類編輯選取可報道的新聞事件、改寫新聞標題、尋找文章配圖等工作。
但Sam Altman卻認為,目前GPT-4仍能被人類很好的所控制和使用,它會讓一些工作自動化,甚至被替代掉。但人類利用AI大模型可以擁有更多能力、更多時間追求自己喜歡的事物,這將創造出更多工作機會。
IBM的Christina和Sam Altman有著一致的觀點。她認為,AI大模型“將會改變每一項工作”,如今的工作重點應該是做好新老工作的過渡。到2030年,IBM將培訓3000萬個人掌握當今社會所需的技能。
事實上,Sam Altman和Christina說法并非沒有道理?,F階段,AIGC的確可以創作海量的內容,但AIGC畢竟只是工具,缺乏人類的情感和思考能力。而人類的情感和思考能力,在諸多工作崗位中發揮著重要作用。
以內容創作為例,作家余華曾指出:從我們目前對那個GPT的理解
就他的能力,如果他要寫小說的話,他大概能寫出中庸的小說。但他不會寫出充滿了個性的小說,因為他是大量的那種文本,他可能把小說寫得很完美,但是其實是很平庸。
在以電商行業的客服崗位為例,從事多年電商客服工作的李洋洋告訴我們,在處理客戶的售后過程中,最為核心的地方在于需根據和客戶溝通過程中的語氣、文字,推測出當前客戶的情感,并做到有針對性地處理客戶的問題。若單純使用AI大模型回復客戶售后問題,這不但無法處理好客戶的問題,反而還會降低售后質量。
而且拉長維度來看,若未來各類AI大模型具備和人類一樣的情感,這必然會引發世界范圍內的恐慌,不排除AI大模型會出現被關停的命運。但當AI大模型之充當輔助性工具后,也面臨著一個問題。即它的能力和價格是否匹配,ToC端又是否愿意付費呢?
結語:
事實上,任何新興事物從成熟到發展,從來都是不走直線走曲線。但相較于其他行業而言,AI大模型所牽扯到的失業問題、各種法律風險、壟斷問題、成本和收益等等,均注定了國內外任何一家AI大模型廠商在未來AI大模型商業化的探索之路上都難言輕松,對于后續AI大模型的發展是否能達到市場預期,仍需要時間來觀察。