咨詢電話(微信同號)
18905829229

蘋果也發(fā)布了自己的大模型,這是一件影響深遠的大事

來源:網(wǎng)絡(luò)轉(zhuǎn)載作者:互聯(lián)網(wǎng)怪盜團時間:2024-03-18

這注定是人工智能發(fā)展史上的又一個標(biāo)志性事件,其影響體現(xiàn)在三個方面。

剛剛過去的周末,蘋果發(fā)表了一篇論文,公布了自己研發(fā)的MM1多態(tài)大語言模型(Multimodal LLM)。這注定是人工智能發(fā)展史上的又一個標(biāo)志性事件!很遺憾,我不是技術(shù)研發(fā)人員,對這篇論文只能粗略看懂一些基本信息。我的一些從事大模型研發(fā)的朋友,昨天已經(jīng)徹夜不眠地進行深度研究了。


蘋果這次公布的MM1大模型分為三個參數(shù)規(guī)模,其中最大的擁有300億參數(shù),與市面上的主流競品相比,好像不是很大——要知道,谷歌PaLM大模型擁有5400億參數(shù),OpenAI的GPT-4更是擁有1.7萬億參數(shù)(注:OpenAI官方并未披露參數(shù)數(shù)量,僅有外界猜測)。科技博客Daily Dev的評測顯示,MM1在GLUE-Score等多項評測指標(biāo)上要略優(yōu)于GPT-4V和Gemini Pro;不過眾所周知,這種評測的參考價值有限。MM1目前還沒有公測,官方也沒有公布上線時間表,要評估其具體的技術(shù)水平可能還需要很長一段時間。


對于人工智能行業(yè)乃至全球科技行業(yè)而言,MM1大模型本身可能是一件小事,蘋果由此表現(xiàn)出的姿態(tài)則是一件大事。具體而言:


蘋果今后肯定會依賴自研大模型,而不是OpenAI等第三方的大模型或者開源大模型。大模型是一項基礎(chǔ)設(shè)施,沒有哪個科技巨頭愿意受制于人,都會投入盡可能多的資源實現(xiàn)自主。今后大模型賽道的競爭會更激烈。


根據(jù)蘋果一貫的作風(fēng),它肯定想實現(xiàn)“軟件-算法-芯片”三位一體的統(tǒng)一,今后肯定會建立自己的AI開發(fā)社區(qū),甚至在芯片領(lǐng)域挑戰(zhàn)一下英偉達。AMD和英特爾都沒有這個實力,但蘋果確實有一定希望。


在長期,最值得關(guān)注的話題是:蘋果會不會走邊緣計算、本地化推理的路線?這將直接決定“AI手機”有沒有市場。不過這個問題不是一兩年內(nèi)能解決的。


先說第一條。在ChatGPT剛剛發(fā)布時,業(yè)界的主流觀點是:世界上不需要那么多大模型,可能只需要3-5個,包括1-2個最先進的閉源大模型,再加上幾個開源大模型?,F(xiàn)在的情況卻是人人都想做自己的大模型。此前很長一段時間,大家都覺得蘋果是一家消費電子廠商,沒有必要押注于自研大模型,只需要租用市面上最先進的大模型就可以了?,F(xiàn)實告訴我們,蘋果不是這么想的。就像我的一位從事大模型研發(fā)的朋友所說:“AGI時代,自己有控制權(quán)的大模型才是最好的。OpenAI不可能將模型參數(shù)開放給蘋果,蘋果也不會樂意受制于微軟生態(tài)。不管它做不做得好,它只能自己做!”


如果蘋果是這么想的,其他科技巨頭就更會這么想了。谷歌和亞馬遜都投資了Anthropic(除了OpenAI之外最炙手可熱的AI創(chuàng)業(yè)公司),Salesforce投資了Mistral;各家大廠收購的小型研發(fā)團隊就更是數(shù)不勝數(shù)了。無論這個世界究竟需要多少大模型,每個科技巨頭都會做自己的大模型,而且肯定不止做一個——內(nèi)部孵化幾個、外部投資或并購幾個,才是常態(tài)。


前一段時間,市場上有消息稱,蘋果從鴻海訂購了2萬臺AI服務(wù)器,其中40-50%是英偉達H100服務(wù)器。當(dāng)時很多人(包括我在內(nèi))認(rèn)為這些服務(wù)器主要是用來推理的,不過用H100推理顯得過于奢侈了?,F(xiàn)在看來,這些服務(wù)器應(yīng)該既包括推理需求、也包括訓(xùn)練需求。蘋果最不缺的就是錢,既然它決定了押注自研大模型,就一定會把戰(zhàn)爭打到底。全球AI算力緊缺的局勢看樣子會雪上加霜。


再說第二條。雖然外界經(jīng)常低估蘋果的研發(fā)實力,但是在歷史上,蘋果經(jīng)常通過在消費產(chǎn)品積累的資源去進軍中上游、直至切入核心技術(shù)層面,這一點在民用芯片領(lǐng)域體現(xiàn)的最明顯:自從2021年以來,蘋果自研的M系列芯片已經(jīng)全面替代英特爾x86芯片,成為Mac電腦的標(biāo)配,乃至被“下放”到了iPad當(dāng)中。一位熟悉這個領(lǐng)域的朋友告訴我:“蘋果絕不會甘愿受制于CUDA。它熱衷于獨立掌握核心算法,對自研芯片進行適配優(yōu)化,從而實現(xiàn)芯片-算法-軟件的整合。不過它一定會小心謹(jǐn)慎地行事?!?/p>


眾所周知,英偉達依托CUDA生態(tài),建立了牢不可破的競爭壁壘。但是,英偉達的驅(qū)動程序并不開源(注:有極少數(shù)開源過,但于事無補),CUDA也并不好用。AMD、英特爾等競爭對手已經(jīng)被甩出太遠了,依靠它們?nèi)ヌ魬?zhàn)英偉達并不顯示。蘋果則擁有這樣的實力,看樣子也擁有這樣的意愿。不過,就算它決定進軍英偉達的地盤,這個過程也會持續(xù)相當(dāng)漫長的時間——要知道,從2006年Mac換用英特爾芯片到2020年轉(zhuǎn)向自研芯片,經(jīng)過了整整14年!


附帶說一句,哪怕英偉達的競爭對手(無論是不是蘋果)成功地奪走了一些市場份額,也不會解決當(dāng)前AI算力緊缺的問題,因為瓶頸主要在制造環(huán)節(jié)。尤其是訓(xùn)練相關(guān)的芯片制造,在未來很長一段時間內(nèi)估計還是臺積電的天下。無論誰是AI芯片的王者,它都要依賴臺積電代工。這是一個工程問題,只能循序漸進地解決。


最后,今后的AI推理主要在云端(數(shù)據(jù)中心)還是終端(手機、電腦)實現(xiàn),這是一個爭議很大的話題。我們看到各家手機廠商在爭先恐后地推出“AI手機”——很可惜,這些產(chǎn)品現(xiàn)在還沒什么用,消費者沒有任何迫切的需求。當(dāng)年的云游戲概念,是希望把游戲算力從終端搬到云端;現(xiàn)在的AI手機概念,則是希望把推理算力從云端搬到終端。前者已經(jīng)被證明不切實際(至少現(xiàn)在是如此),后者則前途未卜。


作為全球最大、最賺錢的智能終端廠商,蘋果肯定會希望終端多承擔(dān)一些AI推理職責(zé),這也有助于iOS生態(tài)的進一步擴張。然而,技術(shù)進步不會以任何科技巨頭的主觀愿望為轉(zhuǎn)移。很多人猜測,蘋果大模型的研發(fā)方向?qū)⒅赶蜻吘売嬎?、本地化和小型化,其?zhàn)略目標(biāo)是開發(fā)出適合在移動端本地推理的模型。但是從目前的公開信息(主要就是那篇論文)中,我們尚不能獲得足夠的信息。


對于蘋果的投資者而言,最大的好消息是:蘋果注意到了自研大模型的重要性,不甘于在這個戰(zhàn)略性賽道上掉隊,而且正在試圖利用自身資源稟賦去影響大模型技術(shù)的發(fā)展方向。資本市場可能會對此做出良好的反應(yīng)(尤其是考慮到今年以來蘋果衰落的股價),但是能否實現(xiàn)又是另一回事了。


聲明:文章來源于網(wǎng)絡(luò)轉(zhuǎn)載,是作者獨立觀點,不代表浙北數(shù)據(jù)立場
如有不合適或侵權(quán)等問題請及時聯(lián)絡(luò)我們0572-2100075,會第一時間刪除,保障作者權(quán)益
?

微信公眾號