2月23日消息,隨著人工智能聊天工具ChatGPT持續(xù)火爆,諸如谷歌和微軟等提供搜索業(yè)務(wù)的公司已經(jīng)開始在搜索界面中整合人工智能聊天機(jī)器人功能。但對于這些科技巨頭來說,這種聊天機(jī)器人風(fēng)格的搜索引擎會讓運(yùn)營成本增加10倍,帶來高達(dá)幾十億美元的支出。
整個科技行業(yè)的高管們都在討論運(yùn)營像ChatGPT這種人工智能的高昂費(fèi)用。OpenAI公司首席執(zhí)行官薩姆·奧特曼(Sam Altman)曾在推特上說,ChatGPT每次和用戶對話的計算成本高達(dá)幾美分或更多,“讓人難以忍受”。
谷歌母公司Alphabet董事長約翰·漢尼斯(John Hennessy)在接受采訪時表示,盡管微調(diào)有助于迅速降低成本,但“與大型語言模型等人工智能交換信息的成本可能是完成標(biāo)準(zhǔn)關(guān)鍵字搜索功能的10倍以上”。
2022年Alphabet凈利潤接近600億美元。分析師們表示,即使基于聊天機(jī)器人的搜索業(yè)務(wù)有廣告收入,這項技術(shù)也可能對Alphabet的利潤產(chǎn)生不利影響,并帶來幾十億美元的額外成本。
投行摩根士丹利估計,谷歌去年3.3萬億次搜索查詢的成本約為每條0.55美分,根據(jù)人工智能要生成的文本量,這個數(shù)字只會多不會少。分析師預(yù)計,如果“類似ChatGPT的人工智能聊天機(jī)器人能夠用50個字的答案處理只有當(dāng)今搜索一半的查詢量”,那么到2024年,谷歌每年成本就要增加60億美元。
其他分析師也有類似看法。專注于芯片技術(shù)的研究和咨詢公司SemiAnalysis表示,考慮到谷歌新推出的張量處理單元(Tensor Processing Units)以及其他優(yōu)化措施,在搜索中添加ChatGPT風(fēng)格的人工智能可能會讓Alphabet多花30億美元。
這種人工智能比傳統(tǒng)搜索引擎更昂貴的原因是所涉及的計算能力更高。分析人士表示,這種人工智能依賴于造價幾十億美元的芯片,相應(yīng)成本需要分?jǐn)偟綆啄甑氖褂脡勖小K牡碾娏ν瑯訒黾悠髽I(yè)運(yùn)營成本和碳排放指標(biāo)方面的壓力。
處理人工智能搜索查詢的過程被稱為“推理”,每次搜索時啟動模仿人腦的巨大神經(jīng)網(wǎng)絡(luò),生成一堆文本,可能還會查詢大型搜索索引信息來獲取事實信息。
Alphabet的漢尼斯表示,“你必須降低推理成本,”他稱“最壞情況下需要幾年時間”。
盡管運(yùn)營費(fèi)用高昂,Alphabet仍需要考慮如何應(yīng)對來自其他科技公司的挑戰(zhàn)。本月早些時候,競爭對手微軟展示了如何將人工智能聊天機(jī)器人嵌入必應(yīng)搜索引擎的計劃。據(jù)Similarweb估計,微軟高管們瞄準(zhǔn)的是谷歌高達(dá)91%的搜索市場份額。
微軟首席財務(wù)官阿米·胡德(Amy Hood)告訴分析師,隨著改進(jìn)后的必應(yīng)上線,用戶數(shù)量增加和廣告收入帶來的好處已經(jīng)超過了成本。胡德表示,“對我們來說,即使以我們正在討論的服務(wù)成本計算,毛利率也是增加的?!?/p>
谷歌另一個競爭對手、搜索引擎You.com首席執(zhí)行官理查德·索切爾(Richard Socher)表示,添加人工智能聊天體驗以及圖表、視頻和其他生成技術(shù)應(yīng)用程序?qū)⒃黾?0%到50%的運(yùn)營費(fèi)用。但他說,“隨著時間的推移,技術(shù)會變得越來越便宜?!?/p>
一位接近谷歌的消息人士提醒說,現(xiàn)在確定聊天機(jī)器人的具體成本還為時過早,因為運(yùn)行效率和使用情況會因為所涉及的技術(shù)有很大差異,而且搜索產(chǎn)品早就用人工智能提供技術(shù)支持。
埃森哲首席技術(shù)官保羅·多爾蒂(Paul Daugherty)說,盡管如此,擁有幾十億用戶的搜索巨頭之所以沒有立即推出人工智能聊天機(jī)器人,考慮成本是兩個主要原因之一。
他說:“一是準(zhǔn)確性,二是你必須以正確的方式擴(kuò)大規(guī)模?!?/p>
多年來,Alphabet和其他公司的研究人員一直在研究如何以更低成本訓(xùn)練和運(yùn)行大型語言模型。
更大模型通常需要更多的芯片進(jìn)行推理,因此運(yùn)行成本更高。能讓消費(fèi)者趨之若鶩的人工智能背后模型規(guī)模相當(dāng)龐大,比如說ChatGPT背后的模型就有1750億個參數(shù),每次運(yùn)行的成本也會隨用戶查詢的長度而不斷變化。
一位資深科技高管表示,要讓幾百萬消費(fèi)者使用這種人工智能,目前成本仍然過高。這位不愿透露姓名的高管表示:“這些模型非常昂貴,因此下一階段的進(jìn)步將降低訓(xùn)練這些模型和推理的成本,這樣就可以在每個應(yīng)用程序中使用它?!?/p>
一位知情人士說,目前OpenAI的計算機(jī)科學(xué)家已經(jīng)想出如何通過復(fù)雜代碼來優(yōu)化推理成本,從而提高芯片運(yùn)行效率。
一個長期存在的問題是,如何在不影響準(zhǔn)確性的情況下,將人工智能模型中的參數(shù)量減少10倍甚至100倍。
“如何最有效地剔除(參數(shù)),仍然是一個懸而未決的問題,”曾負(fù)責(zé)英特爾人工智能芯片項目的納文·拉奧(Naveen Rao)說。
與此同時,一些公司考慮付費(fèi)使用人工智能搜索,比如OpenAI的升級版ChatGPT服務(wù)每月收取20美元的訂閱費(fèi)用。技術(shù)專家還表示,一種變通方法是將更小的人工智能模型應(yīng)用于更簡單的任務(wù),Alphabet正在探索這一方法。
Alphabet本月表示,“較小版”的LaMDA人工智能模型將為聊天機(jī)器人巴德提供動力,“所需的計算能力大大降低,使我們能夠擴(kuò)展到更多用戶。”
在上周一次會議上,當(dāng)被問及ChatGPT和巴德等聊天機(jī)器人時,漢尼斯表示,更有針對性的模型而不是無所不能的系統(tǒng)才有助于“降低成本”。(辰辰)