由于面臨美國芯片限制和比西方同行更少的預算,中國人工智能(AI)公司正在降低成本以創(chuàng)建具有競爭力的模型。01.ai(零一萬物)和DeepSeek(深度求索)等初創(chuàng)公司通過采取一些策略來降低價格,例如專注于較小的數據集來訓練人工智能模型,以及聘請低價但熟練的計算機工程師。
阿里巴巴、百度和字節(jié)跳動等大型科技集團也展開了價格戰(zhàn),以降低“推理”成本(即調用大型語言模型生成響應的價格),大模型價格下降90%以上,僅為美國同行的一小部分。
總部位于北京的01.ai由前谷歌中國區(qū)總裁李開復領導,該公司表示,通過構建以較少數據量進行訓練、需要較少計算能力的模型并優(yōu)化硬件,該公司已經降低了推理成本。
李開復表示:“中國的優(yōu)勢在于制造出真正價格實惠的推理引擎,然后讓其應用廣泛傳播!
近日,在加州大學伯克利分校SkyLab和LMSYS的研究人員發(fā)布的排名中,01.ai的Yi-Lightning模型與馬斯克名下公司x.AI的Grok-2在LLM(大模型)公司中并列第三,但落后于OpenAI和谷歌。
評估基于用戶對不同模型對查詢答案的評分。字節(jié)跳動、阿里巴巴和DeepSeek等其他中國公司也在大模型排名榜上名列前茅。
01.ai的Yi-Lightning的推理成本為每百萬token 14美分,而OpenAI的較小模型GPT o1-mini的推理成本為26美分。與此同時,OpenAI規(guī)模更大的GPT 4o的推理成本為每百萬token 4.40美元。用于生成響應的token數量取決于查詢的復雜性。
李開復還表示,Yi-Lightning的“預訓練”成本為300萬美元,初始模型訓練之后可以針對不同用例進行微調或定制。這只是OpenAI等公司對其大型模型所報成本的一小部分。他補充說,其目標不是擁有“最佳模型”,而是一個具有競爭力的模型,開發(fā)人員使用它來構建應用程序的成本“要低5到10倍”。
01.ai、DeepSeek、MiniMax、Stepfun等許多中國人工智能團體都采用了所謂的“混合專家模型(MoE)”方法,這一策略首先由美國研究人員推廣。
該方法不是在從互聯網和其他來源抓取數據的龐大數據庫上一次性訓練一個“密集模型”,而是結合了許多針對行業(yè)特定數據進行訓練的神經網絡。
研究人員認為,混合專家模型方法是實現與密集模型相同智能水平但計算能力較低的關鍵方法。但這種方法更容易失敗,因為工程師必須協調多個“專家”的訓練過程,而不是在一個模型中。
由于難以獲得穩(wěn)定充足的高端人工智能芯片供應,中國人工智能企業(yè)在過去一年中一直在競相開發(fā)最高質量的數據集,以訓練這些“專家”,從而使自己在競爭中脫穎而出。
李開復說:“中國的優(yōu)勢不在于在預算不受限制的情況下,進行前所未有的突破性研究。中國的優(yōu)勢在于建設得好、快、可靠且便宜!