極客號(hào)(Daydx.com)9月7日 消息:Hugging Face最近推出了一項(xiàng)新的人工智能服務(wù),名為“training cluster”,旨在幫助公司進(jìn)行AI模型的培訓(xùn),而無需擁有龐大的計(jì)算資源。這一新服務(wù)允許用戶利用高性能GPU集群,并通過價(jià)格計(jì)算器根據(jù)參數(shù)、功能、訓(xùn)練數(shù)據(jù)量和所需的速度來配置他們所需的模型。
訓(xùn)練AI費(fèi)用昂貴
根據(jù)價(jià)格計(jì)算器,最便宜的可配置文本模型擁有70億個(gè)參數(shù),估計(jì)成本為43,069美元,需要大約四天的培訓(xùn)時(shí)間。
而最昂貴的多模態(tài)模型(包括文本和圖像)將花費(fèi)高達(dá)18,461,354美元,擁有700億個(gè)參數(shù)、7萬億個(gè)訓(xùn)練數(shù)據(jù)標(biāo)記,以及在1000個(gè)Nvidia H100GPU上進(jìn)行了長達(dá)184天的培訓(xùn)。這突顯了不同模型之間的價(jià)格差距。
然而,即使使用Hugging Face的服務(wù)培訓(xùn)出擁有70億參數(shù)的最強(qiáng)多模態(tài)模型,也很可能在性能上無法與GPT-4或Google的Gemini競爭,這兩者擁有約1.8萬億參數(shù),是后者的25倍之多。估計(jì)其培訓(xùn)成本在6,800萬美元到1億美元以上。
這表明,盡管提供了新的AI培訓(xùn)服務(wù),但尖端AI模型在財(cái)務(wù)角度上仍具有強(qiáng)大的競爭力。
盡管存在高昂成本,但未來隨著處理器技術(shù)的進(jìn)步、更高效的架構(gòu)以及高質(zhì)量訓(xùn)練數(shù)據(jù)的需求降低,培訓(xùn)價(jià)格可能會(huì)有所下降。
training cluster網(wǎng)址:https://huggingface.co/training-cluster