極客號(hào)(Daydx.com)9月27日 消息:近日,螞蟻集團(tuán)代碼大模型CodeFuse-CodeLlama-34B4bits量化版本發(fā)布。
CodeFuse-CodeLlama-34B-4bits是CodeFuse-CodeLlama-34B模型的4bits量化版本,后者是通過(guò)QLoRA對(duì)基座模型CodeLlama-34b-Python進(jìn)行多代碼任務(wù)微調(diào)而得到的代碼大模型,模型輸入長(zhǎng)度為4K。
經(jīng)4bits量化后,CodeFuse-CodeLlama-34B-4bits可用單張A10(24GB顯存)或者RTX4090(24GB顯存)加載,同時(shí),量化后的模型在Humaneval pass@1指標(biāo)上仍取得了73.8%的表現(xiàn)。
據(jù)悉,CodeFuse是螞蟻?zhàn)匝械拇a生成專屬大模型,根據(jù)開(kāi)發(fā)者的輸入提供智能建議和實(shí)時(shí)支持,幫助開(kāi)發(fā)者自動(dòng)生成代碼、自動(dòng)增加注釋,自動(dòng)生成測(cè)試用例,修復(fù)和優(yōu)化代碼等,以提升研發(fā)效率。
CodeFuse-CodeLlama-34B4bits項(xiàng)目地址:
https://modelscope.cn/models/codefuse-ai/CodeFuse-CodeLlama-34B-4bits/summary