清華大學(xué)的 NLP 團(tuán)隊(duì)與智譜 AI 及清華 KEG 實(shí)驗(yàn)室宣布,他們的 ChatGLM-6B 和 ChatGLM2-6B 模型現(xiàn)已完全開放權(quán)重,允許學(xué)術(shù)研究和商業(yè)使用。這兩個(gè)模型在人工智能研究領(lǐng)域具有重要意義。
ChatGLM-6B 模型是基于 General Language Model(GLM)架構(gòu)的中英雙語對(duì)話模型,擁有62億參數(shù)。通過模型量化技術(shù),該模型可以在消費(fèi)級(jí)顯卡上進(jìn)行本地部署,最低只需6GB 顯存。該模型具備問答和對(duì)話功能,初步展現(xiàn)了其在人工智能領(lǐng)域的應(yīng)用潛力。
ChatGLM2-6B 模型在保留了初代模型的對(duì)話流暢和低門檻部署特性的基礎(chǔ)上,增加了更多新特性。首先,它采用了 GLM 的混合目標(biāo)函數(shù),經(jīng)過了1.4T 中英標(biāo)識(shí)符的預(yù)訓(xùn)練和人類偏好對(duì)齊訓(xùn)練,性能得到了顯著提升。其次,上下文長(zhǎng)度從 ChatGLM-6B 的2K 擴(kuò)展到了32K,可以處理更長(zhǎng)的對(duì)話內(nèi)容。第三,推理速度提升了42%,并且在 INT4量化下,6GB 顯存可以支持更長(zhǎng)的對(duì)話長(zhǎng)度,從1K 提升到了8K。最重要的是,ChatGLM2-6B 的權(quán)重對(duì)學(xué)術(shù)研究是完全開放的,這對(duì)于推動(dòng)人工智能技術(shù)的發(fā)展具有積極意義。
這兩個(gè)模型的開放將為學(xué)術(shù)界和商業(yè)領(lǐng)域的研究者提供更多機(jī)會(huì),推動(dòng)人工智能的創(chuàng)新與應(yīng)用。他們的發(fā)布也標(biāo)志著清華大學(xué)在人工智能領(lǐng)域的重要突破,為全球的 AI 研究和應(yīng)用探索開啟了新的篇章。未來,我們可以期待更多基于 ChatGLM-6B 和 ChatGLM2-6B 模型的研究成果和應(yīng)用場(chǎng)景的出現(xiàn),推動(dòng)人工智能技術(shù)的發(fā)展進(jìn)程。