極客號(Daydx.com) 導(dǎo)語:如今,AI大語言模型泛濫,這讓人眼花繚亂。本文中,極客號帶大家著眼于一些國外撼動人工智能領(lǐng)域的重要模型,包括這些大語言模型的開發(fā)商、參數(shù)以及使用用例情況。下面一起來看看吧。
1、ChatGPT
開發(fā)商:OpenAI
https://openai.com/
參數(shù):未知
ChatGPT是真正激發(fā)了主流公眾對人工智能迷戀的應(yīng)用程序。
ChatGPT 于2022年11月發(fā)布,是一個界面應(yīng)用程序,允許用戶向其提問并生成響應(yīng)。
它使用 InstructGPT 和 GPT3.5的組合啟動,后來看到強大的GPT-4為該應(yīng)用程序的高級版本提供支持。
在微軟投資OpenAI 并獲得該應(yīng)用程序的訪問權(quán)限后,ChatGPT 已成為微軟一系列產(chǎn)品的基礎(chǔ)。
ChatGPT 是一個封閉系統(tǒng),這意味著 OpenAI 保留對應(yīng)用程序的完全控制和所有權(quán)。OpenAI 將 GPT-4的參數(shù)級別保密。
用例
文本生成和摘要– ChatGPT 可以通過詳細(xì)的響應(yīng)生成類似人類的文本。除了回答各種問題外,它還具有有效的摘要能力,能夠解析大量信息以提供簡潔、易于理解的摘要,使其成為將復(fù)雜內(nèi)容提煉為更易于管理的形式的強大工具。
代碼生成- ChatGPT 可以跨多種編程語言生成代碼,提供編碼問題的解決方案,并幫助調(diào)試和演示編碼實踐。其結(jié)果雖然總體上可靠,但仍應(yīng)審查其準(zhǔn)確性和優(yōu)化性。根據(jù)Stack Overflow 調(diào)查,ChatGPT 是開發(fā)者中最受歡迎的人工智能工具。
操作機器人——微軟的工程師團隊展示了讓ChatGPT 控制機器人的可能性。在演示中,OpenAI 的語言模型連接到機械臂,并負(fù)責(zé)解決一些難題。當(dāng)用戶的指令不明確時,ChatGPT 會向研究人員詢問澄清問題。它甚至為另一個實驗中控制的無人機編寫了代碼結(jié)構(gòu)。
為立法者總結(jié)法案——國會工作人員正在使用 ChatGPT。國會工作人員獲得了大約40個 ChatGPT+ 許可證,這是使用 GPT-4的20美元高級版本。盡管有報道稱工作人員正在使用該工具來創(chuàng)建和總結(jié)內(nèi)容,但沒有透露 ChatGPT+ 許可證的用途。
2、LLaMA
開發(fā)者:meta、FAIR
https://ai.facebook.com/
參數(shù):7~650億
LLaMA – 代表大型語言模型元人工智能,專為研究人員和開發(fā)人員制作模型而設(shè)計。LLaMA 是一個開源模型,其設(shè)計比 GPT-3等模型更小。它是為缺乏開發(fā)語言模型的計算能力的用戶而設(shè)計的。
自2023年2月下旬發(fā)布以來,研究人員經(jīng)常對 LLaMA 進(jìn)行微調(diào),以創(chuàng)建其他語言模型,例如Vicuna。
用例
開源模型開發(fā)——LLaMA 已經(jīng)為各種開源 AI 模型奠定了基礎(chǔ),包括Dolly、Alpaca和Gorilla等。隨著研究人員和開發(fā)人員紛紛涌向人工智能模型,LLaMA 就是為了修改而生的。事實證明,LLaMA 的70億參數(shù)版本非常受歡迎,因為它的尺寸意味著它運行所需的計算能力更少。
訪問 LLaMA 代碼 – https://github.com/facebookresearch/llama
3、I-JEPA
開發(fā)商:meta、FAIR
https://ai.facebook.com/
參數(shù):未知
I-JEPA是 meta 于2023年6月發(fā)布的 AI 模型。模型本身并不是明星,而是它的構(gòu)建方式:使用新的架構(gòu)。
JEPA 方法可以預(yù)測缺失的信息,類似于人類的一般理解能力,這是生成式 AI 方法無法做到的。
meta的首席AI科學(xué)家Yann LeCun不斷提出深度學(xué)習(xí)AI模型可以在不需要人工干預(yù)的情況下了解周圍環(huán)境的想法。JEPA 方法符合這一愿景,并且不涉及與應(yīng)用計算密集型數(shù)據(jù)增強來生成多個視圖相關(guān)的任何開銷。
用例
從圖像進(jìn)行自我監(jiān)督學(xué)習(xí)- I-JEPA(圖像聯(lián)合嵌入預(yù)測架構(gòu))創(chuàng)建主題的內(nèi)部模型并比較圖像的抽象表示,而不是比較單個像素本身。
I-JEPA 可以有效地學(xué)習(xí)該信息并將其應(yīng)用到各種應(yīng)用程序中,而無需進(jìn)行大量的微調(diào)。
訪問 I-JEPA 的模型代碼和檢查點 – https://github.com/facebookresearch/ijepa
4、PaLM2
開發(fā)商:谷歌
https://ai.google/
參數(shù):3400億(據(jù)報道)
PaLM2是 Google 的旗艦語言模型。該模型在公司年度 I/O 大會上推出,支持100多種語言,并針對特定領(lǐng)域的應(yīng)用程序進(jìn)行了微調(diào)。
PaLM 有多種尺寸 – 每種尺寸均以動物命名,以代表其尺寸。壁虎是最小的,然后是水獺、野牛,最后是最大的獨角獸。
用例
聊天機器人改進(jìn)– PaLM 現(xiàn)在為 Bard 提供支持,Bard 是 Google 對 ChatGPT 的回應(yīng)。PaLM 使 Bard 能夠生成文本和代碼以及總結(jié)文檔。
音頻生成和語音處理– PaLM2與音頻生成模型結(jié)合使用時,可用于生成文本和語音以進(jìn)行語音識別和語音到語音翻譯。與 AudioLM 結(jié)合使用時,PaLM2可以利用大量文本訓(xùn)練數(shù)據(jù)來協(xié)助完成語音任務(wù)。谷歌認(rèn)為,在音頻生成系統(tǒng)中添加純文本大型語言模型可以改善語音處理,并且在語音翻譯任務(wù)方面優(yōu)于現(xiàn)有系統(tǒng)。
醫(yī)療保健應(yīng)用– 在 PaLM2微調(diào)并應(yīng)用于特定部門的示例中,Med-PaLM-2展示了該模型的多功能性。用戶可以提示模型通過圖像(例如 X 射線)確定醫(yī)療問題。據(jù)谷歌研究人員稱,Med-PaLM-2的不準(zhǔn)確推理減少了九倍——接近臨床醫(yī)生回答同一組問題的表現(xiàn)。
5、Auto-GPT
開發(fā)者:Auto-GPT開發(fā)團隊
參數(shù):未知
Auto-GPT是 Autonomous GPT 的縮寫,是一個開源項目,試圖為互聯(lián)網(wǎng)用戶提供強大的語言模型。Auto-GPT 基于 OpenAI 的GPT-4構(gòu)建,可用于自動化社交媒體帳戶或生成文本等用例。
該模型于2023年4月推出后在網(wǎng)上廣受歡迎,前特斯拉人工智能首席執(zhí)行官安德烈·卡帕蒂 (Andrej Karpathy) 等人都稱贊該模型的能力。
用例
Twitter AI 帳戶– 盡管埃隆·馬斯克 (Elon Musk) 試圖取消機器人帳戶,但 Auto-GPT 仍可用于為 Twitter 個人資料提供支持。Auto-GPT 用于為IndiepreneurGPT帳戶提供支持并自動通過該帳戶發(fā)送推文。
自動化一般流程– Auto-GPT 專為實驗而設(shè)計。到目前為止,開發(fā)人員已經(jīng)使用該模型來做一些事情,例如自動訂購披薩、計劃旅行或預(yù)訂航班。然而,其背后的團隊警告說,它還沒有“完善”,并且“在復(fù)雜的現(xiàn)實業(yè)務(wù)場景中可能表現(xiàn)不佳”。
訪問 Auto-GPT – https://github.com/Significant-Gravitas/Auto-GPT
6、Claude
開發(fā)商:Anthropic
https://www.anthropic.com/
參數(shù):未知(盡管 Anthropic 的憲法 AI 論文提到了 AnthropicLM v4-s3,它擁有520億個參數(shù))
將Claude視為 ChatGPT 明智的表弟。Anthropic 由前 OpenAI 員工創(chuàng)立,他們在與微軟的密切關(guān)系上留下了分歧。
Anthropic 隨后開發(fā)了 Claude,這是一款聊天機器人應(yīng)用程序,與 ChatGPT 沒有太大不同,除了一件事——更加關(guān)注安全性。
Claude使用憲法人工智能,這是由 Anthropic 開發(fā)的一種方法,可以防止其產(chǎn)生潛在有害的輸出。該模型被賦予了一套需要遵守的原則,幾乎就像賦予它一種“良心”。
在撰寫本文時,Claude2是最新版本。Claude2于2023年7月推出,擁有改進(jìn)的性能,能夠充當(dāng)業(yè)務(wù)和技術(shù)分析師。
用例
文檔分析——Claude 可用于從多個冗長的文檔甚至?xí)蝎@取見解。然后用戶向Claude詢問有關(guān)文檔的問題。此功能來自 Claude 相當(dāng)大的上下文窗口,即人工智能在生成輸出之前考慮的一系列標(biāo)記。Claude 的上下文窗口涵蓋100,000個文本標(biāo)記,即大約75,000個單詞。
文本生成和摘要- 與 ChatGPT 一樣,可以提示 Claude 生成問題答復(fù)或生成文本摘要。
嘗試 Slack 中的Claude – https://www.anthropic.com/claude-in-slack
訪問 Claude2測試版 – https://claude.ai/login
7、Stable Diffusion XL
開發(fā)商:Stability AI
https://stability.ai/
參數(shù):基礎(chǔ)模型:35億個參數(shù),模型集成管道:66億個參數(shù)
Stable Diffusion XL是2022年聲名鵲起的文本到圖像模型的最新版本。在撰寫本文時,0.9是最新版本,它可以生成超現(xiàn)實的圖像。
SDXL0.9還擁有圖像到圖像的功能,這意味著用戶可以使用一個圖像作為提示來生成另一個圖像。Stable Diffusion XL 還允許修復(fù)(可以填充圖像中缺失或損壞的部分)和修復(fù)(可以擴展現(xiàn)有圖像)。
用例
圖像生成– 與原始Stable Diffusion相同,XL 版本可用于根據(jù)自然語言提示生成圖像。然而,最新版本使用了兩個模型,其中第二個模型旨在作為兩階段過程的一部分向生成的輸出添加更精細(xì)的細(xì)節(jié)。
重新想象- 使用 Stability 的Clipdrop平臺,Stable Diffusion XL 可用于從單個圖像創(chuàng)建多個變體。只需單擊、粘貼或上傳圖像即可生成更改網(wǎng)站插圖或概念藝術(shù)圖像的可能方法。
電影和電視– Stability 聲稱 SDXL 世代可用于電視、音樂和教學(xué)視頻,以及“為設(shè)計和工業(yè)用途提供進(jìn)步”。
訪問Stable Diffusion XL0.9- https://huggingface.co/stabilityai/stable-diffusion-xl-base-0.9
8、Dolly
開發(fā)商:Databricks
https://www.databricks.com/
參數(shù): Dolly:60億個參數(shù),Dolly2.0:120億個參數(shù)
Databricks 的Dolly AI 模型以世界上第一個克隆哺乳動物 Dolly 羊命名,與此列表中的其他模型相比,其設(shè)計體積較小,訓(xùn)練成本也較低。
Dolly于3月份首次亮相,培訓(xùn)費用僅為30美元。它是 EleutherAI 的GPT-J語言模型的微調(diào)版本。Dolly 的設(shè)計具有高度可定制性,用戶可以使用內(nèi)部數(shù)據(jù)創(chuàng)建自己的類似 ChatGPT 的聊天機器人。
一個月后, Dolly2.0發(fā)布,并使用 EleutherAI 的 Pythia 模型系列構(gòu)建。后來的迭代在 Databricks 員工眾包的遵循指令的數(shù)據(jù)集上進(jìn)行了微調(diào)。它專為研究和商業(yè)用途而設(shè)計。不過,Databricks 并未透露訓(xùn)練 Dolly2.0的成本是多少。
用例
文本生成和文檔摘要——與 ChatGPT 和此列表中的其他模型一樣,Dolly 的任一版本都可以在使用自然語言提示時生成文本。它相對于其他產(chǎn)品的優(yōu)勢來自于它的可定制性,企業(yè)能夠使用易于訪問的代碼來構(gòu)建自己的版本。
訪問 Dolly 代碼 – https://github.com/databrickslabs/dolly
訪問 Dolly2.0代碼 – https://huggingface.co/databricks/dolly-v2-12b
9、XGen-7B
開發(fā)商:Salesforce
https://www.salesforceairesearch.com/
參數(shù):70億個參數(shù)
XGen-7B是一系列大型語言模型,旨在篩選冗長的文檔以提取數(shù)據(jù)見解。
Salesforce 研究人員采用了一系列70億個參數(shù)模型,并在 Salesforce 的內(nèi)部庫 JaxFormer 以及公共領(lǐng)域教學(xué)數(shù)據(jù)上對它們進(jìn)行了訓(xùn)練。生成的模型可以處理多達(dá)1.5萬億個token的8,000個序列長度。
用例
數(shù)據(jù)分析– 像 meta 的 LLaMA 這樣的模型的最大序列長度僅為2,000個令牌左右 – 這意味著它很難從文檔等冗長的非結(jié)構(gòu)化數(shù)據(jù)源中提取見解。然而,XGen-7B 可以輕松篩選冗長的文檔,并在出現(xiàn)提示時提取見解。
代碼生成– XGen-7B 模型利用Starcoder,這是由 Salesforce 和 Hugging Face 創(chuàng)建的代碼生成模型。添加了 Starcoder 的功能以支持 XGen 的代碼生成任務(wù)。
聊天機器人對話功能– 當(dāng) ChatGPT 和 Bing 的 AI 聊天等應(yīng)用程序開始首次出現(xiàn)時,用戶與應(yīng)用程序?qū)υ挼臅r間越長,底層模型就越混亂,因為它無法處理較長的上下文長度。
XGen 可能會應(yīng)用于聊天機器人,以了解更長的輸入可能會給企業(yè)帶來巨大的好處。Salesforce 的研究人員聲稱,大背景“允許經(jīng)過預(yù)先訓(xùn)練的法學(xué)碩士查看客戶數(shù)據(jù)并響應(yīng)有用的信息搜索查詢。”
訪問 XGen-7B 代碼庫:https://github.com/salesforce/xGen
訪問 XGen-7B 模型檢查點:https://huggingface.co/Salesforce/xgen-7b-8k-base
10、Vicuna
開發(fā)商:LMSYS 組織
https://lmsys.org/
參數(shù):70億、130億
Vicuna是一個開源聊天機器人,也是此列表中第二個經(jīng)過微調(diào)的 LLaMA 模型。為了對其進(jìn)行微調(diào),Vicuna 背后的團隊使用了從ShareGPT收集的用戶共享對話。
LMSYS Org 訓(xùn)練該模型僅花費300美元。其研究人員聲稱,Vicuna 的質(zhì)量達(dá)到了 OpenAI ChatGPT 和 Google Bard90% 以上,同時優(yōu)于 LLaMA 和斯坦福 Alpaca 等其他模型。值得注意的是,OpenAI 尚未在 GPT-4上發(fā)布任何內(nèi)容,而 GPT-4現(xiàn)在為 ChatGPT 的一部分提供支持,因此很難確定這些發(fā)現(xiàn)。
用例
文本生成、輔助——與此列表中的大多數(shù)模型一樣,Vicuna 可以用于生成文本,甚至可以作為虛擬助手的一種方式,用戶可以使用自然語言提示機器人。
訪問 Vicuna 代碼 – https://huggingface.co/lmsys/vicuna-13b-delta-v1.1
11、Inflection
開發(fā)商:Inflection AI
https://inflection.ai/
參數(shù):未知
Inflection-1是 AI 研究實驗室 Inflection 開發(fā)的模型,為其虛擬助理應(yīng)用程序Pi.ai提供支持。
Inflection 使用了“數(shù)千”個 Nvidia 的 H100GPU 來訓(xùn)練模型。該初創(chuàng)公司應(yīng)用專有技術(shù)方法來驅(qū)動該模型,使其性能與 OpenAI 的 Chinchilla 和 PaLM-540B 等模型相當(dāng)。
Inflection 使其語言模型的工作完全在內(nèi)部進(jìn)行,從數(shù)據(jù)攝取到模型設(shè)計。不過,該模型很快將通過 Inflection 的對話 API提供。
用例
為個人助理提供動力——Inflection-1最初是為 Pi.ai 提供動力的一種方式。據(jù)其背后的團隊稱,最終的應(yīng)用程序旨在給人留下“善解人意、有用且安全”的印象。Inflection-1還可用于從自然語言描述生成代碼并生成數(shù)學(xué)問題的答案。
12、Gorilla
開發(fā)人員:加州大學(xué)伯克利分校、微軟研究院
參數(shù):70億個參數(shù)
Gorilla 是此列表中第一個利用 meta 的 LLaMA 作為主體的 AI 模型,它經(jīng)過了微調(diào),以提高其進(jìn)行 API 調(diào)用的能力,或者更簡單地說,與外部工具配合使用的能力。端到端模型旨在為 API 調(diào)用提供服務(wù),無需任何額外編碼,并且可以與其他工具集成。
Gorilla 可以與 Apache2.0許可的 LLM 模型一起用于商業(yè)用途。
用例
虛擬助手——通過利用 API,Gorilla 可以應(yīng)用于許多應(yīng)用程序。例如,通過訪問日歷 API,Gorilla 可用于為虛擬助理應(yīng)用程序提供支持。例如,該模型可以在查詢時返回當(dāng)前日期,而不需要任何輸入。
搜索改進(jìn)——在搜索選項卡中使用自然語言提示,Gorilla 可以訪問以搜索為中心的 API(例如維基百科搜索),以返回短文本片段或更好地理解任務(wù)。例如,它不會列出某個名稱下的所有文件,而是列出與上下文相關(guān)的最新文件。
通過 Colab 嘗試 Gorilla –
https://colab.research.google.com/drive/1DEBPsccVLF_aUnmD0FwPeHFrtdC0QIUP?usp=sharing
訪問 Gorilla 代碼 – https://github.com/ShishirPatil/gorilla