極客號(Daydx.com)7月19日 消息:一項由斯坦福大學(xué)和 Mila 研究人員提出的新架構(gòu) “Hyena” 正在自然語言處理(NLP)社區(qū)中引起轟動,并被認為可能顛覆現(xiàn)有的注意力機制系統(tǒng)。
該架構(gòu)通過長卷積和逐元素乘法門控制實現(xiàn)了與注意力機制相媲美的性能,同時降低了計算成本。通過在自動回歸語言建模和圖像分類方面進行實驗,研究人員發(fā)現(xiàn) Hyena 能夠在性能上與注意力模型相媲美,并且具有更低的計算復(fù)雜度和參數(shù)數(shù)量。這項研究對于大規(guī)模語言模型的開發(fā)具有重要意義,并可能成為一種高效的替代方案。
研究人員在論文中提到:
二次算子可以大規(guī)模匹配注意力模型的質(zhì)量,而無需在參數(shù)和優(yōu)化成本方面付出高昂的代價。基于有針對性的推理任務(wù),作者提煉出了對其性能有貢獻的三個最重要的屬性。
數(shù)據(jù)控制
次線性參數(shù)縮放
不受上下文限制。
考慮到這些要點,他們隨后引入了鬣狗等級制度。這個新算子結(jié)合了長卷積和逐元素乘法門控,以匹配大規(guī)模注意力的質(zhì)量,同時降低計算成本。
進行的實驗揭示了令人震驚的結(jié)果。
語言建模。
Hyena 的擴展性在自回歸語言模型上進行了測試,在基準數(shù)據(jù)集 WikiText103和 The Pile 上對困惑度進行評估時,發(fā)現(xiàn) Hyena 是第一個與 GPT 質(zhì)量相匹配的無注意力卷積架構(gòu),總 FLOPS 降低了20%。
WikiText103上的困惑(相同的分詞器)。* 是來自(Dao 等人,2022c)的結(jié)果。更深更薄的模型(Hyena-slim)可實現(xiàn)更低的困惑度
訓(xùn)練模型的堆上的困惑,直到令牌總數(shù)達到50億(每個令牌總數(shù)不同)。所有模型都使用相同的分詞器 (GPT2)。FLOP 計數(shù)針對150億代幣運行
大規(guī)模圖像分類
該論文展示了 Hyena 作為圖像分類通用深度學(xué)習(xí)算子的潛力。在圖像翻譯方面,他們用 Hyena 算子替換了 Vision Transformer(ViT)中的注意力層,并將性能與 ViT 進行匹配。
在 CIFAR-2D 上,我們在標準卷積架構(gòu)中測試了2D 版本的 Hyena 長卷積濾波器,該濾波器在2D 長卷積模型 S4ND(Nguyen 等人,2022)的精度上進行了改進,加速率提高了8%,參數(shù)減少了25% 。
在十億級參數(shù)規(guī)模上取得的有希望的結(jié)果表明,注意力可能不是我們所需要的全部,并且像鬣狗這樣的更簡單的二次設(shè)計,通過簡單的指導(dǎo)原則和對機械可解釋性基準的評估,構(gòu)成了高效大型模型的基礎(chǔ)。