在线不卡日本ⅴ一区v二区_精品一区二区中文字幕_天堂v在线视频_亚洲五月天婷婷中文网站

  • <menu id="lky3g"></menu>
  • <style id="lky3g"></style>
    <pre id="lky3g"><tt id="lky3g"></tt></pre>

    MIT微軟證實(shí)GPT-4具備自我糾錯(cuò)能力 較弱的模型則沒有這種能力

    極客號(Daydx.com)7月5日 消息:最近,麻省理工學(xué)院(MIT)和微軟的研究學(xué)者發(fā)現(xiàn),GPT-4在自修復(fù)方面表現(xiàn)出了有效能力,而GPT-3.5則沒有。此外,GPT-4還能夠?qū)PT-3.5生成的代碼提供反饋。

    大型語言模型(LLM)已經(jīng)被證明可以從自然語言中生成代碼片段,但在應(yīng)對復(fù)雜的編碼挑戰(zhàn),例如專業(yè)競賽和軟件工程專業(yè)面試時(shí),仍然面臨巨大挑戰(zhàn)。最近的研究試圖通過自修復(fù)來提高模型的編碼性能,自修復(fù)是指模型反思并糾正自身代碼中的錯(cuò)誤。

    MIT微軟證實(shí)GPT-4具備自我糾錯(cuò)能力 較弱的模型則沒有這種能力

    論文地址:https://arxiv.org/pdf/2306.09896.pdf

    從本研究的實(shí)驗(yàn)中,研究者得出以下發(fā)現(xiàn):

    考慮到檢查和修復(fù)的成本,只有GPT-4的自修復(fù)能力能夠提供性能收益;對于GPT-3.5,在所有配置下,修復(fù)的通過率低于或等于基線模型或無修復(fù)方法的通過率。

    即使對于GPT-4,性能提升也是適度的(從66%提升到71%的通過率),而且取決于初始程序是否具有足夠的多樣性。實(shí)驗(yàn)的預(yù)算是使用7000個(gè)標(biāo)記,約45個(gè)獨(dú)立同分布(i.i.d.)的GPT-4樣本。

    使用GPT-4生成的反饋替代GPT-3.5對錯(cuò)誤的解釋,可以獲得更好的自修復(fù)性能,甚至超過了基線的無修復(fù)GPT-3.5方法(從50%提升到使用7000個(gè)標(biāo)記時(shí)的54%)。

    使用人類的解釋代替GPT-4自身的解釋可以顯著改善修復(fù)結(jié)果,從而使通過測試的修復(fù)程序數(shù)量增加57%。

    愛丁堡大學(xué)的博士生符堯表示:“只有GPT-4具備自我改進(jìn)的能力,而較弱的模型則沒有,這一發(fā)現(xiàn)非常有趣,表明大型模型可能具有一種新型的涌現(xiàn)能力,即通過改進(jìn)自然語言反饋來實(shí)現(xiàn),這種能力可能只存在于模型足夠成熟(大而整齊)的情況下。類似的能力在論文《Improving Language Model Negotiation with Self-Play and In-Context Learning from AI Feedback》中也有提及。”

    鄭重聲明:本文內(nèi)容及圖片均整理自互聯(lián)網(wǎng),不代表本站立場,版權(quán)歸原作者所有,如有侵權(quán)請聯(lián)系管理員(admin#wlmqw.com)刪除。
    (0)
    用戶投稿
    上一篇 2023年7月5日 15:20
    下一篇 2023年7月5日 15:20

    相關(guān)推薦

    聯(lián)系我們

    聯(lián)系郵箱:admin#wlmqw.com
    工作時(shí)間:周一至周五,10:30-18:30,節(jié)假日休息