首頁 新聞 緊湊型AI的推理能力:它可以競爭GPT嗎?

緊湊型AI的推理能力:它可以競爭GPT嗎?

作者 : Zoey Apr 11,2025

近年來,大型語言模型(LLMS)的成功吸引了AI領域。這些模型最初是為自然語言處理而設計的,已演變為強大的推理工具,能夠通過類似人類的逐步思考過程來解決複雜問題。但是,儘管具有出色的推理能力,但LLMS仍具有重要的缺點,包括高計算成本和緩慢的部署速度,這使得它們對於在資源受限的環境(例如移動設備或邊緣計算)中的現實使用中不切實際。這導致人們對開發較小,更高效的模型的興趣日益增加,這些模型可以提供類似的推理能力,同時最大程度地減少成本和資源需求。本文探討了這些小推理模型的興起,它們對AI的未來的潛力,挑戰和影響。

觀點的轉變

對於AI最近的大部分歷史,該領域都遵循“縮放定律”的原則,這表明模型性能隨著數據,計算功率和模型大小的增加而預測的。儘管這種方法產生了強大的模型,但它也導致了重大的權衡,包括高基礎設施成本,環境影響和潛伏期問題。並非所有應用都需要具有數百十億個參數的大型模型的全部功能。在許多實際情況下,例如在設備助手,醫療保健和教育等案件中,如果有效的理由,他們的模型可以取得相似的結果。

了解AI中的推理

AI中的推理是指模型遵循邏輯鏈,理解因果關係,推論含義,計劃步驟中的含義並確定矛盾的能力。對於語言模型,這通常意味著不僅要檢索信息,還意味著通過結構化的逐步方法來操縱和推斷信息。通常,通過微調LLMS來實現這種推理水平,以在獲得答案之前執行多步理學。儘管有效,這些方法需要大量的計算資源,並且部署可能會緩慢且昂貴,這引起了人們對其可及性和環境影響的擔憂。

了解小推理模型

小推理模型旨在復制大型模型的推理能力,但在計算能力,內存使用和延遲方面具有更高的效率。這些模型通常採用一種稱為知識蒸餾的技術,其中較小的模型(“學生”)從較大的預訓練模型(“老師”)中學習。蒸餾過程涉及對較大數據生成的數據訓練較小的模型,以傳遞推理能力。然後,對學生模型進行微調以提高其性能。在某些情況下,採用特定領域特定獎勵功能的增強學習來進一步增強模型執行特定於任務推理的能力。

小推理模型的興起和進步

小型推理模型發展中的一個顯著里程碑是DeepSeek-R1的發布。儘管接受了相對適量的較舊GPU的培訓,但DeepSeek-R1還是在MMLU和GSM-8K等基准上的OpenAi O1(例如OpenAI的O1)競爭的性能。這一成就導致了對傳統縮放方法的重新考慮,該方法假設較大的模型本質上是優越的。

DeepSeek-R1的成功可以歸因於其創新的培訓過程,該過程將大規模的強化學習結合在一起而不依賴於早期階段的監督微調。與大型推理模型相比,這一創新導致了DeepSeek-R1-Zero的創建,該模型具有令人印象深刻的推理能力。進一步的改進,例如使用冷啟動數據,增強了模型的連貫性和任務執行,尤其是在數學和代碼等領域。

此外,事實證明,蒸餾技術對於從較大的模型開發較小,更有效的模型至關重要。例如,DeepSeek發布了其模型的蒸餾版本,尺寸從15億到700億個參數不等。使用這些模型,研究人員培訓了相對較小的模型DeepSeek-R1-Distill-Qwen-32b,該模型的表現優於OpenAI的O1-Mini,跨越了各種基準。這些模型現在可以使用標準硬件部署,使它們在廣泛的應用程序中更可行。

小型型號可以匹配GPT級別的推理嗎?

為了評估小型推理模型(SRMS)是否可以與GPT這樣的大型模型(LRM)的推理能力匹配,評估其在標準基準測試上的性能很重要。例如,在MMLU測試中,DeepSeek-R1模型在0.844左右得分,可與大型模型(例如O1)相媲美。 DeepSeek-R1的蒸餾型在GSM-8K數據集(GSM-8K數據集)上,達到了頂級性能,超過了O1和O1 Mini。

在編碼任務(例如LiveCodeBench和CodeForces上的任務)中,DeepSeek-R1的蒸餾模型的執行方式類似於O1-Mini和GPT-4O,在編程中表明了強大的推理能力。但是,較大的模型仍然具有需要更廣泛的語言理解或處理長上下文窗口的任務中的優勢,因為較小的模型往往更具體。

儘管有優勢,但小型模型仍可能在擴展的推理任務或面對分發數據時掙扎。例如,在LLM國際象棋模擬中,DeepSeek-R1比大型模型犯了更多的錯誤,這表明其長期保持專注和準確性的能力限制。

權衡和實踐意義

將SRM與GPT級LRMS進行比較時,模型大小和性能之間的權衡至關重要。較小的模型需要更少的內存和計算能力,使其非常適合邊緣設備,移動應用程序或需要離線推理的情況。這種效率會導致運營成本較低,而諸如DeepSeek-R1之類的型號比O1等大型型號便宜96%。

但是,這些效率提高帶來了一些妥協。較小的模型通常用於特定任務,與較大的型號相比,這可能會限制其多功能性。例如,儘管DeepSeek-R1在數學和編碼方面表現出色,但它缺乏多模式功能,例如解釋圖像的能力,例如GPT-4O(例如GPT-4O)可以處理的圖像。

儘管存在這些局限性,但小推理模型的實際應用還是廣泛的。在醫療保健方面,它們可以為分析標準醫院服務器的醫療數據提供動力。在教育方面,它們可用於開發個性化的輔導系統,向學生提供逐步的反饋。在科學研究中,他們可以在數學和物理等領域進行數據分析和假設檢驗。諸如DeepSeek-R1之類的模型的開源性質也促進了協作並使對AI的訪問權限,使較小的組織能夠從先進的技術中受益。

底線

語言模型轉化為較小的推理模型是AI的重大進步。儘管這些模型可能尚未完全匹配大語言模型的廣泛功能,但它們在效率,成本效益和可訪問性方面具有關鍵優勢。通過在推理能力和資源效率之間達到平衡,較小的模型將在各種應用程序中發揮關鍵作用,從而使AI更實用和可持續性。

最新文章 更多
  • Zenless Zero Developer引入的Vivian

    Zenless Zero的創意思想揭示了一個令人興奮的新角色Vivian,他為遊戲帶來了魅力和神秘感。維維安(Vivian)以敏銳的機智和堅定不移的忠誠而聞名:“土匪?小偷?稱他們為你要什麼 - 我不用scum來爭論。

    Apr 18,2025
  • 經典哇與烏龜哇:6個關鍵差異

    在無數的魔獸世界私人服務器中,Turtle Wow脫穎而出,是最接近粉絲製作的Wow Classic Plus的體驗。這台私人服務器涉及將近七年的範圍,引入了各種各樣的創新變化,將新的生命吸引到了20歲的原始MMO中,

    Apr 18,2025
  • 版權Infringer Faces評論轟炸反彈

    時間表我陷入了侵犯版權的爭議中,但是原告《電影遊戲》 SA在粉絲主導的評論轟炸活動的接收端發現了他們的遊戲。深入研究指控,並在即將進行的更新中發現附表I的下一步。

    Apr 18,2025
  • “塞爾達遊戲計劃於2025年為Nintendo Switch舉行”

    《塞爾達傳說》是有史以來最具標誌性的視頻遊戲系列之一,自1986年首次在Nintendo娛樂系統上首次亮相以來,它吸引了遊戲玩家。該系列遵循Zelda公主的永恆故事,並在鏈接中鏈接,他們在為拯救Hyrule王國免於Malevolent Force的鬥爭而戰。

    Apr 18,2025
  • Genshin Impact 5.4:下個月的新五星級角色和事件

    準備好,Genshin Impact粉絲!隨著2月12日的5.4版到達,等待幾乎結束了,充滿了令人興奮的新內容和冒險。帶著充滿活力的Mikawa花節進入Teyvat的世界,與新的五星級角色Yumemizuki Mizuki結識Mikawa Flower Festrices I

    Apr 18,2025
  • PokémonGO導演在新採訪中討論了巨大的擔憂

    在Scopely收購了PokémonGo開發人員Niantic之後,壟斷之後的公司表示,粉絲們表示關注,從增加廣告到數據隱私。但是,最近與PokémonGo的產品總監Michael Staranka發表的有關Polygon的採訪旨在AL

    Apr 18,2025