隨著大模型技術的爆發和快速發展,各種參數、系列的模型層出不窮。它們之間有差異嗎?不同的大模型是否有各自的“天賦”?
近日,中國電信人工智能研究院(TeleAI)科研團隊在5個開源異構數據集上對近50個主流開源大模型測試了文本無損編碼壓縮增益,并統計實驗中模型推理的計算開銷。結果顯示,不同系列模型要實現同等文本無損編碼壓縮增益,所需計算開銷有明顯差異。而同一系列模型,盡管尺寸各異,但文本無損編碼壓縮增益與計算開銷的比值(即大模型的信容)往往保持高度一致。

信容是信息與模型參數量的比值,用于表示模型內存儲的知識密度。如果把模型比作海綿,信息比作水,那么信容就如同海綿的吸水效率,水吸得越多、越快,說明模型越“聰明”。信容為比較不同架構和參數大模型的推理效率提供了量化依據,可用于高效評估不同預訓練數據、模型架構和超參數的優劣?;谛湃菰u估指標,通過對同源小尺寸模型的測試,就能預測大尺寸模型的性能表現,從而加速模型的開發和迭代。
科研團隊以智傳網理論框架為基礎,通過“信容評估指標”對大模型的效率進行標準化度量。該指標基于“壓縮即智能”的深刻洞察,結合壓縮性能與推理復雜度來定量評估模型效率,不僅能揭示模型在單位計算代價下產出的智能密度,還能在復雜的通算融合網絡中為“算”與“傳”的資源最優配置提供理論依據。
隨著大模型推理負載消耗越來越多的計算資源和能源,如何準確評估大模型的推理效率吸引了學界越來越多的關注。專家表示,科研團隊通過信容指標讓跨架構和尺寸的大模型效率評估成為可能,并能有效指導模型的預訓練和高效部署。這項研究不僅為大模型的綠色低碳發展提供了定量標尺,也為未來通算融合網絡的設計指明了方向。隨著邊緣智能的快速發展,智傳網的“端-邊-云”分層網絡將在不遠的未來取代傳統的以云上服務器為中心的計算范式,實現更精準的模型選型與算力分配。
目前,該研究的相關代碼與數據已在相關平臺開源。
(受訪者供圖)
友情鏈接: 政府 高新園區合作媒體
Copyright 1999-2025 中國高新網chinahightech.com All Rights Reserved.京ICP備14033264號-5
電信與信息服務業務經營許可證060344號主辦單位:《中國高新技術產業導報》社有限責任公司