8 月 4 日消息,騰訊混元今日發布了四款開源的小尺寸模型,參數分別為 0.5B、1.8B、4B、7B,消費級顯卡即可運行,適用于筆記本電腦、手機、智能座艙、智能家居等低功耗場景,且支持垂直領域低成本微調。
目前,四個模型均在 Github 和 Huggingface 等開源社區上線,Arm、高通、英特爾、聯發科技等多個消費級終端芯片平臺也都宣布支持部署。

新開源的 4 個模型屬于融合推理模型,具備推理速度快、性價比高的特點,用戶可根據使用場景靈活選擇模型思考模式 —— 快思考模式提供簡潔、高效的輸出;而慢思考涉及解決復雜問題,具備更全面的推理步驟。
效果上,四個模型均實現了跟業界同尺寸模型的對標,特別是在語言理解、數學、推理等領域有出色表現,在多個公開測試集上得分達到了領先水平。


這四個模型的亮點在于 agent 和長文能力,跟此前開源的 Hunyuan-A13B 模型一樣,技術上通過精心的數據構建和強化學習獎勵信號設計,提升了模型在任務規劃、工具調用和復雜決策以及反思等 agent 能力上的表現,讓模型實際應用中可以勝任深度搜索、excel 操作、旅行攻略規劃等任務。
此外,模型原生長上下文窗口達到了 256k,意味著模型可以一次性記住并處理相當于 40 萬中文漢字或 50 萬英文單詞的超長內容,相當于一口氣讀完 3 本《哈利波特》小說,并且能記住所有人物關系、劇情細節,還能根據這些內容討論后續故事發展。
部署上,四個模型均只需單卡即可部署,部分 PC、手機、平板等設備可直接接入。并且,模型具有較強的開放性,主流推理框架(例如,SGLang,vLLM and TensorRT-LLM)和多種量化格式均能夠支持。
應用層面,四款小尺寸模型都能夠滿足從端側到云端、從通用到專業的多樣化需求,并且已經在騰訊多個業務中應用:
依托模型原生的超長上下文能力,騰訊會議 AI 小助手、微信讀書 AI 問書 AI 助手均實現對完整會議內容、整本書籍的一次性理解和處理。
在端側應用上,騰訊智能座艙助手通過雙模型協作架構解決車載環境痛點,充分發揮模型低功耗、高效推理的特性。
在高并發場景中,搜狗輸入法基于模型的多模態聯合訓練機制使嘈雜環境下提升識別準確率;騰訊地圖采用多模型架構,利用意圖分類和推理能力提升了用戶交互體驗;微信輸入法「問 AI」基于模型實現輸入框與 AI 即問即答的無縫銜接。
在需求各異、約束嚴苛的垂直行業應用中,金融 AI 助手通過 Prompt 優化和少量數據微調實現 95%+ 意圖識別準確率,展現出金融級的高可靠性;游戲翻譯和 QQ 飛車手游 NPC 充分利用模型的理解能力在多語言理解能力、方言翻譯和智能對話方面有突出表現。
在大語言模型領域,騰訊混元此前陸續開源了激活參數量達 52B 的 hunyuan large 和首個混合推理 MoE 模型 Hunyuan-A13B。
多模態方面,混元還開放了完整多模態生成能力及工具集插件,陸續開源了文生圖、視頻生成和 3D 生成能力,提供接近商業模型性能的開源基座,方便社區基于業務和使用場景定制,圖像、視頻衍生模型數量達到 3000 個。上周,騰訊發布并開源了混元 3D 世界模型 1.0。