作者 | ?ZeR0
編輯 | ?漠影
剛剛開源32B推理模型,比肩滿血版DeepSeek R1,API定價(jià)低至1/30。
智東西4月15日報(bào)道,“大模型六小虎”的第一個(gè)IPO來了!中國證監(jiān)局官網(wǎng)顯示,大模型獨(dú)角獸北京智譜華章科技股份有限公司(簡稱“智譜”)已在北京證監(jiān)局辦理輔導(dǎo)備案,輔導(dǎo)機(jī)構(gòu)為中國國際金融股份有限公司。
智譜成立于2019年6月,注冊資本為3622萬元,法定代表人是其董事長劉德兵,無控股股東,實(shí)際控制人為唐杰、劉德兵。清華大學(xué)計(jì)算機(jī)系教授是智譜的創(chuàng)始人和靈魂人物,擔(dān)任智譜首席科學(xué)家。唐杰直接持股7.4081%,劉德兵直接持股0.2554%,兩人通過持股平臺(tái)合計(jì)控制智譜17.3966%表決權(quán),通過一致行動(dòng)人合計(jì)持有智譜12.1600%表決權(quán),綜上合計(jì)控制智譜36.9647%表決權(quán)。今日,智譜剛剛發(fā)布新一代開源模型GLM-4-32B-0414系列,包含基座(Chat)、推理、沉思模型權(quán)重,有9B和32B兩個(gè)尺寸,并遵循寬松的MIT License,完全開源,不限制商用,無需申請。
開源地址:github.com/THUDM/GLM-4/其中,GLM-Z1-32B-0414推理模型以320億個(gè)參數(shù),在部分任務(wù)的性能表現(xiàn)上,可媲美參數(shù)高達(dá)6710億的DeepSeek-V3/R1。
同時(shí),智譜啟用全新域名“z.ai”。該平臺(tái)已集成基座、推理、沉思三類GLM模型,即日起面向全球用戶免費(fèi)開放使用。z.ai將持續(xù)演進(jìn)為下一代的AI應(yīng)用平臺(tái)。
新版基座模型和推理模型已上線智譜MaaS平臺(tái),提供API。本次上線的基礎(chǔ)模型有兩個(gè)版本,包括GLM-4-Air-250414和GLM-4-Flash-250414,前者定價(jià)0.5元/百萬tokens,后者完全免費(fèi)。上線的推理模型有三個(gè)版本:1、GLM-Z1-Flash(免費(fèi)版):完全免費(fèi),降低模型使用門檻。2、GLM-Z1-AirX(極速版):國內(nèi)最快推理模型,推理速度最高可達(dá)200tokens/s,8倍于常規(guī)速度,定價(jià)5元/百萬tokens。
3、GLM-Z1-Air(高性價(jià)比版):定價(jià)0.5元/百萬tokens,僅為DeepSeek-R1輸出定價(jià)的1/30,適合高頻調(diào)用場景。相比之下,DeepSeek-R1目前在標(biāo)準(zhǔn)時(shí)段的輸出定價(jià)是16元/百萬tokens,輸入定價(jià)是4元/百萬tokens(緩存未命中)和1元/百萬tokens(緩存命中);在優(yōu)惠時(shí)段價(jià)格(北京時(shí)間00:30-08:30)的輸出定價(jià)是4元/百萬tokens,輸入定價(jià)是1元/百萬tokens(緩存未命中)和0.25元/百萬tokens(緩存命中)。
01.基礎(chǔ)模型GLM-4-32B:強(qiáng)化代碼能力,擅長動(dòng)畫繪制、網(wǎng)頁設(shè)計(jì)、SVG生成
基礎(chǔ)模型GLM-4-32B-0414以320億個(gè)參數(shù),性能比肩更大參數(shù)量的國內(nèi)外主流模型。
GLM-4-32B-0414在工程代碼、Artifacts生成、函數(shù)調(diào)用、搜索問答及報(bào)告等基準(zhǔn)測試中取得了不錯(cuò)的表現(xiàn),部分表現(xiàn)可媲美更大參數(shù)規(guī)模的GPT-4o、DeepSeek-V3-0324(671B)等模型。
該模型經(jīng)過了15T高質(zhì)量數(shù)據(jù)的預(yù)訓(xùn)練,其中包含大量推理類的合成數(shù)據(jù),為后續(xù)的強(qiáng)化學(xué)習(xí)擴(kuò)展打下了基礎(chǔ)。在后訓(xùn)練階段,除了針對對話場景進(jìn)行了人類偏好對齊外,智譜還通過拒絕采樣和強(qiáng)化學(xué)習(xí)等技術(shù)強(qiáng)化了模型在指令遵循、工程代碼、函數(shù)調(diào)用方面的效果,旨在加強(qiáng)Agents(智能體)任務(wù)所需的原子能力。GLM-4-32B-0414還強(qiáng)化了代碼生成能力,可生成更復(fù)雜的單文件代碼。z.ai的對話模式內(nèi)建了預(yù)覽功能,支持對生成的HTML和SVG進(jìn)行可視化查看,便于用戶評估生成結(jié)果和進(jìn)行迭代優(yōu)化。在z.ai上已經(jīng)可以體驗(yàn)這些功能,比如輸入“用HTML模擬太陽系的行星運(yùn)動(dòng)”的指令,你可以在頁面右側(cè)看到直觀的動(dòng)態(tài)演示:
做個(gè)HTML彈珠打磚塊小游戲亦是不在話下,在頁面左側(cè)流暢地輸出400多行代碼和游戲簡介后,右側(cè)的小游戲就能上手開玩。
或者上點(diǎn)難度,要求包括:設(shè)計(jì)一個(gè)移動(dòng)端機(jī)器學(xué)習(xí)平臺(tái)的UI,其中要包括訓(xùn)練任務(wù),存儲(chǔ)管理,和個(gè)人統(tǒng)計(jì)界面;個(gè)人統(tǒng)計(jì)界面要用圖表展示用戶過去一段時(shí)間的各類資源使用情況;使用Tailwind CSS來美化頁面,把這3個(gè)手機(jī)界面平鋪展示到一個(gè)HTML頁面中。最終,該模型輸出的成品審美在線:
你也可以讓GLM-4-32B-0414設(shè)計(jì)一個(gè)支持自定義函數(shù)繪制的繪圖板,可添加和刪除自定義函數(shù),并為函數(shù)指定顏色。
或是讓它用svg展示一個(gè)大語言模型的訓(xùn)練流程:
GitHub頁面還給出了模擬小球碰撞的動(dòng)畫繪制示例:
02.推理模型GLM-Z1-32B:部分性能比肩671B DeepSeek-R1,極速版快至200 Tokens/s
GLM-Z1-32B-0414是一款具有深度思考能力的推理模型。它是在GLM-4-32B-0414的基礎(chǔ)上,采用冷啟動(dòng)和擴(kuò)展強(qiáng)化學(xué)習(xí)策略,并針對數(shù)學(xué)、代碼和邏輯等任務(wù)進(jìn)一步了深度優(yōu)化訓(xùn)練。相比基礎(chǔ)模型,GLM-Z1-32B-0414顯著提升了數(shù)理能力和解決復(fù)雜任務(wù)的能力。在訓(xùn)練過程中,智譜引入了基于對戰(zhàn)排序反饋的通用強(qiáng)化學(xué)習(xí),進(jìn)一步提升了模型的通用能力。GLM-Z1-32B-0414以320億個(gè)參數(shù),在部分任務(wù)的性能表現(xiàn)上,比肩參數(shù)量多達(dá)6710億的DeepSeek-R1相媲美。在AIME 24/25、LiveCodeBench、GPQA等基準(zhǔn)測試中,GLM-Z1-32B-0414展現(xiàn)了較強(qiáng)的數(shù)理推理能力,能夠應(yīng)對更廣泛的復(fù)雜任務(wù)。
沿用上述技術(shù),智譜訓(xùn)練了一個(gè)9B的小尺寸模型GLM-Z1-9B-0414。雖然參數(shù)量更少,GLM-Z1-9B-0414在數(shù)學(xué)推理及通用任務(wù)上依然表現(xiàn)出色,整體性能已躋身同尺寸開源模型的領(lǐng)先水平。
尤其是在資源受限的場景下,該模型可以很好地在效率與效果之間取得平衡,支持輕量化部署。智譜針對推理模型優(yōu)化了量化、投機(jī)采樣技術(shù),改進(jìn)了推理框架和調(diào)度平臺(tái)的性能,降低長思考對KV Cache顯存的壓力,可在不影響性能的情況下,實(shí)現(xiàn)更快的推理速度和更大并發(fā)量,GLM-Z1-AirX(極速版)的推理速度可達(dá)到200 token/s。在z.ai上可使用GLM-Z1-32B,體驗(yàn)高效推理能力。推理模型不僅會(huì)輸出思維鏈,還能通過Artifacts功能生成可上下滑動(dòng)瀏覽的可視化頁面。
03.沉思模型GLM-Z1-Rumination:AI中的“博士生”,自主完成復(fù)雜研究任務(wù)
沉思模型GLM-Z1-Rumination-32B-0414代表了GLM對通用人工智能(AGI)未來形態(tài)的下一步探索。不同于一般的深度思考模型,沉思模型通過更長時(shí)間的深度思考來解決更開放和更復(fù)雜的問題,還能在深度思考過程中結(jié)合搜索工具處理復(fù)雜任務(wù),并利用多種規(guī)則型獎(jiǎng)勵(lì)來指導(dǎo)和擴(kuò)展端到端強(qiáng)化學(xué)習(xí)訓(xùn)練。沉思模型支持「自主提出問題—搜索信息—構(gòu)建分析—完成任務(wù)」的完整流程。其技術(shù)底座源自強(qiáng)化學(xué)習(xí)擴(kuò)展與端到端的深度研究(Deep Research)策略訓(xùn)練,具備博士級(jí)研究能力的潛力。沉思模型在研究型寫作和復(fù)雜檢索任務(wù)上的能力得到了顯著提升,并能夠更好地應(yīng)對開放問題。z.ai上可免費(fèi)體驗(yàn)GLM-Z1-Rumination-0414,例如讓它分析北京、上海、杭州、深圳的AI發(fā)展對比情況,以及未來的發(fā)展規(guī)劃。
04.結(jié)語:推理模型迎來開源盛世
自年初DeepSeek爆紅以來,推理模型發(fā)展飛速,不僅逐漸從閉源轉(zhuǎn)向開源,而且更加關(guān)注高效和性價(jià)比。昨日下午,DeepSeek在自家open-infra-index庫中發(fā)布了一份題為“開源DeepSeek推理引擎的路徑”的文檔,宣布將開源內(nèi)部推理引擎,并與開源社區(qū)建立更廣泛的合作。今日,智譜新一代GLM-4-32B-0414系列開源模型組團(tuán)上線,并通過z.ai向大眾開放。全新推理模型同時(shí)提供免費(fèi)版、高性價(jià)比版、極速版,以更經(jīng)濟(jì)實(shí)惠的API價(jià)格,為開發(fā)者提供了又一款有競爭力的模型選擇。這些開源進(jìn)展將催化技術(shù)創(chuàng)新的擴(kuò)散,推動(dòng)AI普惠,并深刻影響AI產(chǎn)業(yè)發(fā)展進(jìn)程。