文 | 硬嘮 intalk
2026 年 4 月 2 日凌晨,Arena AI 的開源模型排行榜在沉寂數(shù)周后突然刷新。
這一天沒有硅谷慣有的盛大發(fā)布會(huì),Google DeepMind 首席執(zhí)行官 Demis Hassabis 僅在 X 上發(fā)布了一條簡短的消息。隨后,一個(gè)名為 Gemma 4 31B Dense 的中量級模型,以驚人的斜率殺入全球開源前三。
在它上方的,是參數(shù)量數(shù)倍于它的龐然大物;在它下方的,是過去一年統(tǒng)治社區(qū)的幾支老牌主力。
在開發(fā)者社區(qū),31B 這個(gè)數(shù)字顯得極不尋常。它既不追求超大規(guī)模的混合專家架構(gòu)(MoE),也未試圖在參數(shù)量上追趕閉源旗艦。它像是一個(gè)精準(zhǔn)的切片,切開了開源 AI 長期以來 " 大即是美 " 的共識。
沒人預(yù)料到,這家曾在開源競賽中動(dòng)作遲緩的巨頭,會(huì)選擇在清晨以一種近乎 " 冷啟動(dòng) " 的方式,宣告對開源高地的重奪。
更令人意外的是,Gemma 4 E2B 和 E4B 雖然總參數(shù)量分別為 5.1B 和 8B,但它們采用了逐層嵌入(PLE)實(shí)際激活的 " 有效參數(shù) " 僅為 2.3B 和 4.5B,極大降低了手機(jī)和筆記本電腦的內(nèi)存和運(yùn)行門檻。
在帶有原生多模態(tài)能力的端側(cè)極小尺寸區(qū)間,業(yè)界認(rèn)為 Llama 4 和 Qwen 3.5 目前都沒有能與 Gemma 4 E2B/E4B 直接對標(biāo)的產(chǎn)品。對于純端側(cè)或邊緣部署,Gemma 4 目前被認(rèn)為是最強(qiáng)的選擇。
維度 | Gemma 4 ( E2B / E4B ) | Qwen 3 ( 1.7B / 4B ) | 核心差異結(jié)論 |
|---|---|---|---|
實(shí)際激活參數(shù) | 2.3B / 4.5B | 1.7B / 4B | Gemma 同等性能下顯存占用極低。 |
最大上下文 | 128K | 32K | Gemma 4 碾壓。 |
支持模態(tài) | 文本、圖像、視頻、原生音頻 | 文本、圖像、視頻 | Gemma 4 獨(dú)占原生音頻。 |
推理 Token 消耗 | 極低 ( ~1.1K Tokens ) | 極高 ( ~9K Tokens ) | Gemma 4 效率碾壓。 |
極限視覺并發(fā) | 較弱 | 極強(qiáng) ( ~280 張圖 ) | Qwen 3/3.5 碾壓。 |
最低內(nèi)存門檻 | 4GB / 5.5-6GB ( 4-bit 量化 ) | 3GB / 4GB ( 4-bit 量化 ) | Qwen 的物理體積下限更低。 |
根據(jù)社區(qū)總結(jié),Gemma 4 E2B/E4B 除了在圖像批量處理時(shí)弱于 Qwen1.7B / 4B 外,在上下文,原聲語音處理,推理能力上均實(shí)現(xiàn)了大幅度領(lǐng)先。
第一章:每參數(shù)智能
在 Google 的戰(zhàn)略里,這場戰(zhàn)爭的關(guān)鍵詞不是 " 規(guī)模 ",而是 " 每參數(shù)智能 "(Intelligence-per-parameter)。
長期以來,開源社區(qū)被分為兩派:一派是以 Meta 為代表的堆料競賽,試圖用千億參數(shù)換取邏輯能力;另一派是以 DeepSeek 為代表的成本學(xué)派,通過 MoE 架構(gòu)降低推理開銷。
Google DeepMind 此次推出的 Gemma 4 系列——包括 E2B、E4B、26B MoE 和 31B Dense ——試圖開辟第三條路徑:在有限的 " 權(quán)重 " 內(nèi)壓榨出極限的智能。 這種 " 反向進(jìn)化 " 的核心支撐是 TurboQuant 壓縮算法。
根據(jù) Google Research 在 3 月底披露的技術(shù)細(xì)節(jié),這項(xiàng)技術(shù)能將 KV 緩存壓縮至 3 比特,在 H100 GPU 上實(shí)現(xiàn) 8 倍的注意力計(jì)算加速,且在 MMLU Pro 等核心指標(biāo)上實(shí)現(xiàn) " 零精度損失 "。
數(shù)據(jù)的跳躍是直觀的。Gemma 4 31B 的 MMLU Pro 得分達(dá)到 85.2%,而在代表數(shù)學(xué)巔峰能力的 AIME 2026 測試中,它跑出了 89.2% 的高分。相比之下,前代 27B 模型的這一數(shù)字僅為 20.8%。
Google 此次不僅交出了權(quán)重,還交出了控制權(quán)。Gemma 4 全系采用了商業(yè)友好的 Apache 2.0 協(xié)議,徹底終結(jié)了此前版本在商用授權(quán)上的扭捏。
在端側(cè),Google 展現(xiàn)了更為激進(jìn)的收割姿態(tài)。通過 AICore 開發(fā)者預(yù)覽版,Gemma 4 E2B 和 E4B 被直接集成進(jìn) Android 系統(tǒng)級接口。在 Pixel 手機(jī)和 Raspberry Pi 上,新模型的推理速度提升了 4 倍,電池消耗則降低了 60%。
對于 Google 而言,這不再僅僅是一場關(guān)于排行榜位次的爭奪,而是一場關(guān)于誰能定義 " 有用 " 的生存戰(zhàn):如果模型不能裝進(jìn)用戶的口袋,那它對 Google 的移動(dòng)生態(tài)便毫無意義。
第二章:中式合圍
當(dāng) Google 試圖用 31B 重新定義 " 每參數(shù)智能 " 時(shí),它的對手們正駐守在另一條壕溝里。 在中國大模型廠商的戰(zhàn)略坐標(biāo)中,智能的衡量標(biāo)準(zhǔn)不是參數(shù)的瘦身,而是復(fù)雜問題的 " 暴力破解 " 與工程場景的 " 絕對占有 "。
DeepSeek 在 2026 年初再次加固了它的邏輯護(hù)城河。根據(jù)行業(yè)披露,DeepSeek-V4 采用了一種極端的 1T 總參數(shù) MoE 架構(gòu),盡管每次推理僅激活 37B 參數(shù),但其引入的 Engram 條件內(nèi)存技術(shù),讓模型在 1M 上下文內(nèi)展現(xiàn)出了極強(qiáng)的記憶穩(wěn)定性。
更具殺傷力的是其 V3.2 系列引入的 " 思考模式 "(Thinking mode)。在針對 STEM 領(lǐng)域、邏輯糾錯(cuò) and 復(fù)雜代碼生成的測試中,這一模式允許模型在給出答案前進(jìn)行大規(guī)模的 " 自我博弈 "。
BentoML 的技術(shù)分析指出,DeepSeek 的這種思路在于:如果端側(cè)模型暫時(shí)無法在短時(shí)間內(nèi)追上閉源旗艦的直覺,那就通過 " 多想幾步 " 來補(bǔ)齊。這直接切中了金融和科研開發(fā)者對 " 邏輯確定性 " 的需求。
而在生產(chǎn)力工具層面,阿里巴巴的通義千問 Qwen 3.5 系列則展現(xiàn)了近乎殘酷的工程壓制力。 在 2026 年 3 月底的 LM Studio 測評中,Qwen 3.5 的 32B 模型在 HumanEval 編程測試中報(bào)出了 88.0 分的驚人數(shù)據(jù)。
這意味著,在處理具體、細(xì)碎且容錯(cuò)率極低的工業(yè)級編程任務(wù)時(shí),Qwen 的表現(xiàn)甚至優(yōu)于部分體量大它三倍的國際模型。
這種競爭格局形成了一個(gè)微妙的 " 中式合圍 ":DeepSeek 占據(jù)了 " 深思熟慮 " 的智力高地,Qwen 占據(jù)了 " 開箱即用 " 的工程低地。
對于開發(fā)者而言,選擇不再單一。如果你需要一個(gè)能夠深入理解 Android 底層系統(tǒng)并進(jìn)行離線多模態(tài)交互的伙伴,Gemma 4 是首選。但如果你是在尋找一個(gè)能夠處理 100 萬字技術(shù)文檔、或者在云端以最低成本生成百萬行代碼的 " 勞動(dòng)力 ",DeepSeek 和 Qwen 依然擁有難以逾越的遷移壁壘。
這場戰(zhàn)爭的下半場,正從 " 誰的分?jǐn)?shù)高 " 轉(zhuǎn)向 " 誰的護(hù)城河更難被跨越 "。Google 拿出了手術(shù)刀般精準(zhǔn)的參數(shù)效率,而它的中國對手們,則在邏輯與工程的堡壘里,筑起了更厚的墻。
第三章:最后一百米
在大模型的世界里,算力的賬本往往比排行榜的得分更具決定性。
如果說 DeepSeek 依靠超大規(guī)模 MoE 架構(gòu)在云端實(shí)現(xiàn)了推理成本的極限壓縮,那么 Google DeepMind 的 Gemma 4 則試圖在硬件的 " 最后一百米 " ——也就是用戶的手機(jī)與開發(fā)者的工作站里,建立一套全新的結(jié)算體系。
2026 年 4 月,Google 宣布將 Gemma 4 全系遷移至 Apache 2.0 協(xié)議。這不僅僅是一個(gè)版權(quán)聲明的變更,而是一個(gè)明確的信號:Google 正在放棄對模型的直接 " 控制稅 ",轉(zhuǎn)而追求 " 覆蓋率 "。
WaveSpeed AI 的分析指出,此前的許可協(xié)議中存在的 MAU 限制和用途審查,一直是企業(yè)級開發(fā)者站隊(duì)的阻礙。而現(xiàn)在,隨著協(xié)議的徹底放開,Gemma 4 31B 模型能夠以 " 無鎖 " 狀態(tài)直接進(jìn)入醫(yī)療、國防等對數(shù)字主權(quán)極度敏感的領(lǐng)域。
相比之下,DeepSeek 等廠商雖然開源,但在跨國商業(yè)授權(quán)上的透明度仍是不少跨國企業(yè)觀望的原因。 更深層的壁壘被建立在操作系統(tǒng)內(nèi)部。 在 Android AICore 的開發(fā)者預(yù)覽版中,Gemma 4 獲得了系統(tǒng)級的 " 特權(quán)插槽 "。
這意味著,當(dāng)開發(fā)者調(diào)用 E2B 或 E4B 模型進(jìn)行實(shí)時(shí)語音識別或離線視頻處理時(shí),其效率是未經(jīng)優(yōu)化的第三方模型的 4 倍,且電池?fù)p耗僅為后者的 40%。這種 " 軟硬一體 " 的垂直整合,是目前任何中國模型廠商都難以逾越的系統(tǒng)級護(hù)城河。
算力的經(jīng)濟(jì)賬同樣在倒向 " 中量級 " 模型。根據(jù) Spheron 的測算數(shù)據(jù),Gemma 4 31B Dense 的權(quán)重能夠完整塞入單張 80GB 的 NVIDIA H100 GPU 顯存中,實(shí)現(xiàn) FP8 精度的滿速推理。
這是一個(gè)極其微妙的平衡點(diǎn)。DeepSeek V3.2 為了維持其頂尖的邏輯能力,至少需要 8 張 H100 組成的集群才能高效運(yùn)轉(zhuǎn)。對于絕大多數(shù)中小型初創(chuàng)企業(yè)而言,這意味著每小時(shí)推理成本從 2.40 美元到 19.20 美元的跨越。
"Google 并不是在制造一個(gè)最聰明的模型,"Constellation Research 分析師 Holger Mueller 評價(jià)道," 它是在制造一個(gè)能讓開發(fā)者在不更換硬件的前提下,所能買到的、性價(jià)比最高的智能。"
在這場最后一百米的終刺沖刺中,Google 選擇了繞開昂貴的云端軍備競賽,直接降落在全球數(shù)十億部 Android 設(shè)備與數(shù)百萬個(gè)工作站的顯存里。
當(dāng)競爭對手還在爭論誰的邏輯更接近人類時(shí),Google 已經(jīng)在思考,如何讓 AI 像電力一樣,低廉且隱形地流經(jīng)每一塊電路板。
第四章:未知?jiǎng)儇?fù)與未解之局
在這場關(guān)于 " 效率 " 與 " 主權(quán) " 的突襲戰(zhàn)中,計(jì)分板上的數(shù)字正在發(fā)生微妙的漂移。 根據(jù) Design News 在 2026 年 3 月底發(fā)布的行業(yè)分析,AI 技術(shù)的突破正在以超乎預(yù)期的速度削減部署成本。
這種削減不僅發(fā)生在云端機(jī)房,更發(fā)生在離散的、邊緣的每一個(gè)節(jié)點(diǎn)。 目前的競爭格局已經(jīng)清晰:
Google 通過 Gemma 4 確立了在端側(cè)生態(tài)位上的統(tǒng)治力。當(dāng)一個(gè)開發(fā)者在沒有網(wǎng)絡(luò)連接的情況下,依然能利用手機(jī)端的 E4B 模型進(jìn)行復(fù)雜的圖像語義理解,且電池消耗僅僅下降了幾個(gè)百分點(diǎn)時(shí),Google 就已經(jīng)在 " 裝機(jī)權(quán) " 上贏下一局。
這種 " 軟硬一體 " 的先發(fā)優(yōu)勢,正在讓 Android 系統(tǒng)變成一個(gè)巨大的、由開源模型驅(qū)動(dòng)的神經(jīng)系統(tǒng)。 然而,中國廠商并沒有在算力的賬本前退縮。
DeepSeek-V4 與 Qwen 3.5 的存在,證明了即便是在參數(shù)效率極高的時(shí)代,對于 " 重型邏輯 " 和 " 工業(yè)級精度 " 的需求依然旺盛。只要企業(yè)還需要處理百萬行代碼,只要科研還需要在公理叢林中尋找路徑,中國模型在邏輯護(hù)城河內(nèi)的統(tǒng)治力便難以動(dòng)搖。
真正的變數(shù)在于 Apache 2.0 協(xié)議。 當(dāng) Google 徹底推倒許可權(quán)的高墻,原本在各陣營間搖擺的企業(yè)級用戶,開始意識到 " 數(shù)字主權(quán) " 的價(jià)值。在未來的 24 個(gè)月里,競爭的重點(diǎn)將 from " 誰的模型更聰明 ",轉(zhuǎn)向 " 誰的模型更不容易被收割 "。
這場關(guān)于 31B 與超大參數(shù)規(guī)模的對撞,本質(zhì)上是一次關(guān)于 AI 本質(zhì)的重新定義。它不再是實(shí)驗(yàn)室里的貴重?cái)[設(shè),也不再是只有巨頭才能負(fù)擔(dān)的昂貴博弈。
2026 年 4 月 3 日,距離 Gemma 4 發(fā)布不到 48 小時(shí)。
在舊金山的一間共享辦公空間里,一名獨(dú)立開發(fā)者正試著在斷網(wǎng)狀態(tài)下,通過一部 Pixel 手機(jī)運(yùn)行實(shí)時(shí)語音翻譯。屏幕上的文字跳動(dòng)得飛快,推理速度比上一代提升了整整 4 倍。 而在地球的另一端,杭州的一家物流初創(chuàng)企業(yè),正利用 Qwen 3.5 自動(dòng)生成的代碼重新部署其核心調(diào)度系統(tǒng)。
這兩幕場景背后,是兩套截然不同的計(jì)算哲學(xué):一個(gè)是極致的口袋化,一個(gè)是極致的生產(chǎn)力。 當(dāng)智能像電力一樣,以近乎零成本的姿態(tài)流經(jīng)每一塊單片機(jī)和顯存時(shí),誰是排行榜上的第一已經(jīng)不再重要。
重要的是,在這場算力與邏輯的戰(zhàn)爭中,昂貴的智能正在變成一種廉價(jià)的公共資源。 這一年,端側(cè) AI 的全球滲透率預(yù)測將首次突破 35%。大模型的上半場在云端云霧繚繞,而下半場,正悄無聲息地落進(jìn)每一個(gè)人的口袋里。