✍️ Gate 廣場「創作者認證激勵計劃」進行中!
我們歡迎優質創作者積極創作,申請認證
贏取豪華代幣獎池、Gate 精美周邊、流量曝光等超過 $10,000+ 豐厚獎勵!
立即報名 👉 https://www.gate.com/questionnaire/7159
📕 認證申請步驟:
1️⃣ App 首頁底部進入【廣場】 → 點擊右上角頭像進入個人主頁
2️⃣ 點擊頭像右下角【申請認證】進入認證頁面,等待審核
讓優質內容被更多人看到,一起共建創作者社區!
活動詳情:https://www.gate.com/announcements/article/47889
Google放了Gemma 4
1B、13B、27B三個尺寸,還有31B稠密版。全部Apache 2.0協議。商用隨便用。
這個license變化比模型本身重要。之前Gemma用的是Google自家協議,有限制。現在Apache 2.0,和Meta的Llama直接競爭。
模型本身的亮點:多模態——文本+視覺+音頻。31B稠密版在AIME 2026上跑了89.2%,LiveCodeBench v6拿了80%,Codeforces ELO 2150。
27B參數量對本地部署很友好。一張4090能跑。
E4B和E2B是端側版本,給手機和IoT用的。Google在鋪Gemini Nano 4的生態。
Llama在開源LLM圈子裡一家獨大太久了。Google這次不是試水,是全面進攻——覆蓋從2B到31B全參數段,Apache協議不設商用門檻,端雲一體。
對獨立開發者和小團隊來說這是好消息。競爭越激烈,免費午餐越多。
對Meta來說,Llama的護城河在收窄。