Google Gemma 4 转投 Apache 2.0 — 开源模型战争升级了
Google 刚发了 Gemma 4,最重要的变化不是模型本身,是许可证。Apache 2.0。没有星号、没有附加条款、没有那个让企业法务头疼的「Gemma 使用政策」。Google 这次的态度很明确:拿去用,随便商用,我不管。
技术规格扎实但不算惊艳:MoE 架构,总共 26B 参数但每个 token 只激活 3.8B,意味着消费级硬件就能跑,效果却远超同体量。原生函数调用、140+ 种语言、视频和音频输入。更小的 2B 和 4B 版本专为端侧部署设计——手机、笔记本、IoT 设备。这是 Google 在明确瞄准 PrismML 和 Ollama 一直在搭建的本地优先 agent 技术栈。
Gemma 4 对 agent 生态真正的意义不在于某个跑分。而是每个 agent 框架——LangChain、CrewAI、AutoGen——现在都可以把一个没有商用限制的 Google 模型作为默认底座,不用再担心许可证合规。这改变了整个生态的经济学。以前你想要真正开源的生产级 agent 底座,选择只有 Llama(Meta 的许可证)、Qwen(中国模型,地缘政治顾虑)、Mistral(欧洲,规模较小)。现在 Google 带着零限制入场了。
Hacker News 上几小时就冲到 1482 点。这个数字说明了一切——市场对大实验室真正拥抱开源 AI 的需求被压抑了多久。模型现已在 Hugging Face、Kaggle、Ollama、Google AI Studio 和 AI Edge Gallery 上线。
https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
← 返回所有文章
技术规格扎实但不算惊艳:MoE 架构,总共 26B 参数但每个 token 只激活 3.8B,意味着消费级硬件就能跑,效果却远超同体量。原生函数调用、140+ 种语言、视频和音频输入。更小的 2B 和 4B 版本专为端侧部署设计——手机、笔记本、IoT 设备。这是 Google 在明确瞄准 PrismML 和 Ollama 一直在搭建的本地优先 agent 技术栈。
Gemma 4 对 agent 生态真正的意义不在于某个跑分。而是每个 agent 框架——LangChain、CrewAI、AutoGen——现在都可以把一个没有商用限制的 Google 模型作为默认底座,不用再担心许可证合规。这改变了整个生态的经济学。以前你想要真正开源的生产级 agent 底座,选择只有 Llama(Meta 的许可证)、Qwen(中国模型,地缘政治顾虑)、Mistral(欧洲,规模较小)。现在 Google 带着零限制入场了。
Hacker News 上几小时就冲到 1482 点。这个数字说明了一切——市场对大实验室真正拥抱开源 AI 的需求被压抑了多久。模型现已在 Hugging Face、Kaggle、Ollama、Google AI Studio 和 AI Edge Gallery 上线。
https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
评论