Hacker News 中文摘要

RSS订阅

谷歌发布Gemma 4开源模型 -- Google releases Gemma 4 open models

文章摘要

Google DeepMind推出Gemma 4等新一代AI系统,包括Gemini多模态模型(文本、图像、音频)、Veo视频生成、Imagen文生图等专业模型,提供强大的AI创作和交互能力。

文章总结

Google DeepMind发布Gemma 4:基于Gemini 3技术的最强开源AI模型

Google DeepMind近日发布了其最新一代开源AI模型Gemma 4,该模型基于Gemini 3的研究和技术构建,在参数效率方面实现了重大突破。

核心特点

  1. 模型规格

    • 提供E2B/E4B(适用于移动和IoT设备)和26B/31B(适用于个人电脑)四种规模
    • E2B/E4B专为边缘计算设计,可在手机、树莓派等设备上离线运行
    • 26B/31B版本为工作站提供前沿智能,适合开发本地AI服务器
  2. 技术能力

    • 支持140种语言的多语言处理
    • 具备多模态推理能力(音频和视觉理解)
    • 支持代理工作流和函数调用
    • 提供高效的微调架构
  3. 性能优势

    • 行业领先的效率表现
    • 针对不同硬件平台优化(从移动设备到消费级GPU)

部署选项

  1. 下载渠道

    • Hugging Face
    • Ollama
    • Kaggle
    • LM Studio
    • Docker
  2. 运行环境

    • Jax
    • Vertex AI
    • Keras
    • PyTorch
    • gemma.cpp
    • Google Kubernetes Engine

安全与责任

Gemma 4采用了与Google专有模型相同的严格安全协议,为企业用户提供可信赖的AI基础架构。DeepMind强调其"负责任地构建AI以造福人类"的使命。

开发者可通过Google AI Studio体验Gemma 4,或查阅官方文档获取技术细节。

评论总结

以下是评论内容的总结:

1. 性能与基准测试

  • Gemma 4性能提升:Gemma 4 E4B在多项基准测试中超越Gemma 3 27B,且参数量更少(minimaxir:"The Gemma 4 E4B variant beats the old 27B in every benchmark at a fraction of parameters")。
  • 与竞品对比:部分用户认为Gemma 4未达到Qwen 3.5 27B的性能(antirez:"The big dense Gemma 4 model does not seem to reach Qwen 3.5 27B dense model in most benchmarks")。

2. 开源与成本优势

  • 开源许可:Apache 2.0许可和基础模型可用性受到欢迎(NitpickLawyer:"Best thing is that this is Apache 2.0 (edit: and they have base models available")。
  • 成本效益:开源模型比专有模型便宜70.7%(a7om_com:"Open source models like Gemma run 70.7% cheaper than proprietary equivalents")。

3. 本地部署与移动端应用

  • 本地运行:用户期待在本地设备上运行Gemma 4(VadimPR:"It is fantastic to have local alternatives to frontier models in an offline manner")。
  • 移动端优化:E2B/E4B模型支持语音输入,适合移动端应用(NitpickLawyer:"The mobile ones have audio in (so I can see some local privacy focused translation apps)")。

4. 功能与多模态支持

  • 多模态能力:支持语音输入和视觉任务(minimaxir:"The E2B/E4B models also support voice input, which is rare")。
  • 工具调用问题:部分用户发现工具调用功能未启用(james2doyle:"function/tool calling was not enabled")。

5. 未来展望

  • 开源模型前景:用户认为开源模型将在1-2年内超越闭源模型(rvz:"We are at least 1 year and at most 2 years until they surpass closed models")。
  • Google的优势:Google拥有数据、硬件和专业知识等独特优势(wg0:"Google might not have the best coding models (yet) but they seem to have the most intelligent and knowledgeable models")。

6. 批评与质疑

  • 基准测试误导:ELO评分作为主要基准被认为具有误导性(antirez:"Featuring the ELO score as the main benchmark in chart is very misleading")。
  • 幻觉问题:在基础植物学测试中表现不佳(ceroxylon:"Even with search grounding, it scored a 2.5/5 on a basic botanical benchmark")。

7. 用户期待

  • 自我托管需求:用户期待通过几次迭代后,语言模型能满足自我托管需求(originalvichy:"One or two iterations, and I’ll be happy to say that language models are more than fulfilling my most common needs when self-hosting")。