Gemma 3n 工具箱

开始Gemma 3n开发所需的一切。从快速设置到高级部署策略。

Ollama 就绪 Hugging Face 兼容 iOS 优化

快速开始工具

O

Ollama 设置

使用Ollama在5分钟内本地运行Gemma 3n。

# 首先安装Ollama ollama run gemma-3n:e4b # 或者使用更小的模型 ollama run gemma-3n:e2b
完整指南 →
🤗

Hugging Face

直接从Hugging Face Hub使用Gemma 3n模型。

from transformers import AutoTokenizer, AutoModelForCausalLM model_name = "google/gemma-3n-e4b-it" model = AutoModelForCausalLM.from_pretrained(model_name)
浏览模型 →
⚖️

E2B vs E4B

交互式工具帮助您选择正确的模型大小。

E2B: 移动友好 4GB RAM
E4B: 更高准确性 8GB RAM
详细对比 →

平台集成

📱 iOS 开发

在iOS设备上部署Gemma 3n模型,获得优化性能。

推荐设置:

  • Gemma 3n E2B for iPhone (2GB模型)
  • CoreML转换以获得最佳性能
  • GGUF量化以减少大小
# 转换为CoreML pip install coremltools # 遵循我们的详细iOS指南
iOS部署指南 →

🔧 微调工具

为您的特定用例定制Gemma 3n模型。

可用方法:

  • LoRA (低秩适应)
  • Unsloth实现2倍更快训练
  • Google Colab笔记本就绪
# 从Unsloth开始 pip install unsloth # 或尝试我们的LoRA教程

硬件要求

模型 RAM (FP16) RAM (4-bit) 最佳用例
Gemma 3n E2B 4GB 2GB 移动设备、边缘设备
Gemma 3n E4B 8GB 4GB 笔记本电脑、工作站
✅ 仅CPU

两个模型在仅CPU设置上都能高效运行

🚀 GPU加速

使用CUDA/Metal支持显著提升速度

📱 移动就绪

E2B针对iOS和Android部署优化

准备使用Gemma 3n构建应用了吗?

加入已在生产环境中使用Gemma 3n的数千名开发者。

PWA已就绪