Gemma 3n 工具箱
开始Gemma 3n开发所需的一切。从快速设置到高级部署策略。
Ollama 就绪 Hugging Face 兼容 iOS 优化
快速开始工具
O
Ollama 设置
使用Ollama在5分钟内本地运行Gemma 3n。
# 首先安装Ollama
ollama run gemma-3n:e4b
# 或者使用更小的模型
ollama run gemma-3n:e2b
🤗
Hugging Face
直接从Hugging Face Hub使用Gemma 3n模型。
from transformers import AutoTokenizer, AutoModelForCausalLM
model_name = "google/gemma-3n-e4b-it"
model = AutoModelForCausalLM.from_pretrained(model_name)
平台集成
📱 iOS 开发
在iOS设备上部署Gemma 3n模型,获得优化性能。
推荐设置:
- Gemma 3n E2B for iPhone (2GB模型)
- CoreML转换以获得最佳性能
- GGUF量化以减少大小
# 转换为CoreML
pip install coremltools
# 遵循我们的详细iOS指南
🔧 微调工具
为您的特定用例定制Gemma 3n模型。
可用方法:
- LoRA (低秩适应)
- Unsloth实现2倍更快训练
- Google Colab笔记本就绪
# 从Unsloth开始
pip install unsloth
# 或尝试我们的LoRA教程
硬件要求
模型 | RAM (FP16) | RAM (4-bit) | 最佳用例 |
---|---|---|---|
Gemma 3n E2B | 4GB | 2GB | 移动设备、边缘设备 |
Gemma 3n E4B | 8GB | 4GB | 笔记本电脑、工作站 |
✅ 仅CPU
两个模型在仅CPU设置上都能高效运行
🚀 GPU加速
使用CUDA/Metal支持显著提升速度
📱 移动就绪
E2B针对iOS和Android部署优化
官方资源
直接从Google和开源社区获取最新的官方文档、研究论文和社区讨论。
Google 官方
下载模型
Hugging Face Hub
官方模型仓库,提供多种格式选项。