Google 近日正式釋出其新一代開源模型 Gemma 4,這款模型被譽為目前市場上最強大的「本地端」開放模型之一。與以往的大型模型不同,Gemma 4 採用了先進的架構,包含密集模型 (Dense) 與專家混合 (MoE) 兩種版本,旨在為開發者提供更高的靈活性與推論效。
透過將 Gemma 4 整合至 Google Cloud、Vertex AI 或雲端主權環境,開發者能更輕易地將這款強大的開源力量轉化為實際的商業應用。

安裝的環境
- Windows / Mac工具:Ollama · LM Studio 最簡單,圖形介面,適合入門者使用。
- Linux / VPS 工具:Ollama CLI 適合有伺服器的進階用戶,24/7運行。
- Android 手機工具:Google AI Edge Gallery 完全離線,手機即可跑 E2B/E4B。
- 雲端工具:免費的Google AI Studio 不需安裝,開瀏覽器就能使用。
應用範圍
- 取代付費 API,省下tokens費用,簡單在本地跑任務,大幅降低每月AI費用。
- 本地處理機密文件 :合約、財報、個資等等,資料完全不外傳。
- 串接 Agent 工作流: 原生 Function Calling,自動化任務。
- 多語言翻譯 140+ 種語言,離線也能跑。
- 離線程式碼生成 在沒有網路環境也能寫code、改code。
使用Ollama安裝步驟
- 下載 Ollama 前往 ollama.com 下載安裝Ollama應用程式。
- 開啟終端機 (Windows:使用「管理員PowerShell 」,Mac則使用「Terminal」。
- 輸入指令下載模型 ollama run gemma4:e2b (手機等級)或 ollama run gemma4:e4b (筆電等級)或 ollama run gemma4:26b (性能高的電腦,Mac要求至少記憶體在32GB)。
- 開始對話 模型下載完成後直接輸入問題就能用,但你也可以安裝其他的聊天App,介面比較容易輸入,例如我在Mac就使用Open WebUI,這需要先安裝Dock。
Mac安裝Open WebUI

第一步:安裝 Docker Desktop
- 前往 Docker 官網 下載適用於 Mac 的安裝檔(Apple Silicon 晶片請選 Apple Chip 版本)。
- 開啟下載的
.dmg檔案,將 Docker 圖示拖拽至 Applications(應用程式)資料夾。 - 從應用程式中啟動 Docker Desktop,並確保右下角的狀態顯示為綠色的「Running」。
第二步:安裝 Ollama(選配,推薦)
若您想在本地端執行 AI 模型(如 Llama 3 或 Gemma 4),建議先安裝 Ollama:
- 前往 Ollama 官網 下載並安裝 Mac 版。
- 啟動 Ollama 應用程式,它會在背景執行。
第三步:使用 Terminal 安裝 Open WebUI
- 開啟 Mac 內建的 Terminal(終端機)。
- 複製並貼上以下指令,這會自動下載並啟動 Open WebUI:
docker run -d -p 3000:8080 –add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data –name open-webui –restart always ghcr.io/open-webui/open-webui:main
註:-p 3000:8080 表示將網頁存取埠設定為 3000。
第四步:存取介面
- 打開瀏覽器(如 Safari 或 Chrome),輸入:
http://localhost:3000。 - 第一次登入時需點擊 Sign Up(註冊),輸入您的名稱、Email 與密碼。
- 注意:第一個註冊的帳號會自動獲得管理員權限。
常見問題與操作
- 如何選擇模型:登入後,點擊左上角的「Select a Model」。如果您已安裝 Ollama,Open WebUI 通常會自動偵測到其中的模型。
- 停止服務:在 Docker Desktop 的 Containers 分頁中,可以隨時停止(Stop)或重啟(Restart)
open-webui容器。
FB留言
探索更多來自 不老頑童生活日誌 的內容
訂閱即可透過電子郵件收到最新文章。
