【重磅解讀】谷歌 Gemma 4 殺瘋了!全網最細部署教程:手把手帶你零成本白嫖谷歌開源天花板,徹底終結收費時代!
By 九姨小課堂
Summary
Topics Covered
- 口袋原子彈:5.1B模型閃電塞進手機,128K超長上下文支援三模態
- Apache 2.0協議彻底翻身:技術主權迴歸,模型價值完全屬於你
- 地圖分析能力展示:視覺解讀與局勢分析
- 文案創作一站式服務:標題簡介標籤一次搞定
Full Transcript
別再給大公司交月費 Google昨晚正式掀桌子了 Gemma4帶著Apache 2.0協議暴力登場 這不是一次常規的更新 這是AI從雲端枷鎖向 個人主權的集體大遷移 這一次Google玩的是全線降維打擊 從手機端能聽能說 完全離線的原生語義模型E2B E4B
到視訊記憶體佔用減半速度 翻倍的混合專家架構Moe 這意味著無論是在口袋裡 還是在顯卡里 你都擁有了智商直擊GPT的全能大腦 原生支援音訊和60秒影片流解析 加上256k超長上下文 Gemma4徹底終結了租用智力的時代 它不再是一個會聊天的視窗 而是能呼叫工具
能讀懂世界的私人agent 最關鍵的是 它是完全自由商用 資料不離港 今天的影片 我會先帶你拆解這個 全能核彈的家庭矩陣 手把手教你如何一鍵本地部署 並且我會展示幾個非常 常用的日常使用場景 帶你全面的瞭解Gemma4 我們直接開始 這次Google扔出的不是一個模型
而是一整個全能家族 我們先來看看最接地氣的e系列E2B和E4B 這兩個是專為手機 甚至是樹莓派 設計的口袋原子彈 別看它體量小 E2B的總引數雖然有5.1B 但推算時的有效引數僅僅2.3B E4B更是把4.5B的精華 效能塞進了8B的身軀裡 這意味著什麼
它們能像閃電一樣在手機本地跑起來 卻擁有128K的超長上下文 而且原生支援 文字加影像加音訊三模態輸入 我知道大家肯定想問 手機端到底怎麼用 有沒有APP 如果你是安卓使用者 這是Google的親兒子 已經接入了系統級的AI core 想現在體驗
直接去下載MLC CHAT 如果你是ios使用者 直接去APP store搜Pocketpal AI 將模型下載下來就可以使用了 接著我們看看這款效率專家 26B a4b 這是專門為我們手裡的 消費級顯示卡量身定製的 它採用了MOE混合專家架構 雖然總引數高達25.2B 但每次工作時
只會啟用最精銳的3.8B核心引數 配合256k的超長上下文 它能流暢的在你的3060 甚至是更加入門的顯示卡 上跑文字和影像解析 速度翻倍 視訊記憶體佔用卻直接砍半 這才是真正的效能紅利 最後是今天的智商天花板 31B Dense 實打實30.7B的全量引數
沒有半分花哨 就是為了極限效能而生 它是高效能工作站的首選 同樣擁有256k的上下文 無論是複雜的程式碼重構 還是深度影像理解 它就是目前開源邏輯的王者 但以上這一切引數 都比不上這最後一件事情重要 那就是協議的徹底翻身 這是這期影片我最想強調的
Gemma4徹底轉向Apache2.0協議 以前Google的開源總是感覺借給你用的 條款模糊 企業哪敢真心投入 但現在Google徹底放開 隨便改隨便封裝 甚至可以直接拿去賣錢 完全沒有法律追溯風險 這就是我說的技術主權 從這一刻起 模型是你的 產生的價值也是你的
這才是真正讓那些昂貴的 閉源定製感覺到顫抖的地方 好啦硬核引數看完了 大家肯定手癢了 接下來我為大家介紹多種體驗方式 小夥伴一起去試試吧 首先是線上體驗 你只需要一個Google AI studio賬號 登入之後點選這裡 在右側的模型選擇框裡 選擇Gemma模型
切換模型後就可以直接開始對話了 雖然線上體驗很方便 但這次Google真正想給我們的驚喜 是那份完全掌握在 自己手裡的技術主權 所以接下來我將演示 如何將Gemma4 部署到本地進行使用 那既然我說它是技術主權迴歸 那部署的過程就絕對不能太複雜
我們直接使用Olama進行部署 開啟Olama官網 可以透過命令一鍵安裝Olama 也可以直接下載對應的系統版本 為了整個過程更加清晰明瞭 我們點選download 下載Windows版本 大家都知道c盤的空間寸土寸金 大量的模型不可能安裝在這裡 在啟動Ollama之前 我們需要先進行一個小小的設定
我們可以在一個不常用的盤 裡建一個Ollama的專屬資料夾 這裡我命名為OllamaModels 在系統搜尋框裡搜尋環境變數 點選編輯環境變數 點選環境變數 在下方系統變數位置點選新建 變數名稱一定要一字不差的貼上進去 點選下方的瀏覽目錄 開啟剛才的OllamaModels資料夾就可以
這裡九姨多說一句 為了幫大家徹底避開這些 環境變數設定裡的碎碎坑 我專門把安裝部署的所有細節 整理成了一份超級詳細的避雷文件 大家只需要在評論區裡留言部署文件 我就會直接分享給你 點選確定 可以看到新的變數 系統已經新增成功了 繼續點選確定 關閉變數編輯頁面
雙擊安裝Ollama 這樣就安裝好了 接下來我們要載入Gemma4模型 在Ollama首頁搜尋Gemma 這裡有非常多的版本可供選擇 本期影片我測試使用的電腦是4070TI 視訊記憶體是12GB 為了更好的平衡效能 我這裡選擇安裝26B引數的模型 開啟命令框 貼上這一條程式碼
如果想要更換模型 只需要在這裡複製對應的模型名稱 然後在程式碼中進行替換就可以了 點選回車 系統會自動載入 這裡需要耐心等待 顯示這個頁面的時候 Gemma4就已經成功部署在本地了 我們可以在這裡提問 一個非常簡單的問題 我在這裡輸入 你是什麼模型 你是怎麼執行的
可以看到反應的速度還是非常快的 這個模型預設開啟思考 會先進行思考 然後輸出答案 我們也可以輸入這條指令 檢視該模型的詳細資訊 點選回車就可以看到了 當然沒有人喜歡在 黑乎乎的命令框裡和AI對話 這樣不好上傳圖片音訊等文件 那有沒有什麼更加方便使用的
類似於我們日常使用的 Gemini GPT那種的對話方塊模式當然有 只需要安裝一個瀏覽器外掛 我們一起來操作試試吧 保留命令框在後臺執行 開啟我們的瀏覽器 我這裡使用的瀏覽器是Google 當然edge等一些其他的 瀏覽器也是可以的 貼上外掛的連結 點選新增拓展程式 接下來就可以直接
在這裡和Gemma 4進行對話了 可以看到這裡已經成功連線到Ollama 我們可以在上方選擇模型 我們先來問一個最基礎的問題 讓它自我介紹一下 點選這裡可以看到它的思考過程 輸出答案的速度也是很快的 接下來我們先來用最基礎的邏輯推理題 測試一下他的智商是否到位
我在這裡輸入棉花和鐵的問題 可以看到它能識破一斤 棉花和一斤鐵的重量陷阱 並且根據核心邏輯和物理學原理 進行了細緻入微的分析 還能保持幽默的總結內容 說明它的邏輯已經達到了GPT4級別 並且能夠聽懂比較精細化的指令 現在我們來測試一下 它的圖片理解能力
這裡我們直接將一張局勢地圖拖進來 輸入這樣的提示詞 請幫我分析一下這個地圖 分析該地區的局勢 如果能附帶一些歷史遺留 問題總結和介紹就更好了 可以看到它先對地圖 進行了視覺的解讀 識別出具體的地理位置和資訊 並且根據地圖的內容 分析了局勢和衝突的核心
還按照我的要求整理了歷史遺留問題 總體的分析還是蠻精準的 接下來我們來看看它的文案寫作能力 比如我就以今天的影片內容為例 輸入這樣一句提示詞 我正在錄製這期本地 部署Gemma 4的教程影片 請根據我現在的操作 幫我寫出三個極具點選慾望的標題
以及一段100字左右的影片簡介 要突出12GB視訊記憶體也能跑 和保護隱私兩個賣點 可以看到它直接幫我做好了符合 爆款表現形式的標題以及影片的簡介 就連封面提示以及關鍵詞標籤 錄製提示也幫我寫好了 甚至可以直接拿來使用
我這裡只是做了一些簡單的測試 當然Gemma4的使用場景並不 只是侷限於以上的內容 更多的用法還等待小夥伴們自行探索 好了這就是九姨帶大家折騰 本地Gemma4的全部過程 如果你也想本地體驗Gemma4 可以按照我講的步驟部署試試 別忘了按贊訂閱支援一下 我是九姨
歡迎小夥伴們在評論區 分享你的部署心得 我們下支影片再見啦
Loading video analysis...