主題
:
Ollama for Gemma 4
瀏覽單個文章
沒問題
Major Member
加入日期: Dec 2015
文章: 211
引用:
作者
野口隆史
改訂閱也是一種選擇
我是自己有做一些東西
不太適合用線上 api
所以只能走本地
我有放一台電腦在客廳 24H 跑 llama-server
不過這只能應付一些基本需求
因為也沒有 gpu, 純 cpu 推理
等到真的有需要的才會開有 gpu 的電腦
我覺得我可能很長一段時間都不會有便宜的顯卡可以買
有人跟我說可以裝LM Studio。
2026-04-08, 06:37 PM #
24
沒問題
瀏覽公開訊息
傳送私人訊息給沒問題
查詢沒問題發表的更多文章
增加 沒問題 到好友清單