主題
:
Ollama for Gemma 4
瀏覽單個文章
野口隆史
Elite Member
加入日期: Mar 2001
您的住址: Rivia
文章: 7,069
剛被老婆抓去做飯了
前面其實還沒說完
以 Gemma4 來說
這個模型存在工具調用的一些錯誤
目前有修正這個錯誤的就是 llama.cpp
https://github.com/ggml-org/llama.cpp/pull/21418
還有 unsloth 的 gguf
https://huggingface.co/unsloth/gemm...F/discussions/6
直接更新模型內建的聊天模板
https://github.com/ggml-org/llama.c...terleaved.jinja
還有一個比較嚴重的問題是上下文檢查點會占用大量的記憶體
目前此 bug 也已修復
等到諸如 lm studio, ollama 修正那又不知道等到猴年馬月
https://github.com/ggml-org/llama.cpp/discussions/21480
__________________
Folding@home with GPGPU集中討論串
Unix Review:
ArchLinux
●
Sabayon
●
OpenSolaris 2008.5
●
Ubuntu 8.10
AVs Review:
GDTC
●
AntiVir SS
●
ESS
●
KIS 09
●
NIS 09
●
Norton 360 V3
I Always Get What I Want.
2026-04-07, 12:44 PM #
19
野口隆史
瀏覽公開訊息
傳送私人訊息給野口隆史
查詢野口隆史發表的更多文章
增加 野口隆史 到好友清單