![]() |
PCDVD數位科技討論區
(https://www.pcdvd.com.tw/index.php)
- 七嘴八舌異言堂
(https://www.pcdvd.com.tw/forumdisplay.php?f=12)
- - Ollama for Gemma 4
(https://www.pcdvd.com.tw/showthread.php?t=1218133)
|
|---|
引用:
突然想到一件事情,如果我這個UI前端改用C++實現,你會接受嗎? |
引用:
不是用哪種語言實作的問題。 Agent 有很多地方可以優化。 看看之前 claude agent source code 洩漏,多少人去挖寶。 不用真的閉門造車。 |
感謝建議,是否使用ROCM的問題我也問過Gemini。
它給的建議是Vulkan足矣,它也建議我使用GPU + GPU混合的模式, 所以才會有-ngl 99 -t8 的組合。 Gemini也說我的環境不需要--fit on --fit-target 128,原因在我的VRAM為32G。 全部的東西載入後應該只會佔用22G的空間,剩下10G應該足夠給windows繪製畫面使用。 另外我用的作業系統是windows,除非我打開WSL,否則我也只有Vulkan這個版本可以選。 引用:
|
引用:
你有時間的話可以自己去試 我已經直接告訴你 ai 可以寫出能動的東西 但他不知道什麼叫做"簡潔高效" 現在 ai 寫不出跟人類一樣高性能的解析器 你可以去寫看看,然後發 PR 到 llama.cpp 看他們接不接受 我只是一個網路上的路人 沒有什麼接不接受的問題 重點是 llama.cpp 他們接不接受你的代碼 |
引用:
ROCM 跟 Vulkan 性能差很多 你可以裝個 opencode,讓 agent 在你的環境下編譯 llama.cpp AMD GPU 會選擇 Vulkan 做後端 那已經是去年的事情,ROCM 目前在 RDNA 3/3.5/4 都支援的很好 沒有選擇的時候才會用 Vulkan |
燒點錢,claude code直接用opus不好嗎?
自己維護模型簡直是個大坑 |
| 所有的時間均為GMT +8。 現在的時間是09:22 PM. |
vBulletin Version 3.0.1
powered_by_vbulletin 2026。