瀏覽單個文章
沒問題
Major Member
 

加入日期: Dec 2015
文章: 211
引用:
作者野口隆史
改訂閱也是一種選擇
我是自己有做一些東西
不太適合用線上 api
所以只能走本地
我有放一台電腦在客廳 24H 跑 llama-server
不過這只能應付一些基本需求
因為也沒有 gpu, 純 cpu 推理
等到真的有需要的才會開有 gpu 的電腦
我覺得我可能很長一段時間都不會有便宜的顯卡可以買


有人跟我說可以裝LM Studio。
舊 2026-04-08, 06:37 PM #24
回應時引用此文章
沒問題離線中