2026/03/02

這几天試了一下 ollama

由於沒有GPU 所以跑大模型很吃力

只能選小模型來跑

單純跑ollama時回應速度還接受

但如果使用 openclaw 或 opencode 再呼叫 速度會非常慢


https://ollama.com/

沒有留言: