串接地端 Ollama LLM安裝:
nodejs
codex cli
ollama
gpt-oss:20b
串接地端 Ollama LLM
設定 Ollama
安裝好 Ollama 後,開啟命令視窗,執行
ollama serve
把服務跑起來,開啟網頁連到http://localhost:11434/ 或 http://127.0.0.1:11434/ 會顯示 Ollama is running
cmd 設定檔
第一次執行需要設定環境變數:
set OPENAI_API_KEY=ollama set CODEX_OSS_BASE_URL=http://127.0.0.1:11434/v1 set CODEX_OSS_PORT=11434 codex --provider ollama -m gpt-oss:20b
之後就可以使用這個來開 (這點感覺做的沒有很好 指令好長…怎麼讀取 /.codex/config.json 要在翻看看)
codex --provider ollama -m gpt-oss:20b
懶人建議:
自動 yes 指令增加
codex --provider ollama -m gpt-oss:20b --full-auto
參考資料:
codex 簡介 : https://openai.com/codex/
codex cli : https://github.com/openai/codex
串接地端 Ollama LLM : https://www.gss.com.tw/blog/github-copilot-ollama-local-llm
如何在 OpenAI Codex CLI 中集成 Ollama : https://juejin.cn/post/7516362698278453286