codex cli + ollama + gpt-oss:20b 運作範例

串接地端 Ollama LLM安裝:
nodejs
codex cli
ollama
gpt-oss:20b

串接地端 Ollama LLM
設定 Ollama
安裝好 Ollama 後,開啟命令視窗,執行

ollama serve

把服務跑起來,開啟網頁連到http://localhost:11434/ 或 http://127.0.0.1:11434/ 會顯示 Ollama is running

cmd 設定檔
第一次執行需要設定環境變數:

set OPENAI_API_KEY=ollama
set CODEX_OSS_BASE_URL=http://127.0.0.1:11434/v1
set CODEX_OSS_PORT=11434
codex --provider ollama -m gpt-oss:20b

之後就可以使用這個來開 (這點感覺做的沒有很好 指令好長…怎麼讀取 /.codex/config.json 要在翻看看)

codex --provider ollama -m gpt-oss:20b

懶人建議:
自動 yes 指令增加

codex --provider ollama -m gpt-oss:20b --full-auto

參考資料:

codex 簡介 : https://openai.com/codex/

codex cli : https://github.com/openai/codex

串接地端 Ollama LLM : https://www.gss.com.tw/blog/github-copilot-ollama-local-llm

如何在 OpenAI Codex CLI 中集成 Ollama : https://juejin.cn/post/7516362698278453286

 

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *