串接地端 Ollama LLM安裝:
nodejs
codex cli (注意版本 0.13.0 如果是 0.21.0 指令會不同)
ollama
gpt-oss:20b
1. 安裝 nodejs
下載點: https://nodejs.org/zh-tw/download
2. 安裝 codex cli
開啟 win cmd.exe 下指令即可安裝
# 查詢版本 codex --version # 查詢可用版本 npm view @openai/codex versions # 移除安裝 npm uninstall -g @openai/codex # 安裝 npm install -g @openai/codex # 安裝指定版本 npm install -g @openai/[email protected] npm install -g @openai/[email protected]
3. 串接地端 Ollama LLM
下載點: https://ollama.com/download
設定 Ollama
安裝好 Ollama 後,開啟命令視窗(win cmd.exe),執行
ollama serve
把服務跑起來,開啟網頁連到http://localhost:11434/ 或 http://127.0.0.1:11434/ 會顯示 Ollama is running
4. cmd.exe 設定檔
第一次執行需要設定環境變數:
set OPENAI_API_KEY=ollama set CODEX_OSS_BASE_URL=http://127.0.0.1:11434/v1 set CODEX_OSS_PORT=11434 # 0.13.0 codex --provider ollama -m gpt-oss:20b # 0.21.0 codex --oss -m gpt-oss:20b
之後就可以使用這個來開 (這點感覺做的沒有很好 指令好長…怎麼讀取 /.codex/config.json or /.codex/config.yaml 要在翻看看技術文件)
# 0.13.0 codex --provider ollama -m gpt-oss:20b # 0.21.0 codex --oss -m gpt-oss:20b
懶人建議:
自動 yes 指令增加
# 0.13.0 codex --provider ollama -m gpt-oss:20b --full-auto # 0.21.0 codex --oss -m gpt-oss:20b --ask-for-approval on-failure
參考資料:
codex 簡介 : https://openai.com/codex/
codex cli : https://github.com/openai/codex
串接地端 Ollama LLM : https://www.gss.com.tw/blog/github-copilot-ollama-local-llm
如何在 OpenAI Codex CLI 中集成 Ollama : https://juejin.cn/post/7516362698278453286