codex cli + chatGPT API key + win 11 cmd + gpt-5-mini

# 查詢版本
codex –version
# 查詢可用版本
npm view @openai/codex versions
# 移除安裝
npm uninstall -g @openai/codex
# 安裝
npm install -g @openai/codex
# 安裝指定版本
npm install -g @openai/[email protected]
set OPENAI_API_KEY=sk-proj-***
codex -m gpt-5-mini
請留意 不要用 set OPENAI_API_KEY=”sk-proj-***” 會報錯 請使用 set OPENAI_API_KEY=sk-proj-***
參考資料

運行本地 HTML Ollama CORS (跨來源資源共用)

遇到的這個錯誤是「CORS (跨來源資源共用)」問題。這是一個瀏覽器的安全機制,用來防止網頁向不同來源的伺服器發
送請求。在您的情況下,index.html 是從您的本機檔案系統 (origin: ‘null’) 開啟的,而它嘗試存取
http://127.0.0.1:11434 上的 Ollama 伺服器,瀏覽器基於安全考量而阻止了這個請求。

如何解決:

您需要在啟動 Ollama 伺服器時,設定一個環境變數來允許來自您網頁的請求。

請依照以下步驟操作:

1. 關閉正在執行的 Ollama 服務。 如果您是透過終端機執行的,請關閉該視窗。如果您是使用 Windows
的圖形化介面版本,請在系統匣中找到 Ollama 圖示,右鍵點擊並選擇 “Quit”。

2. 使用正確的設定重新啟動 Ollama。 請開啟一個新的終端機 (命令提示字元或 PowerShell),並執行以下指令:

在 PowerShell 中:

1 $env:OLLAMA_ORIGINS=”*”
2 ollama serve

在命令提示字元 (cmd) 中:

1 set OLLAMA_ORIGINS=*
2 ollama serve

這會將 OLLAMA_ORIGINS 環境變數設定為 *,表示允許來自任何來源的請求,然後啟動 Ollama 伺服器。

即可正常使用 js 來呼叫 127.0.0.1:11434 (請留意資安問題) 的 本地 ollama gpt-oss:20b

codex cli + ollama + gpt-oss:20b 運作範例

串接地端 Ollama LLM安裝:
nodejs
codex cli  (注意版本 0.13.0  如果是 0.21.0 指令會不同)
ollama
gpt-oss:20b

 

1. 安裝 nodejs
下載點: https://nodejs.org/zh-tw/download

 

2. 安裝 codex cli
開啟 win cmd.exe 下指令即可安裝


# 查詢版本
codex --version
# 查詢可用版本
npm view @openai/codex versions
# 移除安裝
npm uninstall -g @openai/codex
# 安裝
npm install -g @openai/codex
# 安裝指定版本
npm install -g @openai/[email protected]
npm install -g @openai/[email protected]

 

3. 串接地端 Ollama LLM
下載點: https://ollama.com/download
設定 Ollama
安裝好 Ollama 後,開啟命令視窗(win cmd.exe),執行

ollama serve

把服務跑起來,開啟網頁連到http://localhost:11434/ 或 http://127.0.0.1:11434/ 會顯示 Ollama is running

4. cmd.exe 設定檔
第一次執行需要設定環境變數:

set OPENAI_API_KEY=ollama
set CODEX_OSS_BASE_URL=http://127.0.0.1:11434/v1
set CODEX_OSS_PORT=11434

# 0.13.0
codex --provider ollama -m gpt-oss:20b
# 0.21.0
codex --oss -m gpt-oss:20b

之後就可以使用這個來開 (這點感覺做的沒有很好 指令好長…怎麼讀取 /.codex/config.json or /.codex/config.yaml 要在翻看看技術文件)

# 0.13.0
codex --provider ollama -m gpt-oss:20b

# 0.21.0
codex --oss -m gpt-oss:20b

懶人建議:
自動 yes 指令增加

# 0.13.0
codex --provider ollama -m gpt-oss:20b --full-auto
# 0.21.0
codex --oss -m gpt-oss:20b --ask-for-approval on-failure

參考資料:

codex 簡介 : https://openai.com/codex/

codex cli : https://github.com/openai/codex

串接地端 Ollama LLM : https://www.gss.com.tw/blog/github-copilot-ollama-local-llm

如何在 OpenAI Codex CLI 中集成 Ollama : https://juejin.cn/post/7516362698278453286