2026年1月現在、コーディングAI「OpenAI Codex」を無料で、あるいは低コストで利用する方法について、最新情報をもとに詳しく解説します。
かつてはAPIのウェイトリストなどがありましたが、現在は生成AIエコシステムの中に統合され、より柔軟な使い方が可能になっています。
ChatGPT Plus以上(Plus/Pro/Team/Enterprise)の有料プランに加入していれば、 Codex CLIを追加課金なし で利用できます。これは2025年8月のGPT-5公開以降に導入された新しい仕組みです。
利用制限
Plusユーザーはパートタイムや趣味の作業、Proユーザーはフルタイムの開発作業がカバーできる目安となっています。
codex コマンドを実行し、「Sign in with ChatGPT」を選択Ollama をローカルLLMランシェとして使用し、Codex CLIと連携させることで、 APIキーなしで完全無料 で利用できます。機密情報をクラウドに送信したくない場合にも最適です。
1. Ollamaのインストール
# macOS
brew install ollama
# 起動
ollama serve
2. モデルのダウンロード
Ollamaで提供されている軽量モデルから高性能モデルまで選択可能です。
# 軽量モデル(動作が軽い)
ollama pull qwen:4b
# 高性能モデル(要VRAM)
ollama pull gpt-oss:20b
3. Codex設定ファイルの作成
~/.codex/config.toml (Windowsの場合は C:\Users\<ユーザー名>\.codex\config.toml)を作成します。
profile = "qwen-4b"
[model_providers.ollama]
name="Ollama"
base_url = "http://127.0.0.1:11434/v1"
[profiles.qwen-4b]
model = "qwen:4b"
model_provider = "ollama"
大規模なコードベースを扱う場合、デフォルトのコンテキストサイズでは不足することがあります。手動で拡張しましょう。
# 対話モード起動
ollama run gpt-oss:20b
# コンテキストサイズ設定(64000トークンに拡張)
>>> /set num_ctx 64000
# 新しいモデルとして保存
>>> /save gpt-oss-64k:20b GoogleのGemini APIの無料枠を使用してCodex CLIを動かすことも可能です。Gemini 2.5 Proは非常にコンテキストウィンドウが広く、大規模なリファクタリングに向いています。
# macOS/Linux
export GOOGLE_GENERATIVE_AI_API_KEY="あなたのAPIキー
# Windows"
set " GOOGLE_GENERATIVE_AI_API_KEY="あなたのAPIキー
設定ファイル(~/.codex/config.json):
{
"provider": "gemini",
"model": "gemini-2.5-pro-preview-03-25",
"apiKey": "あなたのGemini APIキー",
"approvalMode": "auto-edit"
}
Codexの進化系であるGPT-4/5世代のコーディング能力について、実際の挙動を確認するには以下のレビューが非常に参考になります。
▲ にゃんたのAIチャンネルによる解説。Claude Codeとの比較を交え、ターミナルでの自律的な動きを実演しています。
LM Studio は、GUIベースで最も導入しやすいローカルLLMソフトウェアです。OpenAI互換のAPIサーバー機能を持ち、既存のコーディングツールと簡単に接続できます。
特徴
それぞれの方法にはコストと手軽さ、性能のトレードオフがあります。
| 方法 | コスト | セットアップ | 性能 | おすすめ度 |
|---|---|---|---|---|
| ChatGPT有料プラン | 月$20〜 | 簡単 | 最高 | ★★★★★ |
| Ollama (ローカル) | 無料 | 普通 | 中〜高 | ★★★★☆ |
| Gemini無料枠 | 無料 | やや複雑 | 高 | ★★★☆☆ |
| LM Studio | 無料 | やや複雑 | 中 | ★★★☆☆ |
すでにChatGPT Plus/Proを契約している
👉 方法1 が最適。コストゼロ・高性能・セットアップ不要の三拍子が揃っています。
完全に無料で試したい・オフラインで使いたい
👉 方法2 (Ollama) がおすすめ。機密情報を守りながら、強力なローカルLLM運用が可能です。
超長文のコードを読み込ませたい
👉 方法3 (Gemini) が有効。100万トークン級のコンテキストで、ライブラリ全体を理解できます。
GUIで手軽に管理したい
👉 方法4 (LM Studio) 。コマンドライン操作が苦手な場合でも安心です。
AIコーディングをより深く学びたい方には、以下の書籍がおすすめです。
Codex CLI自体は無料でダウンロードできますが、バックエンドのLLM利用料がボトルネックになりがちです。しかし、2026年現在はローカルLLMの性能向上や、各社の無料枠・サブスク同梱により、選択肢が大幅に増えました。
最終的なコードの品質責任は人間にありますが、これらのツールを使いこなすことで、開発効率は劇的に向上します。まずは ChatGPT Plus連携 か Ollama から試してみることをおすすめします。