· ai-tools / claude-code / codex
Claude Code vs Codex 2026: So sánh hai AI agent trên terminal
Claude Code thắng về chất lượng code (~79.6% SWE-bench Verified) và context window (1M token). Codex CLI thắng về hiệu quả token (4×), tác vụ terminal, và async delegation. Cả hai từ $20/tháng.
Bởi Ethan
2.024 từ · 11 phút đọc
Claude Code cho code chất lượng hơn. Codex CLI đốt ít token hơn để đến đích. Nếu bạn làm việc đa file phức tạp trên codebase lớn và context là tất cả — chọn Claude Code. Nếu bạn muốn một terminal agent nhanh, tự động, có thể bật lên chạy rồi đi làm việc khác — chọn Codex CLI, và cân nhắc dùng cả hai.
Bài này dành cho ai
Các developer đang chọn giữa Claude Code và Codex CLI vào giữa năm 2026 — hai terminal AI agent cùng sống trong shell nhưng tiếp cận công việc khác nhau hoàn toàn. Đây là so sánh terminal-only. Nếu bạn muốn IDE với autocomplete inline, cả hai đều không phải thứ bạn cần — hãy xem Cursor.
Phân biệt “Codex”
Trước tiên cần làm rõ: có hai sản phẩm khác nhau cùng tên Codex.
| Sản phẩm | Thời kỳ | Trạng thái |
|---|---|---|
| Codex cũ (code-davinci-002) | 2021–2023 | Đã ngừng hoạt động |
| Codex mới (CLI + Web) | 2025–nay | Đang hoạt động |
Codex cũ là API code completion đã hỗ trợ GitHub Copilot phiên bản đầu, bị OpenAI khai tử tháng 3, 2023. Mọi nội dung trong bài này đề cập đến Codex mới — sản phẩm agent ra mắt năm 2025, có cả bản CLI local lẫn cloud service.
Chúng tôi đang so sánh gì
Claude Code: terminal agent tương tác của Anthropic. Chạy local, kết nối model của Anthropic trên cloud. Cập nhật đến tháng 5, 2026, Sonnet 4.6 trên gói Pro.
Codex CLI: terminal agent open-source của OpenAI, viết bằng Rust. Ra mắt ngày 15 tháng 4, 2025 cùng với các model o3 và o4-mini. Model mặc định hiện tại: GPT-5.5.
Dữ liệu benchmark: SWE-bench Verified từ bài viết ra mắt Sonnet 4.6 của Anthropic (trung bình 10 lần chạy) và bài viết ra mắt codex-1 của OpenAI. Dữ liệu cộng đồng từ bài so sánh trực tiếp của Composio.
Cài đặt và chạy lần đầu
Claude Code
# macOS / Linux / WSL
curl -fsSL https://claude.ai/install.sh | bash
# Homebrew
brew install --cask claude-code
# Windows
winget install Anthropic.ClaudeCode
# Chạy
cd your-project
claude
Claude Code yêu cầu gói Claude trả phí — tối thiểu Pro $20/tháng. Lần chạy đầu tiên mở cửa sổ trình duyệt để xác thực OAuth. Không có gói miễn phí.
Codex CLI
npm i -g @openai/codex
codex
Codex CLI yêu cầu ChatGPT Plus ($20/tháng) hoặc OpenAI API key. Cách dùng API key hoạt động headless — không cần trình duyệt, phù hợp hơn cho CI và automation.
Cả hai công cụ đều hỗ trợ macOS, Linux, và Windows. Claude Code còn có extension cho VS Code và JetBrains, cùng khả năng theo dõi phiên làm việc qua app Claude trên iOS.
Hiệu năng benchmark
SWE-bench Verified (tác vụ lập trình thực tế)
| Hệ thống | Điểm | Phương pháp |
|---|---|---|
| Claude Sonnet 4.6 + prompt tuning | 80.2% | “dùng tools 100+ lần, viết tests trước” |
| Claude Sonnet 4.6 | ~79.6% | Trung bình 10 lần chạy, adaptive thinking |
| codex-1 (Codex lúc ra mắt, 2025) | 72.1% | OpenAI scaffold |
Nguồn Claude: bài viết ra mắt Sonnet 4.6 của Anthropic — trung bình 10 lần chạy xấp xỉ 79.6%, đạt 80.2% khi dùng prompt tuning. Nguồn Codex: bài viết ra mắt codex-1 của OpenAI — codex-1 là phiên bản o3 được tối ưu cho lập trình qua reinforcement learning trên bài toán thực tế.
Lưu ý quan trọng: OpenAI ngừng công bố điểm SWE-bench Verified cho các model mới hơn (GPT-5.x) từ đầu năm 2026, lý do lo ngại nhiễm dữ liệu training. Con số 72.1% là của codex-1 lúc mới ra mắt. Codex CLI hiện chạy GPT-5.4 và GPT-5.5 theo mặc định — không có benchmark công khai tương đương cho các model này.
So sánh tác vụ trực tiếp
Composio thực hiện so sánh trực tiếp hai tác vụ — chuyển Figma sang React component và xây dựng tính năng scheduler:
- Đầu ra của Claude Code có reasoning và documentation đầy đủ hơn
- Đầu ra của Codex ngắn gọn hơn và chạy nhanh hơn
Composio cũng đo lượng token tiêu thụ trên cả hai tác vụ:
| Tác vụ | Claude Code | Codex CLI | Tỷ lệ |
|---|---|---|---|
| Figma → React component | 6.2M token | 1.5M token | 4.1× |
| Tính năng scheduler | 234K token | 72K token | 3.2× |
Codex dùng ít hơn đến 4× token cho cùng một tác vụ. Trên gói Pro hay API, chênh lệch này ảnh hưởng trực tiếp đến chi phí.
Context window: khoảng cách thực tế lớn nhất
Context window của Claude Code là 1 triệu token — tương đương khoảng 750,000 từ code. Trên thực tế, bạn có thể load cả một monorepo lớn cùng lúc. Đây là con số quan trọng nhất cho các tác vụ refactor đa file phức tạp hay debug session trải dài trên nhiều file.
Codex CLI được cấu hình với khoảng 128K token. Cộng đồng ghi nhận nhiều vấn đề context exhaustion trên codebase lớn — tính năng auto-compression không phải lúc nào cũng kích hoạt đúng lúc.
Nếu công việc của bạn không vượt quá 100K token active context, khoảng cách này không thành vấn đề. Nếu bạn thường xuyên làm việc trên toàn bộ monorepo Rails hay Django, context window của Claude Code là lợi thế quyết định.
Interactive vs async: phân biệt rõ ràng, nhưng phức tạp hơn vào 2026
Cách nhìn ban đầu “Claude Code = interactive, Codex = cloud-async” đúng vào năm 2025. Hai công cụ đã thu hẹp khoảng cách từ đó.
Claude Code vẫn chủ yếu interactive. Bạn và model làm việc theo vòng thời gian thực — Claude đề xuất, bạn xem diff, Claude chỉnh. Vòng lặp agentic chặt và minh bạch. Khả năng async tồn tại qua GitHub Actions và Routines, nhưng trải nghiệm cốt lõi là đồng bộ.
Codex CLI cũng là công cụ terminal tương tác trong sử dụng hằng ngày. Điểm khác biệt: codex cloud khởi động tác vụ trong sandbox cloud của OpenAI dưới dạng background job. Bạn có thể bắt đầu một refactor, đi ăn trưa, và quay lại với diff chờ sẵn. Nhiều cloud task có thể chạy song song. Claude Code chưa có story async “bắn rồi quên” tương đương.
Nếu bạn muốn xếp hàng nhiều tác vụ hoặc chạy việc qua đêm mà không cần giữ terminal session, cloud mode của Codex là lợi thế thực sự.
Hệ sinh thái model và MCP
Claude Code chạy model của Anthropic — Sonnet 4.6 trên Pro, Opus 4.7 trên Max. Không thể swap sang GPT hay Gemini. Bù lại: hỗ trợ MCP đầy đủ (cả stdio lẫn HTTP endpoint) và hệ sinh thái tích hợp trưởng thành — Figma, Jira, Slack, GitHub, và công cụ tùy chỉnh qua MCP protocol.
Codex CLI hỗ trợ nhiều model hơn (OpenAI models docs):
| Model | Ghi chú |
|---|---|
| GPT-5.5 | Khuyến nghị cho tác vụ phức tạp |
| GPT-5.4 | Model chính |
| GPT-5.4-mini | Nhanh, hiệu quả |
| GPT-5.3-Codex | Chuyên cho coding |
MCP của Codex CLI chỉ hỗ trợ stdio. Không có HTTP endpoint mà không cần workaround. Nếu workflow của bạn phụ thuộc vào MCP tool qua HTTP, Claude Code là lựa chọn đơn giản hơn nhiều.
Giá
Claude Code
| Gói | Giá | Ghi chú |
|---|---|---|
| Pro | $20/tháng | Bao gồm Claude Code; có giới hạn usage |
| Max 5× | $100/tháng | Usage gấp 5× Pro |
| Max 20× | $200/tháng | Usage gấp 20× Pro + Opus 4.7 |
Gói Pro cháy nhanh. Cộng đồng đồng thuận: một prompt đa file phức tạp có thể tiêu 50–70% session limit trong 5 giờ. Dùng nặng hằng ngày thực tế cần nâng lên Max.
Codex CLI
| Gói | Giá | Ghi chú |
|---|---|---|
| Plus | $20/tháng | Bao gồm Codex CLI |
| Pro $100 | $100/tháng | Usage gấp 5× (10× đến 31/5/2026 theo khuyến mãi) |
| Pro $200 | $200/tháng | Usage gấp 20× |
Giá cập nhật tháng 4, 2026 để tính theo token API thay vì per-message.
Vì Codex dùng ít hơn 4× token mỗi tác vụ, chi phí thực tế trên mỗi đơn vị công việc thấp hơn đáng kể ở các gói tương đương.
Trải nghiệm cộng đồng
Nhận xét nhất quán trong các thread cộng đồng: “Claude Code cho output chất lượng hơn, nhưng Codex dễ dùng hơn trong công việc hằng ngày.” Hiệu quả token và tính dễ đoán của chi phí là lý do được nhắc đến nhiều nhất khi quyết định.
Phàn nàn về Claude Code thường xoay quanh chi phí vượt dự kiến trên gói Pro. Phàn nàn về Codex thường là “làm quá nhiều thứ” — thay đổi tự động quá mức khó audit — và context exhaustion trên repo lớn.
Xu hướng đang nổi lên trong giới developer giàu kinh nghiệm: dùng cả hai. Claude Code cho giai đoạn thiết kế và reasoning phức tạp. Codex CLI cho triển khai tự động và tác vụ chạy dài.
Nên dùng cái nào
| Trường hợp | Chọn |
|---|---|
| Refactor đa file phức tạp trên monorepo lớn | Claude Code |
| Cần độ chính xác benchmark cao nhất cho một PR khó | Claude Code (Max) |
| Chạy tác vụ async kiểu bật xong để đó | Codex Cloud |
| Daily driver với ngân sách $20/tháng | Codex CLI |
| Tích hợp MCP (Figma, Jira, Slack) | Claude Code |
| Terminal/DevOps/shell nặng | Codex CLI |
| Agent open-source có thể audit và self-host | Codex CLI |
| Load toàn bộ codebase vào context cùng lúc | Claude Code (1M token) |
Kết luận
Chọn Claude Code nếu context window quan trọng với công việc của bạn — bất cứ thứ gì liên quan đến nhận thức toàn bộ monorepo, reasoning đa file phức tạp, hoặc tích hợp MCP. Claude Sonnet 4.6 đạt khoảng 79.6% trên SWE-bench Verified (80.2% với prompt tuning) — cao nhất trong nhóm commercial terminal agent — và context window 1M token là rộng nhất hiện có.
Chọn Codex CLI nếu bạn hạn chế ngân sách token, muốn mô hình async delegation nhanh hơn, hoặc làm DevOps-heavy terminal work. Lợi thế 4× token efficiency là có thật, và codebase open-source cho phép bạn audit chính xác những gì đang diễn ra.
Với ngân sách cố định $20/tháng: Codex Plus đi được xa hơn trước khi chạm giới hạn. Claude Code Pro cháy nhanh khi dùng nặng.
Nếu đây là công việc toàn thời gian của bạn, những người làm tốt nhất trong năm 2026 đang chạy cả hai.
Lưu ý
- Context window 1M token của Claude Code là thực, nhưng context thực tế sử dụng được vào khoảng 830K sau overhead.
- Dữ liệu SWE-bench của Codex (72.1%) là cho model codex-1 lúc ra mắt năm 2025. Không có điểm công khai tương đương cho GPT-5.4 hay GPT-5.5 — các model đang chạy mặc định trên CLI hiện tại.
- Số liệu tiêu thụ token lấy từ so sánh hai tác vụ của Composio. Kết quả thực tế sẽ khác tùy loại tác vụ và kích thước codebase.
- Đường link Cursor ở trên là affiliate link — toolchew nhận hoa hồng khi có đăng ký qua
/go/cursor.
Tài liệu tham khảo
- Anthropic: Claude Sonnet 4.6 — Điểm SWE-bench Verified (~79.6% trung bình 10 lần chạy; 80.2% với prompt tuning) và phương pháp
- OpenAI: Introducing Codex — Ra mắt codex-1, điểm SWE-bench 72.1%
- Composio: Claude Code vs OpenAI Codex — So sánh trực tiếp hai tác vụ, dữ liệu tiêu thụ token
- OpenAI Models Documentation — Danh sách model GPT-5.x