Porady dotyczące instalacji i konfiguracji
Zainstalowałeś Codex, uruchomiłeś pierwszy prompt i dostałeś przyzwoite wyniki. Ale twój kolega, który używa go od miesiąca, jakoś dostaje odpowiedzi dwa razy szybciej, nigdy nie trafia na monity o zatwierdzenie przy podstawowych poleceniach i zawsze ma załadowane właściwe serwery MCP. Różnica to nie talent — to dobrze dostrojony config.toml i kilka poprawek środowiska, których jeszcze nie zrobiłeś.
Co wyniesiesz z tego artykułu
Dział zatytułowany „Co wyniesiesz z tego artykułu”- Produkcyjny
config.toml, który możesz dostosować do swojego przepływu pracy - Wzorce uwierzytelniania do użytku osobistego, CI i wdrożeń zespołowych
- Porady dotyczące przygotowania środowiska, które zapobiegają marnowaniu tokenów przez agenta na konfigurację
- Konfiguracje profili do przełączania między trybami przeglądu, rozwoju i automatyzacji
Podstawy instalacji
Dział zatytułowany „Podstawy instalacji”Zainstaluj wszystkie trzy powierzchnie
Dział zatytułowany „Zainstaluj wszystkie trzy powierzchnie”Codex jest najpotężniejszy, gdy używasz wielu powierzchni jednocześnie. Zainstaluj wszystkie trzy:
# CLI (wymaga Node.js 22+)npm install -g @openai/codex
# App -- pobierz z codex.openai.com# Rozszerzenie IDE -- zainstaluj z marketplace edytora (VS Code, Cursor, Windsurf)App i rozszerzenie IDE synchronizują się automatycznie, gdy oba są otwarte w tym samym projekcie. Otrzymujesz automatyczny kontekst z edytora (otwarte pliki, pozycja kursora) w kompozytorze App bez dodatkowej konfiguracji.
Zweryfikuj instalację
Dział zatytułowany „Zweryfikuj instalację”# Sprawdź wersję CLI i status autoryzacjicodex --versioncodex login statusJeśli login status kończy się kodem 0, jesteś uwierzytelniony. Jeśli nie, uruchom codex login, aby otworzyć przepływ OAuth w przeglądarce.
Przepisy config.toml
Dział zatytułowany „Przepisy config.toml”Konfiguracja deweloperska
Dział zatytułowany „Konfiguracja deweloperska”To jest konfiguracja, od której powinien zacząć większość indywidualnych programistów:
model = "gpt-5.3-codex"approval_policy = "on-failure"sandbox_mode = "workspace-write"file_opener = "cursor" # lub vscode, windsurf
# Przyspiesz powtarzane polecenia[features]shell_snapshot = true
# Klikalne powiadomienia po zakończeniu zadań[tui]notifications = ["agent-turn-complete", "approval-requested"]Konfiguracja automatyzacji
Dział zatytułowany „Konfiguracja automatyzacji”Dla CI/CD i skryptowania potrzebujesz minimalnego tarcia i ustrukturyzowanego wyjścia:
# ~/.codex/config.toml -- profil CI[profiles.ci]model = "gpt-5.1-codex-mini"approval_policy = "on-request"sandbox_mode = "workspace-write"hide_agent_reasoning = trueweb_search = "disabled"Użyj go z: codex exec --profile ci "Fix the failing test"
Walidacja konfiguracji ze schematem
Dział zatytułowany „Walidacja konfiguracji ze schematem”Dodaj tę linię na początku swojego config.toml, aby uzyskać autouzupełnianie i walidację w VS Code lub Cursor z rozszerzeniem Even Better TOML:
#:schema https://developers.openai.com/codex/config-schema.jsonTeraz twój edytor podświetla nieprawidłowe klucze i sugeruje prawidłowe wartości.
Porady dotyczące uwierzytelniania
Dział zatytułowany „Porady dotyczące uwierzytelniania”Użytek osobisty
Dział zatytułowany „Użytek osobisty”Domyślny przepływ OAuth w przeglądarce jest najprostszy:
codex loginTo otwiera przeglądarkę, uwierzytelnia przez ChatGPT i przechowuje dane uwierzytelniające w pęku kluczy systemu operacyjnego.
Uwierzytelnianie CI/CD
Dział zatytułowany „Uwierzytelnianie CI/CD”Dla środowisk headless przekaż klucz API:
printenv OPENAI_API_KEY | codex login --with-api-keyLub użyj uwierzytelniania urządzenia, gdy masz terminal, ale nie masz przeglądarki:
codex login --device-authKontrola przechowywania danych uwierzytelniających
Dział zatytułowany „Kontrola przechowywania danych uwierzytelniających”# Przechowuj dane uwierzytelniające w pliku zamiast w pęku kluczycli_auth_credentials_store = "file"
# Lub jawnie użyj pęku kluczy systemu operacyjnegocli_auth_credentials_store = "keyring"Użyj file w kontenerach i runnerach CI, gdzie dostęp do pęku kluczy jest niedostępny.
Przygotowanie środowiska
Dział zatytułowany „Przygotowanie środowiska”Aktywuj środowisko przed uruchomieniem
Dział zatytułowany „Aktywuj środowisko przed uruchomieniem”Codex dziedziczy twoje środowisko powłoki. Skonfiguruj swoje środowisko deweloperskie przed uruchomieniem Codex, aby nie marnował tokenów na sprawdzanie, co aktywować:
# Aktywuj virtualenv Pythona PRZED uruchomieniem Codexsource .venv/bin/activate
# Uruchom wymagane demonydocker compose up -d postgres redis
# Wyeksportuj zmienne, których Codex będzie potrzebowałexport DATABASE_URL="postgresql://localhost:5432/myapp"
# Teraz uruchom CodexcodexPolityka środowiska powłoki
Dział zatytułowany „Polityka środowiska powłoki”Kontroluj, które zmienne środowiskowe Codex może widzieć, aby uniknąć wycieku sekretów:
[shell_environment_policy]inherit = "core"exclude = ["AWS_*", "AZURE_*", "GITHUB_TOKEN"]set = { NODE_ENV = "development" }To zachowuje PATH i HOME, ale usuwa dane uwierzytelniające chmury. Tabela set wstrzykuje zmienne do każdego podprocesu uruchamianego przez Codex.
Instalacja uzupełniania poleceń w powłoce
Dział zatytułowany „Instalacja uzupełniania poleceń w powłoce”Uzupełnianie Tab dla wszystkich poleceń i flag Codex:
# Zsh (dodaj do ~/.zshrc, po compinit)eval "$(codex completion zsh)"
# Bash (dodaj do ~/.bashrc)eval "$(codex completion bash)"
# Fishcodex completion fish | sourceTeraz codex ex<TAB> rozwija się do codex exec, a wszystkie flagi się autouzupełniają.
Przełączanie profili
Dział zatytułowany „Przełączanie profili”Twórz profile dla różnych przepływów pracy
Dział zatytułowany „Twórz profile dla różnych przepływów pracy”model = "gpt-5.3-codex"
[profiles.review]model = "gpt-5.3-codex"model_reasoning_effort = "high"approval_policy = "never"review_model = "gpt-5.3-codex"
[profiles.quick]model = "gpt-5.1-codex-mini"approval_policy = "on-request"
[profiles.oss]model_provider = "ollama"Przełączaj w locie:
codex --profile review # Tryb głębokiej analizycodex --profile quick # Tryb szybkiej iteracjicodex --oss # Lokalny model przez OllamaUstaw domyślny profil
Dział zatytułowany „Ustaw domyślny profil”profile = "review" # Zawsze zaczyna w trybie przeglądu, chyba że zostanie nadpisanyFlagi funkcji
Dział zatytułowany „Flagi funkcji”Włącz przydatne funkcje beta
Dział zatytułowany „Włącz przydatne funkcje beta”# Włącz migawki powłoki dla szybszych powtarzanych poleceńcodex features enable shell_snapshot
# Włącz unified exec dla lepszej obsługi PTYcodex features enable unified_exec
# Wyświetl wszystkie dostępne flagi funkcjicodex features listZmiany flag funkcji są zapisywane w ~/.codex/config.toml. Gdy używasz profili, zmiana jest przechowywana w aktywnym profilu.
Jednorazowe nadpisania
Dział zatytułowany „Jednorazowe nadpisania”Nadpisz dowolną wartość konfiguracji na jedno uruchomienie bez edytowania plików:
# Użyj innego modelu na jedno zadaniecodex --model gpt-5.1-codex-mini "Quick question about this function"
# Nadpisz zagnieżdżone wartości konfiguracjicodex -c sandbox_workspace_write.network_access=true "Install this npm package"
# Włącz wyszukiwanie w sieci na jedno uruchomieniecodex --search "What's the latest React 19 API for this pattern?"Gdy coś się psuje
Dział zatytułowany „Gdy coś się psuje”- Uzupełnianie poleceń w powłoce nie działa: Linia
evalmusi być pocompinitw konfiguracji powłoki. Dla Zsh dodajautoload -Uz compinit && compinitprzed linią eval, jeśli widziszcommand not found: compdef. - Konfiguracja się nie ładuje: Uruchom
codex features list, aby zobaczyć, które funkcje są aktywne. Sprawdź błędy składni w pliku TOML za pomocą walidacji schematu. - Dane uwierzytelniające utracone po restarcie: Przełącz się z
keyringnafilew przechowywaniu danych uwierzytelniających, jeśli pęk kluczy systemu operacyjnego resetuje się przy logowaniu. Sprawdźcli_auth_credentials_storew konfiguracji. - Zastosowano zły profil: Nazwy profili rozróżniają wielkość liter. Zweryfikuj za pomocą
codex --profile <name> features list, aby potwierdzić, że profil ładuje się poprawnie. - Wyciek zmiennych środowiskowych: Przeprowadź audyt ustawień
shell_environment_policy. Uruchom Codex i poproś go oecho $SECRET_VAR, aby zweryfikować, że wykluczenia działają.
Co dalej
Dział zatytułowany „Co dalej”- Funkcje aplikacji — Opanuj aplikację desktopową po dostrojeniu konfiguracji
- Polecenia CLI — Wyciągnij maksimum z CLI z nową konfiguracją
- Optymalizacja AGENTS.md — Nałóż instrukcje projektu na swoją konfigurację