Wprowadzenie do Model Context Protocol
Twój asystent AI potrafi napisać idealne zapytanie do bazy danych, ale nie ma pojęcia, jakie tabele istnieją w Twojej produkcyjnej bazie. Potrafi wygenerować pixel-perfect komponent React, ale nigdy nie widział Twoich projektów w Figmie. Potrafi przygotować wiadomość commita, ale nie może przeczytać Twojej historii git. Ten rozdzwięk między surową inteligencją a faktycznym kontekstem to największe wąskie gardło w dzisiejszym AI-assisted developmencie.
Model Context Protocol (MCP) eliminuje to wąskie gardło. To otwarty standard, pierwotnie stworzony przez Anthropic i obecnie przyjęty w całej branży, który zapewnia uniwersalny interfejs dla asystentów AI do łączenia się z zewnętrznymi narzędziami, źródłami danych i usługami. Pomyśl o nim jak o USB-C dla AI: jedno ustandaryzowane połączenie, które działa ze wszystkim.
Czego się nauczysz
Dział zatytułowany „Czego się nauczysz”- Jasny model mentalny tego, jak klienci, serwery i transporty MCP współpracują ze sobą
- Instrukcje konfiguracji pierwszego serwera MCP w Cursor, Claude Code i Codex
- Rozumienie różnicy między serwerami lokalnymi (STDIO) a zdalnymi (Streamable HTTP)
- Framework do podejmowania decyzji, które serwery MCP dodać do swojego workflow jako pierwsze
Jak działa MCP
Dział zatytułowany „Jak działa MCP”Architektura jest prosta. Trzy komponenty wchodzą w interakcję w każdym połączeniu MCP:
Host MCP — Twój asystent AI (Cursor, Claude Code lub Codex). To aplikacja, która potrzebuje dostępu do zewnętrznych możliwości.
Klient MCP — Lekka warstwa połączeniowa osadzona wewnątrz hosta. Każdy klient utrzymuje pojedyncze połączenie z jednym serwerem MCP.
Serwer MCP — Aplikacja, która udostępnia narzędzia, prompty i zasoby poprzez protokół. Serwer może dać AI możliwość odpytywania bazy danych, czytania projektów Figma lub przeszukiwania dokumentacji.
Gdy AI zdecyduje, że potrzebuje zewnętrznych informacji, klient wysyła ustrukturyzowane żądanie do odpowiedniego serwera. Serwer wykonuje akcję (odpytanie bazy danych, pobranie pliku, wywołanie API) i zwraca ustrukturyzowaną odpowiedź. AI następnie używa tej odpowiedzi jako kontekstu dla swojej następnej akcji.
Serwery MCP lokalne vs. zdalne
Dział zatytułowany „Serwery MCP lokalne vs. zdalne”MCP obsługuje dwa tryby transportu:
- Lokalne (STDIO) — Serwer MCP działa na Twojej maszynie. Klient komunikuje się poprzez standardowe wejście/wyjście. Tak działa większość serwerów filesystem, git i bazodanowych. Szybkie, bez zależności sieciowej, ale ograniczone do Twojego lokalnego środowiska.
- Zdalne (Streamable HTTP / SSE) — Serwer MCP działa w chmurze. Klient łączy się przez HTTPS, zwykle z OAuth 2.1 do uwierzytelniania. Tak Atlassian, Cloudflare i inne platformy SaaS udostępniają swoje serwery MCP. Działa z każdego miejsca, ale wymaga dostępu do sieci i uwierzytelniania.
Konfiguracja pierwszego serwera MCP
Dział zatytułowany „Konfiguracja pierwszego serwera MCP”Podłączmy serwer dokumentacji Context7 — daje on Twojemu AI aktualną dokumentację tysięcy bibliotek open-source. Ten jeden serwer eliminuje najczęstszy tryb awarii: AI generujące kod dla przestarzałych API.
Utwórz lub edytuj .cursor/mcp.json w katalogu głównym projektu:
{ "mcpServers": { "context7": { "command": "npx", "args": ["-y", "@upstash/context7-mcp@latest"] } }}Otwórz Settings > MCP Servers i sprawdź, czy obok “context7” pojawia się zielona kropka. Jeśli jest czerwona, zrestartuj Cursor.
Dodaj do .claude/settings.json w projekcie (lub uruchom claude mcp add):
{ "mcpServers": { "context7": { "command": "npx", "args": ["-y", "@upstash/context7-mcp@latest"] } }}Uruchom /mcp w Claude Code, aby zweryfikować połączenie. Powinieneś zobaczyć “context7: connected”.
Dodaj do ~/.codex/config.toml:
[mcp.context7]transport = "stdio"command = "npx"args = ["-y", "@upstash/context7-mcp@latest"]Zrestartuj Codex, aby załadować nowy serwer. Narzędzia pojawią się na liście dostępnych narzędzi.
Ekosystem MCP w pigułce
Dział zatytułowany „Ekosystem MCP w pigułce”Dzisiaj istnieje ponad 20 000 serwerów MCP. Dzielą się na przewidywalne kategorie:
| Kategoria | Co robi | Przykłady |
|---|---|---|
| Dokumentacja | Aktualna dokumentacja bibliotek, referencje API | Context7, Augments, Ref Tools |
| Kontrola wersji | Operacje git, zarządzanie PR, wyszukiwanie kodu | GitHub MCP, GitLab MCP, Git MCP |
| System plików | Czytanie/pisanie plików, operacje na katalogach | Official Filesystem, Desktop Commander |
| Przeglądarka | Interakcja ze stronami, zrzuty ekranu, testy E2E | Playwright MCP, Puppeteer MCP |
| Baza danych | Inspekcja schematu, zapytania, migracje | Prisma, Supabase, MongoDB, SQLite |
| Zarządzanie projektami | Tickety, sprinty, aktualizacje statusu | Atlassian Rovo, Linear, Jira |
| Design | Dane warstw Figma, biblioteki komponentów | Figma Dev Mode, shadcn/ui MCP |
| Platforma chmurowa | Zarządzanie zasobami, deploye, logi | Cloudflare, Azure MCP, AWS MCP Suite |
| Obserwowalność | Śledzenie błędów, logi, metryki | Sentry, Datadog, Grafana |
Jak myśleć o dodawaniu serwerów MCP
Dział zatytułowany „Jak myśleć o dodawaniu serwerów MCP”Nie instaluj dwudziestu serwerów pierwszego dnia. Zacznij od narzędzi, które rozwiązują Twoje największe luki kontekstowe:
-
Zacznij od dokumentacji. Context7 daje każdemu promptowi dostęp do aktualnej dokumentacji bibliotek. Ten jeden serwer eliminuje całą klasę halucynacji.
-
Dodaj kontrolę wersji. Serwer GitHub lub GitLab MCP pozwala Twojemu AI czytać PR-y, przeszukiwać kod w repozytoriach i rozumieć historię projektu bez konieczności wklejania linków do czatu.
-
Podłącz bazę danych. Niezależnie od tego, czy to Postgres, MongoDB czy SQLite, pozwolenie AI na inspekcję schematów i uruchamianie zapytań read-only zmienia sposób, w jaki pisze kod dostępu do danych.
-
Dodaj narzędzia workflow. Figma do design-to-code, Jira lub Linear do kontekstu ticketów, Playwright do testowania przeglądarki. Każdy dodany serwer zamyka kolejną lukę kontekstową.
Gdy coś się zepsuje
Dział zatytułowany „Gdy coś się zepsuje”Serwer nie chce się połączyć. Najczęstsza przyczyna to brakujący runtime. Serwery MCP zbudowane w Node.js wymagają npx lub node w PATH. Serwery oparte na Pythonie potrzebują uv lub pip. Sprawdź README serwera pod kątem wymaganych narzędzi.
Narzędzia nie pojawiają się po połączeniu. Niektóre klienty cache’ują listę narzędzi. Zrestartuj edytor lub uruchom komendę debugowania MCP (/mcp w Claude Code, sprawdź panel MCP w Cursor), aby wymusić odświeżenie.
Zdalne serwery zawieszają się na OAuth. Jeśli przebieg OAuth otwiera przeglądarkę, ale nigdy się nie kończy, sprawdź czy adres zwrotny localhost nie jest blokowany przez VPN lub firewall. Zdalne serwery Atlassian i Cloudflare wymagają, aby przeglądarka przekierowała z powrotem na lokalny port.
AI nieprawidłowo używa narzędzi. Serwery MCP udostępniają opisy narzędzi, które AI czyta, aby zdecydować, kiedy i jak je wywołać. Jeśli AI błędnie używa narzędzia, problem zwykle leży w opisie narzędzia, nie w AI. Budując własne serwery, zainwestuj w jasne, konkretne opisy narzędzi.