Przejdź do głównej zawartości

Wprowadzenie do Model Context Protocol

Twój asystent AI potrafi napisać idealne zapytanie do bazy danych, ale nie ma pojęcia, jakie tabele istnieją w Twojej produkcyjnej bazie. Potrafi wygenerować pixel-perfect komponent React, ale nigdy nie widział Twoich projektów w Figmie. Potrafi przygotować wiadomość commita, ale nie może przeczytać Twojej historii git. Ten rozdzwięk między surową inteligencją a faktycznym kontekstem to największe wąskie gardło w dzisiejszym AI-assisted developmencie.

Model Context Protocol (MCP) eliminuje to wąskie gardło. To otwarty standard, pierwotnie stworzony przez Anthropic i obecnie przyjęty w całej branży, który zapewnia uniwersalny interfejs dla asystentów AI do łączenia się z zewnętrznymi narzędziami, źródłami danych i usługami. Pomyśl o nim jak o USB-C dla AI: jedno ustandaryzowane połączenie, które działa ze wszystkim.

  • Jasny model mentalny tego, jak klienci, serwery i transporty MCP współpracują ze sobą
  • Instrukcje konfiguracji pierwszego serwera MCP w Cursor, Claude Code i Codex
  • Rozumienie różnicy między serwerami lokalnymi (STDIO) a zdalnymi (Streamable HTTP)
  • Framework do podejmowania decyzji, które serwery MCP dodać do swojego workflow jako pierwsze

Architektura jest prosta. Trzy komponenty wchodzą w interakcję w każdym połączeniu MCP:

Host MCP — Twój asystent AI (Cursor, Claude Code lub Codex). To aplikacja, która potrzebuje dostępu do zewnętrznych możliwości.

Klient MCP — Lekka warstwa połączeniowa osadzona wewnątrz hosta. Każdy klient utrzymuje pojedyncze połączenie z jednym serwerem MCP.

Serwer MCP — Aplikacja, która udostępnia narzędzia, prompty i zasoby poprzez protokół. Serwer może dać AI możliwość odpytywania bazy danych, czytania projektów Figma lub przeszukiwania dokumentacji.

Gdy AI zdecyduje, że potrzebuje zewnętrznych informacji, klient wysyła ustrukturyzowane żądanie do odpowiedniego serwera. Serwer wykonuje akcję (odpytanie bazy danych, pobranie pliku, wywołanie API) i zwraca ustrukturyzowaną odpowiedź. AI następnie używa tej odpowiedzi jako kontekstu dla swojej następnej akcji.

MCP obsługuje dwa tryby transportu:

  • Lokalne (STDIO) — Serwer MCP działa na Twojej maszynie. Klient komunikuje się poprzez standardowe wejście/wyjście. Tak działa większość serwerów filesystem, git i bazodanowych. Szybkie, bez zależności sieciowej, ale ograniczone do Twojego lokalnego środowiska.
  • Zdalne (Streamable HTTP / SSE) — Serwer MCP działa w chmurze. Klient łączy się przez HTTPS, zwykle z OAuth 2.1 do uwierzytelniania. Tak Atlassian, Cloudflare i inne platformy SaaS udostępniają swoje serwery MCP. Działa z każdego miejsca, ale wymaga dostępu do sieci i uwierzytelniania.

Podłączmy serwer dokumentacji Context7 — daje on Twojemu AI aktualną dokumentację tysięcy bibliotek open-source. Ten jeden serwer eliminuje najczęstszy tryb awarii: AI generujące kod dla przestarzałych API.

Utwórz lub edytuj .cursor/mcp.json w katalogu głównym projektu:

{
"mcpServers": {
"context7": {
"command": "npx",
"args": ["-y", "@upstash/context7-mcp@latest"]
}
}
}

Otwórz Settings > MCP Servers i sprawdź, czy obok “context7” pojawia się zielona kropka. Jeśli jest czerwona, zrestartuj Cursor.

Dzisiaj istnieje ponad 20 000 serwerów MCP. Dzielą się na przewidywalne kategorie:

KategoriaCo robiPrzykłady
DokumentacjaAktualna dokumentacja bibliotek, referencje APIContext7, Augments, Ref Tools
Kontrola wersjiOperacje git, zarządzanie PR, wyszukiwanie koduGitHub MCP, GitLab MCP, Git MCP
System plikówCzytanie/pisanie plików, operacje na katalogachOfficial Filesystem, Desktop Commander
PrzeglądarkaInterakcja ze stronami, zrzuty ekranu, testy E2EPlaywright MCP, Puppeteer MCP
Baza danychInspekcja schematu, zapytania, migracjePrisma, Supabase, MongoDB, SQLite
Zarządzanie projektamiTickety, sprinty, aktualizacje statusuAtlassian Rovo, Linear, Jira
DesignDane warstw Figma, biblioteki komponentówFigma Dev Mode, shadcn/ui MCP
Platforma chmurowaZarządzanie zasobami, deploye, logiCloudflare, Azure MCP, AWS MCP Suite
ObserwowalnośćŚledzenie błędów, logi, metrykiSentry, Datadog, Grafana

Nie instaluj dwudziestu serwerów pierwszego dnia. Zacznij od narzędzi, które rozwiązują Twoje największe luki kontekstowe:

  1. Zacznij od dokumentacji. Context7 daje każdemu promptowi dostęp do aktualnej dokumentacji bibliotek. Ten jeden serwer eliminuje całą klasę halucynacji.

  2. Dodaj kontrolę wersji. Serwer GitHub lub GitLab MCP pozwala Twojemu AI czytać PR-y, przeszukiwać kod w repozytoriach i rozumieć historię projektu bez konieczności wklejania linków do czatu.

  3. Podłącz bazę danych. Niezależnie od tego, czy to Postgres, MongoDB czy SQLite, pozwolenie AI na inspekcję schematów i uruchamianie zapytań read-only zmienia sposób, w jaki pisze kod dostępu do danych.

  4. Dodaj narzędzia workflow. Figma do design-to-code, Jira lub Linear do kontekstu ticketów, Playwright do testowania przeglądarki. Każdy dodany serwer zamyka kolejną lukę kontekstową.

Serwer nie chce się połączyć. Najczęstsza przyczyna to brakujący runtime. Serwery MCP zbudowane w Node.js wymagają npx lub node w PATH. Serwery oparte na Pythonie potrzebują uv lub pip. Sprawdź README serwera pod kątem wymaganych narzędzi.

Narzędzia nie pojawiają się po połączeniu. Niektóre klienty cache’ują listę narzędzi. Zrestartuj edytor lub uruchom komendę debugowania MCP (/mcp w Claude Code, sprawdź panel MCP w Cursor), aby wymusić odświeżenie.

Zdalne serwery zawieszają się na OAuth. Jeśli przebieg OAuth otwiera przeglądarkę, ale nigdy się nie kończy, sprawdź czy adres zwrotny localhost nie jest blokowany przez VPN lub firewall. Zdalne serwery Atlassian i Cloudflare wymagają, aby przeglądarka przekierowała z powrotem na lokalny port.

AI nieprawidłowo używa narzędzi. Serwery MCP udostępniają opisy narzędzi, które AI czyta, aby zdecydować, kiedy i jak je wywołać. Jeśli AI błędnie używa narzędzia, problem zwykle leży w opisie narzędzia, nie w AI. Budując własne serwery, zainwestuj w jasne, konkretne opisy narzędzi.