Przejdź do głównej zawartości

Testy obciążenia i analiza wydajności

Korporacyjne testy wydajności prezentują unikalne wyzwania: wymagania masowej skali, złożone architektury rozproszone i potrzebę szybkich cykli feedbacku. Tradycyjne podejścia do testów obciążenia często zawodzą przy radzeniu sobie z nowoczesnymi mikrousługami, nieprzewidywalnymi wzorcami ruchu i wymaganiami prędkości ciągłego wdrażania.

Testy wydajności oparte na AI przekształcają ten krajobraz przez inteligentne generowanie realistycznych wzorców obciążenia, analizowanie wąskich gardeł wydajności w systemach rozproszonych i dostarczanie praktycznych rekomendacji optymalizacji. To podejście łączy wyspecjalizowane serwery MCP z inteligentnymi przepływami analizy aby tworzyć kompleksowe strategie testów wydajności skalujące się z korporacyjną złożonością.

Aplikacje korporacyjne stoją przed wyzwaniami wydajnościowymi, z którymi tradycyjne podejścia testowe mają problem:

Złożoność skali

Nowoczesne aplikacje muszą obsłużyć tysiące jednoczesnych użytkowników w wielu regionach geograficznych, z wymaganiami wydajności drastycznie różniącymi się w zależności od wzorców użytkowania i cykli biznesowych.

Architektura rozproszona

Architektury mikrousług wprowadzają złożone współzależności, gdzie wąskie gardło w jednym serwisie może kaskadowo wpłynąć na cały system, czyniąc analizę podstawowych przyczyn coraz trudniejszą.

Dynamiczne zarządzanie zasobami

Aplikacje cloud-native z możliwościami auto-skalowania wymagają testów wydajności uwzględniających zmiany alokacji zasobów podczas wykonywania testów.

Analityka w czasie rzeczywistym

Aplikacje krytyczne dla biznesu potrzebują wglądów w wydajność wykraczających poza podstawowe czasy odpowiedzi i zawierających metryki wpływu na biznes oraz wskaźniki doświadczenia użytkownika.

Tradycyjne narzędzia testów obciążenia generują syntetyczne wzorce ruchu, które rzadko pasują do rzeczywistego użycia. Testy wydajności oparte na AI analizują wzorce ruchu produkcyjnego, dane zachowań użytkowników i metryki systemowe aby tworzyć realistyczne scenariusze testowe ujawniające rzeczywiste wąskie gardła wydajności.

Nowoczesne testy wydajności wymagają wyspecjalizowanych narzędzi integrujących się bezproblemowo z przepływami rozwoju AI. Te serwery MCP zapewniają kompleksowe możliwości testowe:

Serwer MCP K6 umożliwia testy obciążenia sterowane językiem naturalnym z możliwościami klasy korporacyjnej.

Instalacja:

Okno terminala
# Claude Code
claude mcp add k6 -- npx -y k6-mcp-server
# Cursor
# Settings > MCP > Add Server
# Command: npx -y k6-mcp-server

Kluczowe możliwości:

  • Generowanie testów w języku naturalnym ze specyfikacji API
  • Konfigurowalne wzorce obciążenia oparte na analityce produkcyjnej
  • Integracja metryk w czasie rzeczywistym z systemami monitorowania
  • Wsparcie złożonych przepływów autentyfikacji
  • Testy rozproszone w wielu regionach

Kompleksowe testy wydajności wymagają integracji z platformami monitorowania:

Monitorowanie wydajności Sentry

Setup: claude mcp add sentry -- npx -y sentry-mcp

Integruje śledzenie błędów z testami wydajności aby zidentyfikować problemy wpływające na doświadczenie użytkownika podczas scenariuszy testów obciążenia.

Integracja dashboardów Grafana

Setup: claude mcp add grafana -- npx -y grafana-mcp

Łączy wyniki testów obciążenia z istniejącymi dashboardami monitorowania dla kompleksowej analizy wydajności.

Integracja GitHub Actions

Setup: claude mcp add --transport sse github https://api.githubcopilot.com/mcp/

Automatyczna integracja testów wydajności z przepływami CI/CD, włącznie z wykrywaniem regresji wydajności.

Kluczem do skutecznych korporacyjnych testów obciążenia jest tworzenie realistycznych scenariuszy odzwierciedlających rzeczywiste zachowania użytkowników. Przepływy oparte na AI analizują dane produkcyjne aby generować kompleksowe scenariusze testowe:

Przykładowy prompt do generowania testów obciążenia:

Przeanalizuj nasze wzorce ruchu API e-commerce z ostatnich 30 dni i wygeneruj kompleksowe testy obciążenia. Wymagania:
1. Utwórz scenariusze podróży użytkownika oparte na rzeczywistych ścieżkach konwersji
2. Uwzględnij przepływy autentyfikacji z zarządzaniem sesjami
3. Symuluj wzorce ruchu Black Friday (10x normalnego obciążenia)
4. Dodaj dystrybucję geograficzną pasującą do naszej bazy użytkowników
5. Uwzględnij zarówno udane transakcje jak i typowe scenariusze błędów
6. Wygeneruj testy mogące działać w naszym potoku CI/CD
Przeanalizuj specyfikację OpenAPI i ostatnie metryki wydajności aby zapewnić realistyczne wzorce obciążenia.

Proces analizy AI:

  1. Analiza wzorców ruchu - AI bada logi serwera, analitykę użytkowników i wzorce zapytań bazy danych aby zrozumieć rzeczywiste użycie
  2. Mapowanie podróży użytkownika - Identyfikuje typowe przepływy użytkowników, punkty porzucenia i scenariusze szczytowego użycia
  3. Modelowanie dystrybucji obciążenia - Tworzy realistyczne krzywe obciążenia oparte na danych historycznych i cyklach biznesowych
  4. Generowanie scenariuszy testowych - Produkuje wykonywalne skrypty testowe z odpowiednimi czasami i wzorcami zachowań użytkowników
  5. Walidacja i optymalizacja - Przegląda wygenerowane testy pod kątem kompletności i dostosowuje w oparciu o ograniczenia infrastruktury

Korporacyjne testy obciążenia wykraczają poza prostą generację obciążenia i obejmują planowanie pojemności i analizę trybów awarii:

Prompt strategii testów obciążenia:

Zaprojektuj kompleksową strategię testów obciążenia dla naszej architektury mikrousług. Skup się na:
1. Progresywne testy obciążenia identyfikujące punkty załamania
2. Identyfikacja wąskich gardeł w zależnościach serwisów
3. Scenariusze wyczerpania zasobów (CPU, pamięć, połączenia bazy danych)
4. Analiza awarii kaskadowych między serwisami
5. Pomiar czasu odzyskiwania po redukcji obciążenia
6. Rekomendacje optymalizacji kosztów oparte na wynikach testów
Wygeneruj scenariusze testowe pomagające zrozumieć kiedy skalować infrastrukturę i optymalizować alokację zasobów.

Integracja chaos engineering: Nowoczesne testy obciążenia włączają kontrolowane wstrzykiwanie awarii aby testować odporność systemu:

Zaimplementuj scenariusze chaos engineering podczas testów obciążenia:
1. Symuluj partycje sieciowe między mikrousługami
2. Wprowadź losowe opóźnienia w zapytaniach bazy danych
3. Testuj graceful degradation gdy zewnętrzne API failują
4. Waliduj skuteczność wyłączników obwodu i logiki ponowień
5. Zmierz wpływ na doświadczenie użytkownika podczas częściowych awarii
Użyj narzędzi chaos engineering Kubernetes zintegrowanych z naszym potokiem testów obciążenia.

Korporacyjne testy wydajności generują ogromne ilości danych wymagających inteligentnej analizy aby zidentyfikować praktyczne możliwości optymalizacji:

Przykładowy prompt analizy wydajności:

Przeanalizuj wyniki testów obciążenia z naszej platformy e-commerce:
1. Zidentyfikuj 5 największych wąskich gardeł wydajności w oparciu o wpływ na czas odpowiedzi
2. Koreluj wydajność zapytań bazy danych ze spowolnieniami endpointów API
3. Przeanalizuj wzorce użycia pamięci podczas okresów szczytowego obciążenia
4. Zarekomenduj konkretne optymalizacje kodu dla najwolniejszych endpointów
5. Zasugeruj strategie skalowania infrastruktury w oparciu o wykorzystanie zasobów
6. Wygeneruj mapę drogową poprawy wydajności z szacowanym wpływem
Skup się na zmianach zapewniających największą poprawę wydajności przy najmniejszym wysiłku implementacyjnym.

Wydajność bazy danych często staje się krytycznym wąskim gardłem w aplikacjach korporacyjnych. Analiza oparta na AI może zidentyfikować możliwości optymalizacji:

Przepływ analizy wydajności bazy danych:

  1. Analiza wzorców zapytań - AI bada logi wolnych zapytań i identyfikuje typowe wzorce wydajności
  2. Optymalizacja indeksów - Sugeruje optymalne indeksy bazy danych w oparciu o rzeczywiste użycie zapytań
  3. Tuning puli połączeń - Rekomenduje ustawienia puli połączeń w oparciu o wyniki testów obciążenia
  4. Strategia cacheowania - Identyfikuje możliwości cacheowania wyników zapytań i unieważniania cache
  5. Rekomendacje sharding - Sugeruje strategie partycjonowania danych dla scenariuszy wysokiej skali

Przykładowy prompt optymalizacji bazy danych:

Przeanalizuj naszą wydajność PostgreSQL podczas testów obciążenia:
1. Przejrzyj logi wolnych zapytań i zidentyfikuj najkosztowniejsze operacje
2. Zasugeruj optymalne indeksy dla naszych najczęstszych wzorców zapytań
3. Zarekomenduj ustawienia puli połączeń dla 1000+ jednoczesnych użytkowników
4. Zidentyfikuj możliwości użycia replik odczytu
5. Zasugeruj optymalizacje zapytań nie wymagające zmian schematu
6. Przeanalizuj rywalizację blokad transakcji i zasugeruj ulepszenia
Priorytetyzuj zmiany implementowalne bez przestojów.

Integracja monitorowania w czasie rzeczywistym z testami obciążenia zapewnia kompleksowe wglądy w wydajność:

Strategia integracji monitorowania:

Skonfiguruj kompleksowe monitorowanie wydajności podczas testów obciążenia:
1. Skonfiguruj narzędzia APM (Sentry, New Relic lub DataDog) do śledzenia:
- Czasów odpowiedzi aplikacji według endpointu
- Wydajności zapytań bazy danych i wolnych zapytań
- Wzorców użycia pamięci i garbage collection
- Wydajności zewnętrznych zależności API
2. Utwórz niestandardowe dashboardy pokazujące:
- Korelację przepustowości w czasie rzeczywistym vs czas odpowiedzi
- Trendy wskaźników błędów w różnych poziomach obciążenia
- Wykorzystanie zasobów we wszystkich komponentach systemu
- Wpływ metryk biznesowych (wskaźniki konwersji, doświadczenie użytkownika)
3. Skonfiguruj automatyczne alerty dla:
- Degradacji czasu odpowiedzi powyżej akceptowalnych progów
- Wzrostu wskaźników błędów podczas testów obciążenia
- Ostrzeżeń wyczerpania zasobów
- Wykrywania awarii kaskadowych między serwisami

Testowanie podróży użytkownika w skali korporacyjnej

Dział zatytułowany „Testowanie podróży użytkownika w skali korporacyjnej”

Rzeczywiste testy obciążenia wymagają zrozumienia złożonych podróży użytkowników obejmujących wiele serwisów i procesów biznesowych:

Przykład podróży użytkownika wieloserwisowej:

Zaprojektuj testy obciążenia dla naszej korporacyjnej platformy SaaS obejmujące te podróże użytkowników:
1. **Przepływ wdrażania nowego użytkownika:**
- Rejestracja konta z weryfikacją email
- Konfiguracja organizacji z przypisaniem ról
- Początkowy import danych z systemów zewnętrznych
- Odkrywanie funkcji i konfiguracja
2. **Przepływ codziennych operacji:**
- Poranne ładowanie dashboardu z danymi w czasie rzeczywistym
- Operacje masowego przetwarzania danych
- Sesje edycji współpracowej
- Generowanie i udostępnianie raportów
3. **Scenariusze szczytowego użycia:**
- Skok raportowania końca miesiąca (1000+ jednoczesnych raportów)
- Systemowa synchronizacja danych podczas godzin biznesowych
- Alokacja zasobów multi-tenant podczas okresów szczytowych
- Integracja zewnętrznych API pod wysokim obciążeniem
Wygeneruj scenariusze testowe zawierające realistyczne czasy myślenia, obsługę błędów i czyszczenie zasobów między uruchomieniami testów.

Aplikacje korporacyjne obsługują globalnych użytkowników, wymagając testów wydajności uwzględniających opóźnienia sieci i infrastrukturę regionalną:

Strategia globalnych testów wydajności:

Utwórz geograficznie rozproszone testy obciążenia:
1. Symuluj użytkowników z naszych 5 głównych rynków geograficznych:
- Ameryka Północna (40% ruchu)
- Europa (30% ruchu)
- Azja-Pacyfik (20% ruchu)
- Ameryka Południowa (7% ruchu)
- Inne regiony (3% ruchu)
2. Uwzględnij realistyczne warunki sieciowe:
- Połączenia wysokiej prędkości dla głównych miast
- Symulacja mobile/3G dla rozwijających się rynków
- Opóźnienia połączeń satelitarnych dla użytkowników zdalnych
- Scenariusze partycji sieciowych między regionami
3. Testuj skuteczność CDN:
- Wydajność dostarczania statycznych zasobów
- Skuteczność cacheowania dynamicznej zawartości
- Scenariusze failover gdy węzły CDN failują
- Timing propagacji unieważniania cache

Planowanie pojemności oparte na AI wykracza poza proste testy obciążenia i dostarcza strategiczne wskazówki infrastrukturalne:

Analiza planowania pojemności:

Przeanalizuj naszą obecną pojemność infrastruktury i dostarcz rekomendacje skalowania:
1. **Analiza obecnego stanu:**
- Wydajność baseline pod normalnym obciążeniem
- Wzorce wykorzystania zasobów podczas godzin szczytowych
- Limity wydajność połączeń i zapytań bazy danych
- Wąskie gardła zależności serwisów zewnętrznych
2. **Projekcja wzrostu:**
- Wpływ wzrostu liczby użytkowników 2x, 5x i 10x na wydajność
- Koszty infrastruktury na różnych poziomach skali
- Punkty załamania dla obecnej architektury
- Timing migracji dla głównych zmian architektonicznych
3. **Rekomendacje optymalizacji:**
- Konfiguracja auto-skalowania dla efektywności kosztowej
- Strategia sharding bazy danych dla skali horyzontalnej
- Priorytety dekompozycji mikrousług
- Optymalizacja warstwy cacheowania dla zredukowanego obciążenia

Nowoczesne aplikacje webowe wymagają kompleksowych testów wydajności przeglądarek wykraczających poza prostą generację obciążenia:

Przepływ testów wydajności przeglądarek:

Użyj MCP Playwright do stworzenia kompleksowych testów wydajności przeglądarek:
1. **Symulacja monitorowania rzeczywistych użytkowników:**
- Testuj wydajność aplikacji w Chrome, Firefox i Safari
- Symuluj różne warunki sieciowe (3G, WiFi, światłowód)
- Zmierz Core Web Vitals (LCP, FID, CLS) pod obciążeniem
- Testuj wydajność responsive design na różnych rozmiarach ekranów
2. **Analiza wydajności zasobów:**
- Monitoruj czas ładowania i wykonywania bundli JavaScript
- Śledź blokowanie renderowania CSS i optymalizację ścieżki krytycznej
- Analizuj wydajność ładowania obrazów i skuteczność lazy loading
- Zmierz wpływ skryptów zewnętrznych na wydajność strony
3. **Testowanie wydajności interaktywnej:**
- Symuluj złożone interakcje użytkowników podczas wysokiego obciążenia
- Testuj wydajność przesyłania formularzy z walidacją
- Zmierz prędkość nawigacji aplikacji single-page
- Analizuj użycie pamięci podczas rozszerzonych sesji przeglądania

Przykładowy prompt wydajności Playwright:

Utwórz testy wydajności przeglądarek dla naszego korporacyjnego dashboardu:
1. Załaduj dashboard z 50 jednocznymi sesjami przeglądarek
2. Symuluj typowe przepływy użytkowników:
- Początowe ładowanie strony i autentyfikacja
- Nawigacja między różnymi sekcjami dashboardu
- Aktualizacje danych w czasie rzeczywistym i renderowanie wykresów
- Operacje masowego eksportu danych
3. Zmierz i raportuj:
- Czasy ładowania stron w różnych warunkach sieciowych
- Użycie pamięci sterty JavaScript w czasie
- Wydajność manipulacji DOM podczas aktualizacji danych
- Skuteczność optymalizacji ścieżki krytycznej renderowania
4. Wygeneruj rekomendacje optymalizacji w oparciu o:
- Wyniki audytu Lighthouse
- Profile wydajności Browser DevTools
- Analizę wodospadu ładowania zasobów

Aplikacje korporacyjne wymagają skoordynowanego testowania wydajności zarówno frontendu jak i backendu:

Testowanie wydajności full-stack:

Zaprojektuj zintegrowane testy wydajności obejmujące cały stos naszej aplikacji:
1. **Testowanie warstwy API:**
- Wydajność zapytań GraphQL pod jednoczesnym obciążeniem
- Analiza czasów odpowiedzi endpointów REST API
- Skuteczność poolingu połączeń bazy danych
- Pomiar wpływu zależności zewnętrznych serwisów
2. **Korelacja wydajności frontendu:**
- Wpływ czasu odpowiedzi API na doświadczenie użytkownika
- Skuteczność cacheowania po stronie klienta podczas obciążenia
- Wydajność implementacji progresywnego ładowania
- Wydajność obsługi błędów podczas degradacji serwisu
3. **Metryki biznesowe end-to-end:**
- Wpływ degradacji wydajności na wskaźniki konwersji
- Korelacja porzucania użytkowników z czasami odpowiedzi
- Analiza wpływu na przychody podczas okresów szczytowego obciążenia
- Metryki satysfakcji klientów podczas testów wydajności

Integracja testów wydajności z potokami CI/CD zapewnia, że regresje wydajności są wychwycone przed dotarciem do produkcji:

Przepływ testów wydajności GitHub Actions:

Zaprojektuj automatyczne testy wydajności dla każdego wdrożenia:
1. **Baseline wydajności przed wdrożeniem:**
- Uruchom lekkie testy obciążenia w środowisku staging
- Porównaj wyniki z poprzednimi pomiarami baseline
- Automatycznie fail wdrożenia przy znaczących regresjach
- Wygeneruj raporty wpływu wydajności do code review
2. **Walidacja po wdrożeniu:**
- Wykonaj smoke testy wydajności na produkcji
- Monitoruj kluczowe wskaźniki wydajności przez 24 godziny
- Automatycznie wyzwól rollback jeśli wydajność się pogarsza
- Zaktualizuj baseline wydajności z udanymi wdrożeniami
3. **Ciągłe monitorowanie wydajności:**
- Zaplanuj codzienne kompleksowe testy obciążenia
- Tygodniowa analiza planowania pojemności i raportowanie
- Miesięczna analiza trendów wydajności i planowanie optymalizacji
- Kwartalny przegląd architektury w oparciu o dane wydajności

Testowanie podobne do produkcji

Użyj wolumenów danych produkcyjnych, warunków sieciowych i konfiguracji infrastruktury. Testuj z realistycznymi wzorcami zachowań użytkowników pochodzącymi z analityki produkcyjnej.

Inkrementalne testy obciążenia

Zacznij od testów wydajności na poziomie komponentów przed pełną integracją systemu. Stopniowo zwiększaj obciążenie aby zidentyfikować punkty załamania bez przeciążania systemów.

Ciągłe śledzenie baseline

Ustanów baseline wydajności dla każdego wydania i śledź trendy w czasie. Użyj AI do identyfikacji stopniowej degradacji wydajności, która może być pominięta w pojedynczych testach.

Korelacja z wpływem na biznes

Połącz metryki wydajności z wynikami biznesowymi. Zmierz jak zmiany czasów odpowiedzi wpływają na wskaźniki konwersji, zaangażowanie użytkowników i generowanie przychodów.

Korporacyjne testy wydajności muszą równoważyć kompleksowe pokrycie z kosztami zasobów:

Strategie optymalizacji kosztów:

Optymalizuj koszty testów wydajności zachowując pokrycie:
1. **Inteligentne planowanie testów:**
- Uruchamiaj kompleksowe testy podczas godzin poza szczytem
- Używaj instancji spot do generacji obciążenia aby zredukować koszty
- Implementuj cacheowanie wyników testów aby uniknąć redundantnego testowania
- Planuj testy w oparciu o analizę wpływu zmian kodu
2. **Testowanie świadome zasobów:**
- Skaluj infrastrukturę testową dynamicznie w oparciu o zakres testu
- Używaj konteneryzowanych generatorów obciążenia dla efektywnego wykorzystania zasobów
- Implementuj wczesne zakończenie testów dla oczywistych failur
- Dziel środowiska testowe między zespołami z odpowiednią izolacją
3. **Inteligentny wybór testów:**
- Priorytetyzuj testy wydajności w oparciu o wpływ zmian kodu
- Używaj AI do przewidywania które zmiany prawdopodobnie wpłyną na wydajność
- Skupiaj intensywne testowanie na krytycznych podróżach użytkowników
- Implementuj strategie testowania oparte na ryzyku dla różnych środowisk

Aplikacje korporacyjne wykazują złożone wzorce wydajności wymagające inteligentnej analizy do zrozumienia i optymalizacji:

Przepływ analizy wzorców wydajności:

Przeanalizuj wzorce wydajności naszej aplikacji z ostatniego kwartału:
1. **Korelacja wzorców ruchu:**
- Zidentyfikuj okresy szczytowego użycia i ich wpływ na wydajność systemu
- Koreluj wydarzenia biznesowe (sprzedaż, kampanie marketingowe) ze wzorcami obciążenia
- Analizuj sezonowe wahania w wymaganiach wydajności
- Przewiduj przyszłe potrzeby pojemności w oparciu o projekcje wzrostu biznesu
2. **Analiza współzależności serwisów:**
- Zmapuj propagację wpływu wydajności między mikrousługami
- Zidentyfikuj serwisy ścieżki krytycznej wpływające na ogólną wydajność systemu
- Analizuj wzorce awarii kaskadowych i ich strategie zapobiegania
- Rekomenduj ulepszenia izolacji serwisów w oparciu o analizę awarii
3. **Optymalizacja wykorzystania zasobów:**
- Zidentyfikuj niedostatecznie wykorzystywaną infrastrukturę do optymalizacji
- Rekomenduj konfiguracje auto-skalowania w oparciu o rzeczywiste wzorce użycia
- Analizuj trade-offy koszt vs wydajność dla różnych strategii skalowania
- Zasugeruj ulepszenia alokacji zasobów dla lepszej wydajności na dolara

Inwestycje w korporacyjne testy wydajności muszą wykazywać wyraźną wartość biznesową:

Pomiar wpływu biznesowego:

Oblicz ROI naszych inicjatyw testów wydajności:
1. **Bezpośrednie uniknięcie kosztów:**
- Koszty infrastruktury zaoszczędzone dzięki rekomendacjom optymalizacji
- Zapobiegane koszty przestojów w oparciu o zidentyfikowane problemy wydajności
- Zredukowane koszty wsparcia dzięki proaktywnemu rozwiązywaniu problemów wydajności
- Uniknięte koszty awaryjnego skalowania podczas nieoczekiwanych skoków obciążenia
2. **Analiza wpływu na przychody:**
- Ulepszenia wskaźników konwersji dzięki szybszym czasom ładowania stron
- Ulepszenia retencji klientów dzięki lepszemu doświadczeniu użytkownika
- Wskaźniki adopcji funkcji premium z ulepszoną wydajnością
- Możliwości ekspansji rynkowej umożliwione przez skalowalną architekturę
3. **Zyski efektywności operacyjnej:**
- Ulepszenia produktywności deweloperów dzięki automatycznym testom wydajności
- Zredukowany czas wprowadzania na rynek dzięki wczesnemu wykrywaniu problemów wydajności
- Ulepszone zaufanie do wdrożeń z kompleksową walidacją wydajności
- Lepsza dokładność planowania pojemności redukująca koszty over-provisioningu

Implementacja korporacyjnych testów wydajności wymaga ustrukturyzowanego podejścia budującego możliwości stopniowo:

  1. Setup fundamentów - Zainstaluj i skonfiguruj podstawowe serwery MCP (K6, Locust, Playwright) z podstawowymi możliwościami testów obciążenia
  2. Integracja monitorowania - Połącz testy wydajności z platformami obserwowalno ści (Sentry, Grafana) dla kompleksowych wglądów
  3. Integracja CI/CD - Implementuj automatyczne testy regresji wydajności w potokach wdrażania
  4. Zaawansowana analityka - Wdróż przepływy analizy oparte na AI dla inteligentnej identyfikacji wąskich gardeł i optymalizacji
  5. Planowanie pojemności - Ustanów bieżące procesy planowania pojemności w oparciu o wglądy z testów wydajności

Przykładowe prompty dla różnych scenariuszy testowych

Dział zatytułowany „Przykładowe prompty dla różnych scenariuszy testowych”

Testy obciążenia API:

Wygeneruj kompleksowe testy obciążenia API dla naszej architektury mikrousług. Przeanalizuj nasze specyfikacje OpenAPI i utwórz realistyczne scenariusze testowe zawierające:
- Przepływy autentyfikacji z odświeżaniem tokenów
- Operacje intensywne dla bazy danych z poolingiem połączeń
- Zewnętrzne zależności serwisów z obsługą timeoutów
- Scenariusze błędów i testowanie graceful degradation
Cel 1000 jednoczesnych użytkowników z 95 percentylem czasów odpowiedzi poniżej 200ms.

Testy wydajności bazy danych:

Przeanalizuj naszą wydajność bazy danych pod obciążeniem i zarekomenduj optymalizacje:
- Przejrzyj logi wolnych zapytań z sesji testów obciążenia
- Zasugeruj optymalizacje indeksów dla naszych najczęstszych zapytań
- Zarekomenduj ustawienia puli połączeń dla wysokiej jednoczesności
- Zidentyfikuj możliwości użycia replik odczytu
- Zaproponuj strategie cacheowania aby zredukować obciążenie bazy danych
Skup się na ulepszeniach nie wymagających zmian schematu.

Testy wydajności przeglądarek:

Utwórz testy wydajności przeglądarek używając MCP Playwright symulujące rzeczywiste zachowania użytkowników:
- Testuj nasz dashboard z 50 jednocznymi sesjami przeglądarek
- Zmierz Core Web Vitals w realistycznych warunkach sieciowych
- Analizuj wydajność JavaScript podczas operacji intensywnych dla danych
- Testuj wydajność responsive design na różnych typach urządzeń
Wygeneruj rekomendacje optymalizacji w oparciu o audyty Lighthouse.

Faza przed testowaniem:

  1. Walidacja środowiska - Upewnij się, że środowisko testowe odzwierciedla konfigurację produkcyjną z odpowiednimi wolumenami danych
  2. Konfiguracja serwera MCP - Zweryfikuj, że wszystkie wymagane serwery MCP są poprawnie skonfigurowane i dostępne
  3. Dokumentacja baseline - Ustanów obecne baseline wydajności do porównania
  4. Setup monitorowania - Skonfiguruj narzędzia APM i dashboardy do kompleksowej obserwacji testów
  5. Przygotowanie danych testowych - Wygeneruj realistyczne dane testowe reprezentujące wzorce użycia produkcyjnego

Podczas testowania:

  1. Monitorowanie systemu - Śledź wszystkie komponenty systemu włącznie z bazami danych, cache i zewnętrznymi zależnościami
  2. Analiza w czasie rzeczywistym - Używaj monitorowania opartego na AI do identyfikacji problemów w miarę ich wystąpienia
  3. Śledzenie zasobów - Monitoruj koszty infrastruktury i wykorzystanie zasobów podczas testów
  4. Pomiar wpływu biznesowego - Śledź metryki korelujące z wynikami biznesowymi
  5. Wykrywanie anomalii - Implementuj automatyczne alertowanie dla nieoczekiwanych wzorców wydajności

Analiza po testach:

  1. Kompilacja wyników - Agreguj dane wydajności ze wszystkich źródeł monitorowania
  2. Analiza oparta na AI - Używaj AI do identyfikacji możliwości optymalizacji i podstawowych przyczyn
  3. Priorytetyzacja optymalizacji - Ranguj ulepszenia według wysiłku vs wpływu
  4. Planowanie implementacji - Utwórz praktyczne tickety z wyraźnymi szacunkami wpływu wydajności
  5. Aktualizacje baseline - Zaktualizuj baseline wydajności z walidowanymi ulepszeniami