AI w wytwarzaniu

Copilot kupiony, lead time nie spada - dlaczego AI nie poprawia metryk delivery

Copilot wdrożony, ale lead time stoi w miejscu? Dlaczego narzędzie AI w edytorze nie przekłada się na metryki delivery i co musi się zmienić, żeby zadziałało.


Zarząd zatwierdził licencje. Onboarding przeszedł cały zespół. Developerzy używają Copilota - widać to po logach aktywacji. A lead time na feature jest dokładnie taki sam jak sześć miesięcy temu. Deployment frequency nie drgnął. Backlog rośnie.

Jeśli rozpoznajesz ten scenariusz, nie jesteś w mniejszości. To jest jeden z najczęstszych problemów, z którymi CTOs trafiają do nas po roku od zakupu narzędzi AI dla zespołu.

Problem nie jest w narzędziu. Problem jest w tym, gdzie i jak to narzędzie wchodzi w cykl wytwarzania.


Dlaczego Copilot nie rusza metryk

Copilot i podobne narzędzia AI działają w edytorze. Podpowiadają kolejne linijki kodu, uzupełniają powtarzalne fragmenty, sugerują nazwy zmiennych. Dla developera to odczuwalna pomoc przy pisaniu kodu - szczególnie przy boilerplate, przy powtarzalnych wzorcach i przy kodzie, który developer już wie, jak napisać, ale musiałby to wpisać ręcznie.

Ale pisanie kodu to nie jest wąskie gardło delivery w większości organizacji.

Sprawdź swoje metryki i znajdź, gdzie czas faktycznie ucieka:

  • Ile trwa od zamknięcia sprint planningu do pierwszego commita na feature?
  • Ile trwa code review na typowym PR?
  • Ile razy feature wraca z code review do developera przed mergem?
  • Ile czasu spędza QA na danym feature zanim trafi na staging?
  • Ile defektów jest wykrywanych po wdrożeniu na produkcję?

W większości zespołów, które badamy przed PoV, kod jest pisany relatywnie sprawnie. Czas ginie gdzie indziej: w oczekiwaniu na review, w iteracjach po review, w testach manualnych, w debugowaniu regresji i w dokumentacji, której nikt nie aktualizuje, bo nie ma na to czasu.

Copilot nie pomaga w żadnym z tych miejsc.


Gdzie AI faktycznie skraca lead time

Żeby AI poprawiło metryki delivery, musi wejść nie do edytora, ale do punktów SDLC, które dziś tworzą opóźnienia.

Trzy obszary z największym potencjałem:

Code review

AI może wstępnie przeanalizować PR przed human review: wykryć typowe problemy stylistyczne, naruszenia konwencji, potencjalne bugi i luki bezpieczeństwa. Developer dostaje feedback w ciągu sekund, nie czeka na reviewera. Human review zaczyna się od wyższego punktu - omawia architekturę i edge case’y, nie styl.

W jednym z projektów, które realizowaliśmy, czas code review na PR skrócił się z 2–3 dni do 4–6 godzin po wprowadzeniu AI-assisted review. Nie dlatego, że ludzie przestali robić review - dlatego, że czas oczekiwania zniknął, a review zaczął dotyczyć tego, co wymaga człowieka.

Testy

Generowanie przypadków testowych na podstawie kodu i wymagań, uzupełnianie pokrycia testami jednostkowymi, walidacja przypadków brzegowych - to obszary, gdzie AI sprawdza się znacznie lepiej niż przy generowaniu kodu produkcyjnego. Efekt: wyższe pokrycie testami przy tym samym nakładzie czasu i mniej defektów przebijających się na staging.

Dokumentacja

Dokumentacja jest wiecznie nieaktualna, bo nie ma na nią czasu. AI może generować dokumentację jako produkt uboczny procesu wytwarzania - docstringi, changelog, opisy endpointów, komentarze do złożonej logiki. Kiedy dokumentacja powstaje jako część workflow, a nie jako osobne zadanie „do zrobienia potem”, onboarding nowych developerów skraca się mierzalnie.


Błąd, który powtarza się wszędzie

Najczęstszy błąd, który widzimy: organizacja kupuje narzędzie AI, robi onboarding (często webinar godzinny z instrukcją obsługi), i oczekuje, że metryki delivery się poprawią.

To nie zadziała. I oto dlaczego:

Narzędzie AI zmienia metryki tylko wtedy, gdy zmienia się sposób pracy - nie tylko narzędzie w ręku. Jeśli developer nadal zaczyna od pustego pliku i używa AI do uzupełniania kodu, a nie do zdefiniowania zadania i weryfikacji outputu - praca odbywa się tak samo, tylko trochę szybciej przy pisaniu.

Żeby AI poprawiło lead time i jakość, potrzebne są:

  • nowe punkty wejścia AI w SDLC (code review, testy, dokumentacja, analiza wymagań),
  • standardy pracy - co AI robi, co weryfikuje człowiek, jak wygląda pętla iteracji,
  • bramki jakości - definicja tego, co PR musi przejść zanim trafi do review,
  • monitoring - czy nowe praktyki są faktycznie używane i czy metryki się zmieniają.

Jak to zdiagnozować u siebie

Zanim zdecydujesz, co zmienić, zmierz gdzie jesteś. Cztery pytania:

  1. Jaki jest aktualny lead time for changes (od commita do produkcji)?
  2. Gdzie są wąskie gardła - w code review, testach, QA, deploymencie?
  3. Jaki jest defect escape rate (ile bugów wychodzi na produkcję)?
  4. Jak wygląda czas code review i ile iteracji ma typowy PR?

Bez tych danych nie wiesz, gdzie AI da efekt. Z tymi danymi - wybór punktów wejścia AI jest oczywisty.

Cezary Perendyk
Cezary Perendyk

Partner, AlignIT

Projektuje procesy wytwórcze z AI i szkoli zespoły developerskie. 10+ lat transformacji organizacji IT w Polsce, Skandynawii i Indiach.

AI w wytwarzaniu oprogramowania - jak to działa

Umów 30 min - sprawdzimy, czy PoV ma sens w Twoim przypadku.