W obszarach ustrukturyzowanych AI działa zaskakująco sprawnie. Analizy z 2025 roku wskazują, że chatboty dobrze radzą sobie z elementami metodyk typu GROW, z zadawaniem pytań niedyrektywnych, parafrazą i jasnym podsumowywaniem wniosków. W praktyce daje to efekt „inteligentnego lustra”: użytkownik szybciej porządkuje myśli, wyznacza kroki i monitoruje postępy. Andy Nobes (Oxford Brookes University) opisał, że uczestnicy jego badania oceniali rozmowę z AI jako profesjonalną i bezpieczną — choć emocjonalnie płytszą niż rozmowa z człowiekiem. Wniosek: AI sprzyja autorefleksji i dyscyplinie, ale nie tworzy silnej więzi.
Na podobny obraz wskazują wyniki z obszaru zdrowia i dobrostanu. W JMIR Formative (2025) platforma tekstowego coachingu z komponentem AI przyniosła 80-procentowy spadek silnego stresu oraz 18-procentowy wzrost produktywności, a w 90% przypadków rozmowy spełniały standardy motywacyjnego wywiadu. To pokazuje, że tam, gdzie liczy się regularność, jasny cel i bieżąca dostępność, AI może realnie podnieść skuteczność pracy własnej klienta.
Granice AI: emocje, kontekst i relacja
Metaanaliza Passmore, Olafsson & Tee (2025) obejmująca 63 badań wykazała, że efektywność AI maleje, kiedy wchodzimy w obszary wymagające empatii, rozumienia niuansów kulturowych i intuicyjnych decyzji. AI jest narzędziem wspomagającym, nie zamiennikiem coacha — szczególnie w coachingu transformacyjnym, przywódczym i relacyjnym.
Istotnym wątkiem jest autentyczność więzi. Rubin i współautorzy (2025) pokazali, że nawet gdy odpowiedzi AI brzmią empatycznie, klienci oceniają je jako mniej autentyczne i — jeśli stawka jest wysoka — wolą rozmowę z człowiekiem. W coachingu ma to pierwszorzędne znaczenie, bo przełomy rzadko są wyłącznie „logicznym wnioskiem”; częściej rodzą się z uważnej obecności, zaufania i umiejętnego „czytania” sygnałów pozawerbalnych.
Dowody z badań porównawczych
W badaniu Oxford Brookes University i Stanford University (Brown, Orozco, 2025; ponad 300 uczestników) porównano system AI „1440” z coachingiem ludzkim. AI lepiej wypadała w prostych, wymiernych celach i dzięki całodobowej dostępności. Coachowie-ludzie uzyskali jednak zdecydowanie wyższe oceny w zakresie refleksji emocjonalnej, poczucia wsparcia i rozwoju samoświadomości — dokładnie tam, gdzie rozstrzygają się decyzje życiowe i przywódcze.
Z kolei The Conference Board (2025) szacuje, że AI może zrealizować do 90% rutynowych zadań coachingowych w karierze — wyznaczanie celów, monitoring, szybki feedback. Pozostałe kluczowe 10% to empatia, intuicja i motywacja — czynniki decydujące o długofalowej skuteczności i satysfakcji klientów. Innymi słowy, AI usprawnia „mechanikę” procesu, ale sens i energia zmiany nadal należą do człowieka.
Gdzie AI może szkodzić zamiast pomagać?
Pierwsze ryzyko to płytkość relacji. Użytkownik może uzyskać krótkotrwałą ulgę lub porządek w planie dnia, ale nie buduje kapitału relacyjnego — poczucia bycia zauważonym, rozumianym i wspieranym „tu i teraz”. W wymiarze długoterminowym rodzi to ryzyko „emocjonalnego delegowania”, czyli przenoszenia odpowiedzialności za własne stany na narzędzie. Standardy etyczne zalecają więc jawność działania, ograniczenie analityki emocji i wyraźne mechanizmy eskalacji do człowieka.
Drugie ryzyko to błędna interpretacja kontekstu. Modele językowe operują na wzorcach statystycznych; w sytuacjach kulturowo zniuansowanych lub dotykających tożsamości łatwo o sugestię, która utrwala niekorzystne przekonania. Tę lukę domyka doświadczony coach, który rozpoznaje milczenie, zawahanie czy ironię i potrafi adekwatnie zareagować w czasie rzeczywistym. W tym sensie „human-in-the-loop” to nie slogan, lecz warunek bezpieczeństwa.
Trzecie ryzyko dotyczy prywatności i odpowiedzialności. Międzynarodowe wytyczne (ICF, UNESCO) podkreślają konieczność minimalizacji danych, przejrzystości przetwarzania i utrzymania kontroli po stronie człowieka — zarówno w praktyce indywidualnej, jak i w programach firmowych. Kluczowe pytanie „kto odpowiada za skutki błędnych rekomendacji AI” nie może pozostawać bez odpowiedzi; to argument za tym, aby technologia była dodatkiem do zawodu, a nie jego substytutem.
Gdy połączenie AI i coacha podnosi wyniki
Wyniki z 2025 roku spójnie wskazują, że najlepsze efekty daje hybryda: AI przyspiesza przygotowanie, analizę celów, przypomnienia i monitorowanie, a coach prowadzi część relacyjną, emocjonalną i decyzyjną. W niektórych opracowaniach odnotowano, że tak zaprojektowany proces bywa skuteczniejszy zarówno od „czystego” AI, jak i od pracy bez wsparcia technologii, o ile role są jasno rozdzielone i zgodne z etyką zawodu.
W praktyce oznacza to, że AI zwiększa gęstość kontaktu między sesjami, porządkuje dane i pomaga „trzymać kurs”, a spotkanie z coachem staje się głębsze, bardziej precyzyjne i ukierunkowane na sens. Tak rozumiana „augmentacja” pracy człowieka nie odbiera mu roli — przeciwnie, pozwala przeznaczyć więcej czasu na to, co w coachingu ma największą wartość: uważną obecność i wspólne myślenie o konsekwencjach wyborów.
Jak pracujemy w Akademii JA?
W Akademii JA wykorzystujemy AI wyłącznie w miejscach, gdzie podnosi jakość procesu: organizacji działań między sesjami, przypomnieniach, strukturyzacji notatek. Każde użycie narzędzi jest jawne i zgodne ze standardami ICF — z pełną informacją o zakresie i celu przetwarzania danych oraz z łatwym „wyłącznikiem”, jeśli dana osoba nie chce z nich korzystać. Relacja coachingowa, bezpieczeństwo i odpowiedzialność pozostają po stronie człowieka.
Na sesjach skupiamy się na pracy z wartościami, przekonaniami i emocjami, a także na kontekście społecznym i kulturowym — elementach, których AI nie „widzi”. W efekcie klienci osiągają cele nie tylko szybciej, ale przede wszystkim w sposób trwalszy i spójny z tożsamością. To różnica, którą potwierdzają badania porównawcze: AI bywa pomocna w zadaniach i prostych celach, lecz to człowiek buduje odporność psychiczną, sprawczość i poczucie sensu.









