Generatywna AI obiecuje oszczędność czasu, ale nowe obserwacje z firmy technologicznej pokazują paradoks. Im łatwiej „robić więcej”, tym szybciej rośnie presja, zakres obowiązków i liczba godzin spędzanych w pracy.
- Ośmiomiesięczne badanie w amerykańskiej firmie (zatrudnia ok. 200 osób) wskazuje, że AI nie tyle odciąża, co intensyfikuje pracę i rozlewa ją na kolejne godziny dnia
- Granice ról zaczęły się zacierać: ludzie przejmowali zadania innych zespołów, bo AI „uzupełniała” braki kompetencyjne
- Inżynierowie zamiast zyskiwać czas, często poświęcali go na weryfikację i poprawki pracy generowanej przez AI u kolegów spoza IT
- Badacze proponują zestaw norm, które mówią jak używać AI i kiedy przestać, żeby nie wpaść w pętlę nadmiaru
W badanej organizacji nikt formalnie nie wymagał korzystania z narzędzi AI – firma po prostu wykupiła subskrypcje komercyjnych rozwiązań i zostawiła decyzję pracownikom. Efekt był jednak masowy. Część osób zaczęła wykonywać zadania szybciej, brać na siebie więcej tematów i rozciągać pracę na kolejne pory dnia, mimo że nikt im tego wprost nie zlecał.
Ważny jest tutaj mechanizm psychologiczny. AI sprawia, że dodatkowy wysiłek wydaje się mało kosztowny. Aruna Ranganathan (UC Berkeley Haas School of Business) i Xingqi Maggie Ye (Berkeley Haas, UC Berkeley) zauważyły, że dzięki AI „doing more” (po polsku: „robienie więcej”) „wydaje się łatwiejsze i bardziej satysfakcjonujące”.
To właśnie ten niewidoczny przyrost obowiązków bywa groźny. Narasta powoli, często bez formalnej zmiany roli czy celów. Z czasem prowadzi do zmęczenia poznawczego, wypalenia i gorszego podejmowania decyzji – bo człowiek jest stale w trybie dowożenia coraz większej liczby spraw.
Gdzie znika zaoszczędzony czas. Pętla oczekiwań i koszt weryfikacji
W obserwowanej firmie zaczęły zacierać się granice stanowisk. Product managerowie i projektanci sięgali po kodowanie, badacze wchodzili w zadania inżynieryjne, a AI działała jak proteza kompetencji. To z jednej strony zwiększa elastyczność, ale z drugiej tworzy nowy koszt – ktoś musi sprawdzać, poprawiać i brać odpowiedzialność za rezultat.
Dla zespołów technicznych oznaczało to niekiedy zmianę charakteru pracy: klasyczny code review zamieniał się w ciągłe „odkręcanie” błędów i coaching, bo wygenerowany kod czy rozwiązania wyglądały wiarygodnie, ale wymagały dopracowania. W praktyce oszczędność na jednym etapie bywa konsumowana przez kontrolę jakości na kolejnym.
To dobrze tłumaczy, dlaczego wyniki wielu badań o wzroście produktywności nie muszą oznaczać krótszego dnia pracy.
Eksperymenty pokazują, że przy zadaniach pisarskich czas wykonania potrafi spaść, a jakość rosnąć (np. w badaniu opublikowanym w Science średni czas spadł, a jakość wzrosła). Z kolei w dużym wdrożeniu asystenta AI w obsłudze klienta odnotowano wzrost produktywności (więcej spraw na godzinę), szczególnie u mniej doświadczonych pracowników.
Problem zaczyna się wtedy, gdy organizacja traktuje ten zysk nie jako „luz”, tylko jako nową normę prędkości. AI przyspiesza pracę — rosną oczekiwania co do tempa — ludzie jeszcze częściej sięgają po AI — biorą na siebie jeszcze więcej. W efekcie rośnie aktywność, a niekoniecznie maleje obciążenie. Ten mechanizm podbijają też opisy badań o tym, jak AI zmienia praktyki pracy i dobrostan w organizacjach.
Sprawdź też: Koniec z klawiaturą. Pracownicy masowo dyktują wszystko sztucznej inteligencji
„AI practice”. Jak przerwać spiralę i nie zamienić produktywności w wypalenie
Badacze proponują podejście nazwane „AI practice” (po polsku: „praktyka AI”) – czyli zestaw świadomie ustalonych norm i rutyn, które określają nie tylko jak używać narzędzi, ale też kiedy zrobić pauzę i kiedy przestać. Aruna Ranganathan (UC Berkeley Haas School of Business) i Xingqi Maggie Ye (Berkeley Haas, UC Berkeley) podkreślają, że bez takich granic AI ułatwia dokładanie kolejnych zadań, ale utrudnia zwalnianie tempa.
„Praktyka AI” mogłaby oznaczać wyraźne standardy jakości (kiedy wynik AI jest „wystarczający”, a kiedy wymaga eksperckiej weryfikacji), reguły odpowiedzialności (kto podpisuje się pod decyzją i dlaczego), oraz momenty kontrolne, w których zespół sprawdza, czy „więcej” nie stało się po cichu „za dużo”.
Takie ramy są ważne zwłaszcza tam, gdzie AI pozwala ludziom przekraczać granice ról – bo to bywa korzystne, ale łatwo prowadzi do sytuacji, w której organizacja zjada potencjalną oszczędność czasu i zamienia ją w stałe zwiększenie tempa pracy.
Czytaj też: Sztuczna inteligencja i NIS2 w administracji publicznej. Czy 2026 będzie rokiem niepewności?
