Na najbardziej prestiżowych uczelniach świata dojrzewa zaskakujący trend. Część studentów, zamiast kompletować punkty ECTS i planować staże, pakuje walizki i opuszcza kampusy. Powód nie jest typowy: lęk przed nadejściem tzw. AGI — ogólnej sztucznej inteligencji, która miałaby dorównać ludziom w wielu zadaniach i w skrajnym scenariuszu obrócić się przeciwko nam. Dla niektórych to kwestia egzystencjalnego bezpieczeństwa. Dla innych — bardzo przyziemna obawa, że zanim odbiorą dyplom, rynek pracy w ich zawodzie zdąży zniknąć.
Historia Alice Blair z MIT dobrze oddaje emocjonalną temperaturę tej rewolty. Studentka, która w 2023 roku przyszła na uczelnię z entuzjazmem do informatyki i etyki technologii, dziś jest na bezterminowym urlopie dziekańskim. Mówi wprost, że bała się, iż nie dożyje ukończenia studiów. Zamiast wracać na zajęcia, pracuje kontraktowo w Center for AI Safety, gdzie pomaga przy newsletterach i publikacjach naukowych, i przewiduje, że jej przyszłość będzie się rozgrywać poza murami uczelni.
To nie jednostkowy wybór. Adam Kaufman, o którym wspomina amerykański Forbes, porzucił Harvard, by pełnoetatowo dołączyć do Redwood Research, organizacji badającej „zwodnicze” zachowania modeli AI. Jego brat, współlokator i partnerka również zawiesili studia. Dziś pracują w OpenAI.
W tle jest gwałtowny spór o realne ryzyka i horyzont czasowy. Część środowiska — w tym eksperci, na których opinie powołują się młodzi studenci — ostrzega, że tempo rozwoju jest tak duże, iż „ryzyko na poziomie wymierania” nie jest fantazją. W ostatnich latach wyrósł cały ekosystem instytucji zajmujących się bezpieczeństwem AI — od finansowanych przez miliarderów fundacji po komercyjne firmy, które budują modele i jednocześnie obiecują wbudowane bezpieczniki.
Z drugiej strony słychać głosy sceptyczne. Gary Marcus, emerytowany profesor NYU, ocenia, że ludzkość ginąca z rąk algorytmów to „bardzo, bardzo mało prawdopodobna” wizja, a fundamentalne braki obecnych systemów — halucynacje, błędy rozumowania — każą studzić emocje. Ten dysonans poznawczy napędza napięcie. Jedni widzą wczesne ostrzeżenie, drudzy marketingową mgłę.
Sprawdź też: Jak mądrze wybierać oferty pracy nawet w trudnych czasach gospodarczych
Nawet Harvard nie daje gwarancji
Oprócz obaw egzystencjalnych jest jeszcze lęk czysto zawodowy. Połowa z 326 studentów Harvardu, ankietowanych przez samorząd i klub AI safety, martwi się wpływem AI na perspektywy pracy.
Nikola Jurković, do niedawna lider ds. przygotowań na AGI w tym klubie, twierdzi, że ogólna sztuczna inteligencja może być oddalona o cztery lata, a pełna automatyzacja gospodarki — o pięć lub sześć. W takim obrazie każdy dodatkowy rok spędzony na studiach staje się, jego zdaniem, rokiem odjętym od i tak krótkiej kariery.
W podobnym tonie wypowiadają się liderzy branży. Dario Amodei, szef Anthropic i twórcy rywala ChatGPT, Claude, ostrzega, że AI może w najbliższych latach wyeliminować połowę stanowisk dla juniorów w białych kołnierzykach i podbić bezrobocie do 20 proc.
Sam Altman z OpenAI widzi szanse na AGI przed 2029 rokiem, Demis Hassabis z Google DeepMind mówi o pięciu do dziesięciu lat. Krytycy odpowiadają, że to wciąż spekulacje, a wykresy mocy obliczeniowej nie zastąpią brakujących zdolności rozumowania.
Wielu młodych nie chce czekać, aż spór rozstrzygnie historia. Uciekają do laboratoriów bezpieczeństwa, do zespołów tworzących modele AI i — coraz częściej — do własnych firm. Wzorce są kuszące: pokolenie założycieli, które porzuciło kampusy i zbudowało dzisiejsze giganty, nadal rozpala wyobraźnię. W ostatnich dwóch latach z MIT, Georgetown i innych uczelni odchodzili studenci, by rozwijać narzędzia do programowania czy automatyzacji.
Niektórzy szybko pozyskali setki tysięcy dolarów finansowania i wyceny, które do niedawna były zarezerwowane dla dojrzałych spółek. W tle tyka zegar, a narracja „teraz albo nigdy” wzmacnia poczucie, że najlepszą obroną przed automatyzacją jest próba jej współtworzenia.
Czytaj też: Pokolenie Z sięga po tarota. Młodzi ludzie — od Chin po Europę — są zaniepokojeni przyszłością
To ruch nie dla każdego
Ta decyzja ma jednak swoją cenę, zwłaszcza gdy patrzymy przez pryzmat pracy i rozwoju osobistego. Dane Pew Research Center przypominają, że osoby z dyplomem licencjackim zarabiają średnio co najmniej 20 tys. dolarów rocznie więcej niż rówieśnicy bez takiego wykształcenia. W świecie, w którym stanowiska juniorskie kurczą się szybciej niż powstają nowe nisze, brak dyplomu może zawężać opcje.
Nieprzypadkowo nawet Paul Graham, współtwórca Y Combinatora, przestrzegał w lipcu, by nie rzucać studiów dla startupu, bo okazje biznesowe wrócą, a lat na uczelni odzyskać się nie da.
Sama Alice Blair mówi bez złudzeń, że taki ruch nie jest dla każdego. To ścieżka obciążająca i ryzykowna, wymagająca odporności i zaplecza, które część studentów ma dopiero zdobyć. Co więcej, niepewność terminów pozostaje ogromna. Jeśli AGI rzeczywiście jest odległe, to pochopne decyzje mogą okazać się stratą infrastruktury rozwojowej, jaką wciąż są dobre studia. Chodzi tu o dostęp do mentorów, czasu na budowanie fundamentów, możliwości bezpiecznego eksperymentowania.
Uczelnie i rynek pracy stoją więc przed niełatwym zadaniem: jak jednocześnie przygotować młodych na świat głębokiej automatyzacji i nie ulec panice, która wypycha ich z ekosystemu kształcenia. Na horyzoncie widać kilka rozsądnych dróg. Programy nauczania mogą szybciej wtapiać praktyczne projekty z AI i etyką technologii, tak by studenci czuli, że uczą się rzeczy, które mają wagę dziś, nie tylko „po dyplomie”.
Pracodawcy, którzy faktycznie tną rekrutacje juniorskie, mogą przeprojektować ścieżki wejścia do zawodu — mniej kopiowania schematów, więcej pracy w tandemie człowiek–model AI. A sami studenci mogą urealniać swoje decyzje, łącząc naukę z działaniem: semestr przerwy na projekt w organizacji AI safety, intensywny staż w zespole machine learning, kursy z weryfikacji faktów i bezpieczeństwa danych. Taki miks nie usuwa ryzyka, ale redukuje koszt błędnego rozpoznania trendu.
Dziś najuczciwsza diagnoza brzmi: żyjemy w niepewności. Między alarmem a sceptycyzmem trzeba przecierać ścieżkę, która nie zamyka przyszłych opcji. Jeżeli AGI pojawi się szybciej, niż sądzimy, doświadczenie zdobyte w realnych projektach będzie bezcenne. Jeśli jednak do przełomu daleko, dyplom i sieć akademickich relacji mogą być właśnie tym, co pozwoli przetrwać kolejne fale technologicznych trendów.
Warto podejmować decyzje nie z pozycji strachu — o koniec świata czy o koniec kariery — lecz z pozycji sprawczości. I krok po kroku budując kompetencje, które pozostaną użyteczne niezależnie od tego, czy superinteligencja pojawi się w 2029 roku, czy znacznie później.
FAQ — AGI. Ważne pytania i odpowiedzi
Co oznacza skrót AGI?
AGI to skrót od Artificial General Intelligence, czyli sztucznej inteligencji ogólnej — hipotetycznego typu AI, która dorównuje lub przewyższa człowieka w większości zadań poznawczych.
W odróżnieniu od wąskiej AI, AGI miałaby przenosić wiedzę między dziedzinami, uczyć się i adaptować do nowych zadań podobnie jak człowiek.
OpenAI opisuje AGI jako „wysoce autonomiczny system, który przewyższa ludzi w większości ekonomicznie wartościowych prac”. Na dziś pozostaje to cel badań i zarazem przedmiot sporów definicyjnych oraz metodologicznych.
Czym jest silna sztuczna inteligencja?
Silna sztuczna inteligencja (strong AI) to koncepcja maszyn zdolnych do ogólnego, ludzkopodobnego rozumienia i rozwiązywania problemów, a nie tylko do wykonywania wąskich zadań. W sensie filozoficznym zakłada się, że taka maszyna mogłaby posiadać świadomość, intencjonalność i „zrozumienie znaczeń”, czyli coś na kształt umysłu. Termin bywa używany zamiennie z AGI, choć część autorów rozróżnia AGI (poziom kompetencji) od strong AI (kompetencje plus świadomość). Przeciwstawia się jej tzw. słaba/narrow AI, która działa skutecznie w ograniczonych domenach bez prawdziwego rozumienia.
Jaka jest najbardziej zaawansowana sztuczna inteligencja?
Nie ma jednej obiektywnej odpowiedzi, bo „najbardziej zaawansowana AI” zależy od zadania i rankingi zmieniają się z tygodnia na tydzień.
W zbiorczym rankingu Chatbot Arena, który porównuje modele na podstawie milionów głosów użytkowników, czołówkę w sierpniu 2025 zajmują najnowsze modele OpenAI i Google. Na tablicy multimodalnej widać m.in. GPT-5 i Gemini 2.5 Pro na samym szczycie.
W domenie kodowania świetne wyniki na benchmarku SWE-bench osiągają konfiguracje oparte na Claude 3.5 Sonnet, co pokazuje, że „najlepszy” model może być różny w zależności od zastosowania.
OpenAI raportuje też postępy swoich nowszych modeli rozumowania z linii o3/o4-mini w matematyce, kodzie i zadaniach multimodalnych, co wpływa na praktyczną ocenę zaawansowania.
Najprościej śledzić na bieżąco ranking LMSYS Chatbot Arena, który agreguje te porównania i pokazuje, co aktualnie wygrywa.
Kiedy powstanie AGI?
Nie ma uzgodnionej daty powstania AGI — nawet definicja jest sporna, a branża przyznaje, że konsensusu brak. Demis Hassabis z Google DeepMind szacuje horyzont na 5–10 lat. Bardziej agresywne prognozy pochodzą z rynków predykcyjnych: na Metaculusie medianą jest około 2027 r. dla „pierwszej AGI”.
Z kolei największa ankieta wśród 2778 badaczy (AI Impacts, 2023) wskazuje medianę 17–34 lata do tzw. HLMI, czyli ok. 2040–2057 w zależności od metody pytania.
Wniosek: realistyczny przedział to od końca tej dekady do połowy wieku — bieżące szacunki możesz śledzić np. na Metaculus – AGI timeline oraz w raportach, np. AI Impacts.