AI dławi się własnym sukcesem. Ceny mogą wzrosnąć

AI dławi się własnym sukcesem. Ceny mogą wzrosnąć AI dławi się własnym sukcesem. Ceny mogą wzrosnąć

Boom na sztuczną inteligencję wchodzi w nową fazę. Problemem nie jest już tylko jakość modeli, ale dostęp do mocy obliczeniowej, energii, chipów i pamięci. Jeśli popyt nadal będzie rósł szybciej niż infrastruktura, użytkownicy mogą częściej widzieć limity, kolejki i droższe plany abonamentowe.

  • Firmy AI coraz częściej ograniczają dostęp do usług w godzinach szczytu
  • Brakuje nie tylko GPU, ale też pamięci HBM, CPU, sieci i mocy energetycznej
  • Hyperscalerzy wydają setki miliardów dolarów na centra danych, ale łańcuch dostaw rośnie za wolno
  • Ceny narzędzi AI nie muszą rosnąć liniowo, ale prawdopodobne czekają nas ostrzejsze limity i warianty rozliczeń za użycie
Thumbnail
Rozwijaj swoją markę osobistą. Dołącz do programu BGR Expert Network

Jeszcze niedawno symbolem wyścigu AI były coraz większe, lepsze modele językowe. Dziś coraz częściej takim symbolem staje się komunikat o limicie użycia. W Dolinie Krzemowej pojawiła się nawet moda na tokenmaxxing, czyli rywalizację o to, kto zużyje więcej tokenów — jednostek tekstu przetwarzanych przez modele AI. Problem w tym, że za każdym tokenem stoi infrastruktura: chipy, serwery, chłodzenie, sieci i energia.

Według opisywanego przez The Economist trendu popyt na AI zaczyna wyprzedzać możliwości rynku. Anthropic ograniczał dostęp do Claude w godzinach największego obciążenia, GitHub wstrzymywał nowe subskrypcje wybranych planów Copilota, a firmy rozwijające modele szukają dodatkowej mocy u wielu dostawców chmury. Anthropic oficjalnie tłumaczy, że szybki wzrost popytu ze strony firm i użytkowników indywidualnych obciąża niezawodność usług, a jego współpraca z Amazonem ma zapewnić do 5 GW nowej mocy obliczeniowej dla Claude.

To nie jest jednak chwilowa czkawka technologiczna, lecz wąskie gardło całego sektora. OpenAI zmieniło zasady partnerstwa z Microsoftem tak, by móc obsługiwać produkty przez dowolnego dostawcę chmury, gdy Azure nie wystarczy lub nie zapewni wymaganych możliwości. To sygnał, że elastyczny dostęp do infrastruktury staje się strategiczny równie mocno jak same modele.

Sprawdź też: Holenderskie wąskie gardło rewolucji AI. Bez maszyn ASML nie ma ani ChatGPT, ani jego następców

To nie są małe inwestycje

Skala inwestycji jest ogromna. Reuters podał, że Meta wyemitowała obligacje za 25 mld dol. po podniesieniu planu wydatków inwestycyjnych na 2026 r. do 125–145 mld dol., a łączne wydatki Big Techu na infrastrukturę AI mogą w tym roku przekroczyć 700 mld dol. Jednak samo wypisywanie czeków nie wystarczy.

Nowe centra danych trzeba jeszcze podłączyć do sieci, zasilić, wyposażyć i schłodzić.

Tu zaczyna się drugi problem: polityka i energia. W USA rośnie lokalny opór wobec wielkich centrów danych. Dla przykładu w stanie Maine legislatorzy poparli moratorium na część nowych inwestycji, choć gubernator Janet Mills je zawetowała. Podobne spory pojawiają się w innych regionach, bo mieszkańcy obawiają się wyższych rachunków za prąd, zużycia wody i presji na lokalną infrastrukturę.

Trzecie ograniczenie to sprzęt. AI kojarzy się głównie z GPU Nvidii, ale deficyt rozlewa się szerzej. Potrzebne są pamięci HBM, zaawansowane pakowanie chipów, przełączniki sieciowe, serwerowe CPU i systemy chłodzenia. Tom’s Hardware opisywał, że producenci pamięci ostrzegają przed napiętą podażą HBM nawet do 2027 r. i później, a w osobnym materiale wskazywał na rosnący popyt na CPU dla systemów agentowych.

To szczególnie ważne, bo kolejną falą AI mają być agenci: narzędzia, które nie tylko odpowiadają na pytania, ale planują, wykonują zadania, korzystają z aplikacji i wielokrotnie odwołują się do modeli.

Dla użytkownika wygląda to jak jedna komenda. Dla infrastruktury może oznaczać jednak dziesiątki zapytań, długi kontekst, więcej pamięci i większe obciążenie procesorów.

Czy to oznacza, że ceny narzędzi AI wzrosną? Najbardziej prawdopodobny scenariusz jest bardziej złożony. Cena pojedynczego tokena może nadal spadać dzięki lepszym modelom, optymalizacji i konkurencji. Ale całkowity rachunek użytkownika lub firmy może rosnąć, bo zużycie rośnie szybciej niż efektywność. Zamiast prostych podwyżek abonamentu możemy zobaczyć więcej limitów, rozliczanie za użycie, droższe plany „premium”, opłaty za modele najbardziej zaawansowane oraz tańsze tryby o niższym priorytecie.

Czytaj też: Pięć etapów kariery zawodowej. Na którym jesteś i co zrobić, żeby przejść dalej?

Widać już zmiany w cenach

Pierwsze sygnały już są widoczne. GitHub przechodzi w Copilocie na system kredytów AI powiązanych z użyciem i kosztami modeli, a część funkcji będzie konsumować kredyty zależnie od liczby tokenów i wybranego modelu. Anthropic również testował i zmieniał limity użycia Claude, aby zarządzać obciążeniem w godzinach szczytu.

AI staje się zbyt popularna jak na infrastrukturę, którą dziś dysponuje rynek. Dla użytkowników oznacza to koniec iluzji, że generatywna AI jest niemal darmowa. Tokeny są cyfrowe, ale ich koszt jest bardzo materialny.

REKLAMA