Nvidia DGX Spark to nowa klasa komputerów do sztucznej inteligencji. Urządzenie wielkości dłoni, z preinstalowanym oprogramowaniem AI Nvidii, 128 GB zunifikowanej pamięci i deklarowaną wydajnością jak u mini superkomputera. Zespoły korzystające z tego sprzętu mogą prototypować, dopracowywać i uruchamiać lokalnie zaawansowane modele AI oraz aplikacje agentowe bez czekania na kolejkę w chmurze — i bez wysyłania wrażliwych danych poza firmę.
Spark opiera się na chipie GB10 Grace Blackwell, łącząc 20-rdzeniowy CPU Arm i GPU Blackwell w jednym pakiecie z pamięcią współdzieloną CPU-GPU. W standardzie dostajesz 4 TB szyfrowanego NVMe, Wi-Fi 7, 10 GbE RJ-45 oraz szybkie łącze sieciowe ConnectX-7, które pozwala spiąć dwa Sparki razem. Samo urządzenie ma około 150 x 150 x 50,5 mm, waży 1,2 kg i pobiera do 240 W, więc bez problemu stanie na biurku w dziale R&D. Cena katalogowa to 3999 dol. (ok. 15 tys. zł).
Dlaczego to ma sens biznesowy
Największą zmianą jest skrócenie cyklu od pomysłu, przez eksperyment, aż po wynik. DGX Spark uruchamia inferencję modeli do ok. 200 mld parametrów oraz umożliwia lokalne dopasowywanie (fine-tuning) modeli do ok. 70 mld parametrów — to wystarczająco, by szybko zweryfikować hipotezę, zbudować PoC, a potem przenieść obciążenie do centrum danych lub chmury, gdy projekt wymaga skalowania. To dokładnie ta ścieżka, którą Nvidia projektowała: biurkowe prototypowanie, produkcyjne wdrożenie na infrastrukturze przyspieszanej przez Nvidię.
Dla branż regulowanych oraz firm przetwarzających dane objęte tajemnicą przedsiębiorstwa korzyść jest oczywista: dane treningowe i oceny modeli pozostają on-premise.
Dołączony pełny stos oprogramowania (CUDA, biblioteki, narzędzia, modele i mikroserwisy Nvidia NIM) ogranicza tarcie wdrożeniowe i pozwala zespołom wskoczyć od razu w pracę nad agentami, widzeniem komputerowym, analityką czy robotyką.
Sprawdź też: AI w polskich firmach: 75% „na tak”, ale tylko 7% wdraża
Wydajność a skalowanie „po dwa”
Trzeba jasno powiedzieć, czym Spark nie jest: to nie zamiennik farmy H100 dla treningu ogromnych modeli od zera ani komputer do gier. Jego moc obliczeniowa (do 1 PFLOP w FP4) jest zoptymalizowana pod wnioskowanie, dopasowywanie i szybkie eksperymenty AI, a nie długie treningi tzw. foundation models.
Z punktu widzenia TCO to jednak właśnie w tych zadaniach firmy najczęściej przepalają czas i pieniądze w chmurze — biurkowy Spark pozwala wykonać 80% pracy wcześniej i taniej, zanim kupisz godziny w GPU-cloud.
W dniu premiery urządzenie potrafiło zniknąć z magazynów w kilka chwil, co potwierdza rynkowe FOMO na lokalną moc AI. Dziś dostępność zależy od sprzedawcy.
Ciekawą ścieżką wzrostu jest łączenie dwóch jednostek. Dzięki ConnectX-7 i zunifikowanej pamięci można pracować z modelami zapewniającymi nawet do ok. 405 mld parametrów, zostając nadal w formacie komputera biurkowego. To prosty sposób na zwiększenie pojemności bez natychmiastowej inwestycji w szafę serwerową.
DGX Spark to jednak nie samotna wyspa. Równolegle powstają bliźniacze komputery biurkowe oparte na tym samym chipie GB10, przygotowywane przez partnerów Nvidii, m.in. Della, Asusa, Acera, HP, Lenovo, MSI i Gigabyte. Dla działów zakupów oznacza to większą elastyczność form-factoru, serwisu i opcji wdrożeniowych w tym samym, zgodnym ekosystemie.
Czy to dobry zakup dla twojej firmy?
Sprzęt można zamówić w Nvidia Marketplace, a także u partnerów handlowych, w tym PNY i w wybranych sklepach Micro Center w USA. W Europie z dostępnością jest na razie słabo, ale to się zmieni.
Wersja 4 TB w oficjalnym sklepie Nvidii kosztuje 3999 dol., a Micro Center prowadzi sprzedaż detaliczną z odbiorem w salonach. Jeśli twoja organizacja ma standardy zakupowe związane z konkretnym OEM-em, warto śledzić ofertę partnerów GB10.
W pierwszych tygodniach po starcie pojawiły się relacje części użytkowników i testerów, że końcowa wydajność oraz pobór mocy nie zawsze pokrywają się z materiałami marketingowymi Nvidii, a pojedyncze egzemplarze zgłaszały problemy termiczne. Warto pamiętać, że deklarowany 1 PFLOP dotyczy precyzji FP4 i określonych scenariuszy. Część obciążeń w praktyce wymaga wyższych precyzji (np. BF16). Najlepszą praktyką jest krótkie POC na docelowych danych i modelach oraz aktualizacja firmware/OS do najnowszej wersji przed oceną.
Czytaj też: Bielik.AI i Beyond.pl na rzecz suwerennego i odpornego AI
Jeśli budujecie produkty z AI, regularnie dopasowujecie modele do własnych danych, rozwijacie agentów, wizję komputerową lub robotykę, a jednocześnie macie wymogi prywatności i kontroli kosztów — Spark rozwiązuje istotne problemy czasu i dostępu. To urządzenie nie zastąpi klastra w chmurze, ale dramatycznie przyspieszy dojście do etapu, w którym warto po tę chmurę sięgnąć. A fakt, że w cenie jednego high-endowego laptopa dostajecie pełny stos Nvidii z gotowymi przepływami pracy, sprawia, że to zakup, który warto poważnie rozważyć przy planowaniu budżetów na AI w 2026 r.