Administracja publiczna stoi u progu kolejnej fazy transformacji cyfrowej. Sztuczna inteligencja, która w ostatnich latach była przede wszystkim w fazie testów i pilotaży, w 2026 roku ma wejść do codziennej pracy urzędów i instytucji na szeroką skalę. Coraz częściej mówi się nie tylko o efektywności i automatyzacji, ale także o zaufaniu, przejrzystości i bezpieczeństwie – kluczowych elementach, które mogą zdecydować o sukcesie lub porażce projektów AI.
Inwestycje w technologie oparte na AI w sektorze publicznym rosną, jednak wyzwaniem pozostaje równoległe budowanie ram, które zapewnią kontrolę nad tymi narzędziami oraz ochronę interesów obywateli. W świetle zmian regulacyjnych, takich jak wdrażanie unijnego AI Act, instytucje publiczne muszą łączyć innowacyjność z odpowiedzialnym zarządzaniem.
Regulacje i AI governance w centrum uwagi
W 2026 roku kwestie regulacyjne będą jednym z najważniejszych tematów w debacie o AI. Rządy przechodzą od etapu opracowywania zasad do ich realnego wdrażania i egzekwowania. Administracje publiczne przygotowują się na wdrożenie krajowych strategii AI, które uwzględniają suwerenność cyfrową – kontrolę nad danymi i zasobami obliczeniowymi we własnych granicach.
Coraz częściej mówi się o tworzeniu narodowych ekosystemów AI oraz regionalnych centrów danych, które mają wspierać bezpieczne i zgodne z prawem wykorzystanie sztucznej inteligencji.
— Od lat widzimy ruchy mające na celu wyłączenie potencjalnie niebezpiecznych sprzętów z sieci państwowych. Pomaga przy tym dyrektywa NIS2, która wymaga sprawdzania dostawców pod kątem bezpieczeństwa. Niedawno byliśmy świadkami zakazu wjazdu chińskich aut na tereny Wojska Polskiego, w przyszłości możemy się spodziewać więcej tego rodzaju działań — mówi Marek Frysz, Senior Account Executive w firmie SAS.
Sprawdź też: SAS i Altkom Akademia rozpoczynają współpracę w obszarze szkoleń z analityki danych i AI
Europejskie standardy po polsku
Równolegle do rozwoju AI Polska administracja musi już uwzględniać nowe obowiązki wynikające z wdrożenia dyrektywy NIS2 do ustawy o Krajowym Systemie Cyberbezpieczeństwa. Oznacza to realną zmianę sposobu funkcjonowania organizacji, a nie jedynie formalne dostosowanie dokumentacji. Podmioty objęte regulacją – zarówno „podmioty kluczowe”, jak i „podmioty ważne” – będą musiały wdrożyć systemowe podejście do zarządzania cyberryzykiem, obejmujące stały monitoring bezpieczeństwa, procedury reagowania na incydenty, regularne testy i audyty oraz jasny podział odpowiedzialności na poziomie zarządczym.
Cyberbezpieczeństwo przestaje być domeną działu IT, a staje się elementem ładu korporacyjnego i odpowiedzialnością kierownictwa. Organizacje będą musiały uporządkować architekturę swoich systemów, lepiej zarządzać dostępami, podnieść poziom kontroli nad dostawcami i partnerami technologicznymi oraz przygotować się na szybkie i sformalizowane raportowanie incydentów do CSIRT-ów.
W praktyce NIS2 wymusza większą dojrzałość organizacyjną: standaryzację procesów, dokumentowanie decyzji dotyczących bezpieczeństwa, budowanie kompetencji pracowników oraz ścisłe powiązanie rozwoju nowych technologii – w tym AI – z wymaganiami dotyczącymi odporności cyfrowej i ochrony danych.
— W kontekście regulacji kluczowe staje się też budowanie przejrzystości i audytowalności algorytmów oraz kompetencji pracowników administracji. Zaufanie publiczne w zastosowania AI zależy nie tylko od technologii, ale od jasnych zasad jej stosowania i zrozumienia. Zarówno wśród specjalistów, jak i obywateli. Prywatne firmy będą miały inne budżety i możliwości, jeśli chodzi o dostosowywanie się do nowych wymogów. Administrację publiczną, ze względu na przechowywanie bardzo wrażliwych danych, mogą czekać nagłe zmiany w miejscach, które wcześniej nie były uważane za wrażliwe — dodaje Marek Frysz.
Dane syntetyczne: nowe paliwo dla AI w urzędach
Niestety, każde usprawnienie spotyka własne przeszkody. Problemy z dostępem do wysokiej jakości danych są jednym z głównych ograniczeń rozwoju AI w sektorze publicznym.
Dane rzeczywiste często są ograniczone przez potrzebne regulacje o ochronie prywatności, polityczne zmiany lub kwestie suwerenności cyfrowej. Rozwiązaniem tego wyzwania może być dane syntetyczne, czyli sztucznie generowane informacje, które imitują prawdziwe zestawy danych, ale nie zawierają wrażliwych informacji osobowych.
Według analizy ekspertów, już w 2026 roku rządy będą szeroko korzystać z dużych modeli językowych (LLM) lub innych narzędzi do generowania syntetycznych, nieustrukturyzowanych danych tekstowych – takich jak e-maile, raporty czy notatki służbowe – w celu wsparcia badań, szkoleń i testów systemów AI. LLM, dzięki zdolności generowania tekstu przypominającego język ludzki, staje się narzędziem do tworzenia realistycznych zestawów danych, które pomagają trenować i sprawdzać modele bez naruszania prywatności obywateli.
Nieustrukturyzowane dane syntetyczne generowane przez LLMy lub inne wyspecjalizowane narzędzia, będą kształtować badania, szkolenia i testowanie systemów w 2026 roku. Przy odpowiednich zabezpieczeniach takie dane są realistyczne, skalowalne i chronią prywatność
— Marek Frysz, Senior Account Executive w firmie SAS
Dane syntetyczne mogą znacznie przyspieszyć cyfrową transformację administracji publicznej, umożliwiając współdzielenie informacji między agencjami i tworzenie modeli AI, które działają sprawnie nawet przy ograniczonym dostępie do danych rzeczywistych.
AI w służbie efektywności i bezpieczeństwa
Poza usługami dla obywateli i zarządzaniem danymi, AI w administracji ma wspierać również procesy wewnętrzne – od wykrywania nadużyć finansowych, przez analizę ryzyka, po usprawnianie procedur wewnętrznych i operacyjnych.
Automatyzacja i inteligentne systemy analityczne mają zwiększyć efektywność pracy urzędów, a jednocześnie ograniczyć koszty i błędy ludzkie.
Czytaj też: CRM jako kręgosłup skalowania. Jak zbudować jedno źródło prawdy, by rosnąć bez utraty kontroli
