15 sekund. Dwuzdaniowy prompt. Trzęsienie ziemi w Hollywood. Wiralowe nagranie przedstawiające walkę Brada Pitta z Tomem Cruise’em na dachu budynku, wygenerowane w całości przez sztuczną inteligencję, wstrząsnęło branżą rozrywkową i wywołało lawinę pytań o przyszłość kina, prawa autorskie i ludzką kreatywność. Gdzie leży granica między narzędziem a zagrożeniem? I czy przemysł filmowy ma jeszcze coś do powiedzenia?
- Seedance 2.0, platforma generowania wideo firmy ByteDance (właściciela TikToka), umożliwia tworzenie hiperrealistycznych klipów z wizerunkami gwiazd na podstawie zaledwie kilku słów polecenia
- Motion Picture Association zażądała natychmiastowego zaprzestania działalności naruszającej prawa autorskie, a Disney i Paramount wysłały do ByteDance pisma cease and desist.
- SAG-AFTRA potępiło narzędzie jako naruszające prawo, etykę i prawa twórców – sprawa otwiera nowy front batalii o regulacje AI w Hollywood
- Część ekspertów kwestionuje, czy klip faktycznie powstał wyłącznie z promptu – istnieją dowody sugerujące, że u podstaw nagrania leżały zdjęcia kaskaderów, na które AI nałożyła twarze gwiazd
Dwa zdania, które zmieniły wszystko
11 lutego 2026 r. irlandzki reżyser Ruairi Robinson, znany z nominacji do Oscara za krótkometrażówkę w 2002 r., wrzucił na platformę X post z dołączonym piętnastosekundowym klipem. Widać na nim Toma Cruise’a i Brada Pitta okładających się pięściami na dachu budynku podczas zachodu słońca. Scenografia, choreografia walk, dynamiczne ujęcia kamery, efekty dźwiękowe i muzyka – wszystko wyglądało jak fragment drogiego blockbustera. Robinson dopisał lakonicznie: „To był dwuzdaniowy prompt w Seedance 2.0.”
Post zebrał miliony wyświetleń w kilkadziesiąt godzin. Hollywood zamarło.
Dalsza część pod materiałem wideo:
Czym jest Seedance 2.0?
ByteDance wprowadziło Seedance 2.0 w połowie lutego 2026 r., niemal dwa miesiące po tym, gdy wcześniejsza wersja nie wywołała większego poruszenia. Firma w komunikacie prasowym chwaliła zaktualizowane narzędzie za „precyzję fizyczną, realizm i sterowalność” oraz podkreślała, że nadaje się do „profesjonalnych scenariuszy kreatywnych”, pozwalając użytkownikom kontrolować tworzenie filmów „jak prawdziwy reżyser”.
Seedance 2.0 to multimodalna platforma generowania wideo. Zamiast polegać wyłącznie na promptach tekstowych, przyjmuje obrazy, wideo, audio i tekst jako dane wejściowe – co daje twórcom dużą kontrolę nad każdym aspektem generowania. System działa na zasadzie referencji – można wskazać plik wideo jako wzorzec ruchu kamery, obraz jako postać i dźwięk jako rytm muzyczny.
Czytaj też: Czy technologia 5G pozwala zapomnieć o braku światłowodu na obrzeżach miast?
Technologia stoi na ramionach wieloletnich badań nad dyfuzją i transformerami wizyjnymi – tymi samymi architekturami, które napędzają Sorę 2 OpenAI czy Veo 3.1 Google’a. Różnica? Seedance 2.0 wyróżnia się zdolnością do precyzyjnego odwzorowania ruchów postaci w sekwencjach akcji. To właśnie dlatego użytkownicy natychmiast zaczęli tworzyć filmy walk z udziałem gwiazd i postaci z filmów.
Czy klip naprawdę powstał z dwóch linii?
Nie wszyscy dali się ponieść entuzjazmowi. Aaron Peterson, pisarz i programista z doświadczeniem w produkcji filmowej i efektach wizualnych, opublikował na swoim blogu Shokunin Studio analizę, w której podważył wersję Robinsona. Na stronie Seedance znalazł nagrania z zielonego ekranu z kaskaderami wykonującymi identyczną choreografię walk jak w klipie Cruise/Pitt. Hipoteza Petersona: nakręcono kaskaderów z kilku kątów, dla każdego kąta wygenerowano osobny klip AI, następnie nałożono twarze gwiazd i zszyto całość – co oznaczałoby, że materiał wejściowy to nie tylko dwie linijki tekstu, ale też nagranie wideo i referencje twarzy.
Niezależnie od tego, czy Robinson rzeczywiście użył wyłącznie tekstowego polecenia, sama dyskusja ujawnia skalę możliwości: podmiana twarzy, generowanie tła i symulacja ruchu kamery w jakości dotąd zarezerwowanej dla studiów z wielomilionowymi budżetami są dziś dostępne dla każdego posiadacza komputera i konta na platformie.
Sprawdź też: Rewolucja w bateriach do aut elektrycznych. Sód zastępuje lit i nie boi się mrozu
Reakcja Hollywood: strach i gniew
Scenarzysta „Deadpoola i Wolverine’a” Rhett Reese jako jeden z pierwszych zabrał głos publicznie. Napisał na X: „To prawdopodobnie po nas”. Doprecyzował: „Nie jestem wcale podekscytowany wkraczaniem AI w twórcze dziedziny. Wręcz przeciwnie – jestem przerażony. Tak wiele osób, które kocham, stoi w obliczu utraty karier. Sam jestem zagrożony. Byłem porażony filmem Pitt kontra Cruise, bo jest tak profesjonalny. Właśnie dlatego się boję.”
Branża zareagowała błyskawicznie. Wiele dużych studiów, w tym Disney i Paramount, wysłało do ByteDance pisma cease and desist. W przypadku Disneya firma oskarżyła ByteDance o trenowanie modelu na „skradzionej bibliotece” swoich postaci.
SAG-AFTRA w oświadczeniu z 13 lutego stwierdziło, że „stoi ze studiami w potępieniu jawnego naruszenia praw autorskich przez nowy model wideo AI firmy ByteDance”. Związek dodał: „Naruszenie obejmuje nieuprawnione użycie głosów i wizerunków naszych członków. To niedopuszczalne i podważa zdolność ludzkich twórców do zarabiania na życie.”
Prezes MPA Charles Rivkin napisał w oświadczeniu: „W ciągu jednego dnia chiński serwis AI Seedance 2.0 dokonał nieuprawnionego użycia amerykańskich dzieł chronionych prawem autorskim na masową skalę.”

Kwestia prawna: kto tu łamie prawo?
Sprawa jest złożona prawnie i precedensowa. Istnieje kilka odrębnych warstw potencjalnych naruszeń.
Wizerunek i prawo do podobizny. W większości stanów USA istnieje „right of publicity” – prawo do kontroli komercyjnego użycia swojej twarzy i głosu. Duncan Crabtree-Ireland z SAG-AFTRA powiedział, że materiał tego typu „nie mógłby zostać wyprodukowany przez żadnego sygnatariusza kontraktów związkowych bez wyraźnej, świadomej zgody tych osób”.
Prawo autorskie i dane treningowe. Centralne pytanie brzmi: czy trenowanie modelu AI na filmach, sesjach zdjęciowych i nagraniach wideo bez licencji stanowi naruszenie prawa autorskiego? To kwestia, którą rozstrzyga właśnie kilka procesów sądowych w USA, m.in. sprawa Getty Images vs Stability AI.
Odpowiedzialność platformy. ByteDance jako platforma może powoływać się na „safe harbor” analogiczny do przepisów DMCA, przerzucając odpowiedzialność na użytkowników. Sam ByteDance w połowie lutego zapowiedział wzmocnienie zabezpieczeń przed nieautoryzowanym użyciem IP i wizerunków.
Polska perspektywa. Polskie przepisy w zakresie prawa autorskiego są zbieżne z unijnymi dyrektywami, które nie przewidują wyłączeń dla trenowania modeli AI. Rozporządzenie AI Act UE, które wchodzi w życie stopniowo do 2027 r., nakłada obowiązki transparentności na dostawców modeli generatywnych, ale nie zakazuje wprost generowania treści z wizerunkami osób publicznych.
Czytaj też: Wall Street szykuje się na chipy jak na ropę. Finansjalizacja AI dopiero rusza
Zalety, wady i obawy
Co przemawia za AI wideo
Demokratyzacja produkcji filmowej jest faktem. Młody twórca z Polski, Brazylii czy Ghany może dziś stworzyć wizualnie imponujący materiał bez budżetu studyjnego. Kilka filmów nominowanych do Oscarów w 2025 r., w tym „Brutalist” i „Dune: Część druga”, korzystało z AI w produkcji. Technologia przyspiesza preprodukcję, animacje i tworzenie efektów specjalnych.
Główne zagrożenia
Dezinformacja wizualna to ryzyko bardzo poważne – technologia umożliwia tworzenie przekonujących deepfake’ów polityków, celebrytów, zwykłych ludzi. Utrata miejsc pracy w sektorach kreatywnych – od kaskaderów po aktorów drugoplanowych i operatorów – jest nieuchronna, jeśli narzędzia nie zostaną objęte regulacjami. Wreszcie kwestia zgody: ludzie nie mają możliwości skutecznego monitorowania, czy ich wizerunek jest używany przez platformy AI.
Rekomendacje
Branża powinna dążyć do obowiązkowego znakowania treści AI (watermarking), co OpenAI i Google już wprowadzają. Konieczne są mechanizmy opt-out dla artystów – możliwość zastrzeżenia swojego wizerunku i głosu przed treningiem modeli. Proponowany przez SAG-AFTRA „podatek Tilly” – opłata za użycie wygenerowanych aktorów AI – to jeden z kierunków, który może zapewnić twórcom udział w zyskach z technologii.
Co dalej?
AI było jednym z głównych powodów strajku SAG-AFTRA i Writers’ Guild w 2023 r. Niektórzy członkowie argumentują, że wynegocjowane wówczas zabezpieczenia – dziś niemal trzyletnie – nie poszły wystarczająco daleko. Wraz z kolejnymi rundami negocjacji kontraktowych i kolejnymi przełomami technologicznymi, bitwa między ludzką kreatywnością a algorytmami dopiero się rozkręca.
Jedno jest pewne: klip Pitt vs Cruise, niezależnie od tego, czy powstał z dwóch linii czy z zaawansowanego pipeline’u produkcyjnego, zmienił punkt odniesienia. Poprzeczka została podniesiona – i nikt jej już nie cofnie.
FAQ: Jak tworzyć wideo z AI? Narzędzia i porady
Jakie narzędzia AI do generowania wideo są dostępne w 2026 roku?
Rynek jest bardzo bogaty. Czołowe narzędzia to Seedance 2.0 (ByteDance, dostępny m.in. przez CapCut Dreamina i ElevenLabs), Sora 2 (OpenAI, dostępny przez subskrypcję ChatGPT Plus za ok. 20 dol./mc), Kling 3.0 (Kuaishou, najlepszy stosunek ceny do jakości, plany od ok. 10 dol./mc), Veo 3.1 (Google, jakość kinematograficzna, 4K) oraz Runway Gen-4 (najlepsza opcja dla profesjonalnych filmowców). Agregatory takie jak getimg.ai czy WaveSpeedAI umożliwiają dostęp do wielu modeli z jednego miejsca.
Od czego zacząć jako początkujący?
Najłatwiejszym wejściem jest Kling AI – darmowy plan podstawowy z dziennymi kredytami i intuicyjny interfejs. Seedance 2.0 oferuje bezpłatny poziom z ograniczoną liczbą generacji w rozdzielczości 720p. Warto zacząć od trybu image-to-video (obraz do wideo) zamiast text-to-video – najpierw wygeneruj nieruchomy kadr odpowiadający twojej wizji, a następnie ożyw go, dodając ruch.
Jak napisać dobry prompt do generowania wideo?
Opisz: (1) co się dzieje w kadrze, (2) ruch kamery (np. „slow tracking shot”, „handheld camera”), (3) oświetlenie i porę dnia, (4) styl wizualny (np. „cinematic, 35mm film grain”). Im bardziej konkretny opis, tym lepsze wyniki. Unikaj ogólników – zamiast „dwoje ludzi rozmawia” napisz „dwoje ludzi przy kawiarnianym stoliku, miękkie poranne światło, kamera powoli oddala się, atmosfera jak w filmie Wonga Kar-Waia”.
Czy generowanie wideo z twarzami znanych osób jest legalne?
W zdecydowanej większości przypadków – nie. Użycie wizerunku bez zgody narusza zarówno prawo do podobizny (szczególnie w USA), jak i potencjalnie prawo autorskie. W Polsce obowiązuje art. 81 prawa autorskiego dotyczący ochrony wizerunku. Klipy generowane wyłącznie do prywatnego użytku stanowią szarą strefę, natomiast każda publikacja wiąże się z ryzykiem prawnym.
Czy AI wideo można wykorzystywać komercyjnie?
Tak, ale z zastrzeżeniami. Seedance 2.0, Runway, Kling i Pika oferują licencje komercyjne w płatnych planach. Sora 2 dodaje do materiałów watermark dla przejrzystości. Kluczowe jest sprawdzenie aktualnych regulaminów platformy – zasady często się zmieniają. Nigdy nie należy używać wizerunków osób publicznych ani chronionych postaci fikcyjnych w materiałach komercyjnych bez licencji.
Jakie są koszty profesjonalnego generowania wideo AI?
Ceny wahają się od bezpłatnych planów próbnych po cenę ok. 0,30 dol. za klip w Seedance 2.0 przy płatności za użycie. Subskrypcje Runway kosztują od 15 do 95 dol. miesięcznie w zależności od pakietu. Kling oferuje plan standard od ok. 10 dol./mc. Dla porównania: minuta nakręcona tradycyjnie przez ekipę filmową kosztuje od kilkuset do kilkudziesięciu tysięcy dolarów.
