Nowy wymiar tworzenia wideo z AI
Google DeepMind zaprezentowało VEO 3 – przełomowy system, który zamienia tekstowe opisy w niezwykle realistyczne i płynne sekwencje wideo. Dzięki połączeniu analizy przestrzeni i czasu z mocą dużych modeli językowych, Veo 3 oferuje jakość obrazu i dźwięku, która w wielu przypadkach dorównuje profesjonalnym produkcjom filmowym.
Dla twórców oznacza to jedno: efekt końcowy niemal idealnie odzwierciedlający wizję zawartą w promptach, bez wielogodzinnej postprodukcji i skomplikowanych narzędzi.
Największym game-changerem jest jednak to, że VEO 3 generuje nie tylko obraz, ale i dźwięk. System sam dopasowuje efekty audio do scen – od szumu ulicy i śpiewu ptaków, po muzykę czy dialog – całkowicie eliminując potrzebę korzystania z zewnętrznych bibliotek czy nagrań. To kompletny pakiet filmowy, tworzony w całości przez AI.
Obecnie VEO 3 ogranicza długość jednego klipu do 8 sekund. Na pierwszy rzut oka to bariera, ale w praktyce przy użyciu narzędzia Flow można łączyć klipy w spójną narrację. To oznacza, że także formaty telewizyjne są możliwe, choć nadal bardziej naturalne środowisko dla VEO to reelsy, shorty, TikTok, kampanie rich media, prezentacje produktowe i interaktywne storytellingi.
Co eksperci myślą o VEO 3?
1. Czy generatywna AI (np. VEO 3) to przyszłość angażującego marketingu, czy zagrożenie dla wiarygodności marek?

Jacek Adamczak – Graphic Designer w sprawny.marketing. Praktyk od 8 lat projektujący materiały zarówno do digitalu, jak i do druku. Ukończył Bootcamp UI/UX Designer, gdzie zgłębiał tajniki projektowania interfejsów. Jest odpowiedzialny za oprawę wizualną konferencji I Love Marketing.
Generatywna AI, a w szczególności narzędzia takie jak VEO 3, to jedno z najpotężniejszych narzędzi do tworzenia angażującego contentu, jakie do tej pory powstało. Dzięki możliwościom generowania wideo z realistycznym ruchem, dźwiękiem i synchronizacją ust, marki mogą tworzyć kampanie, które wcześniej wymagałyby ogromnych budżetów i ekip filmowych.
Ale jednocześnie AI stawia marki przed nowym rodzajem odpowiedzialności – zbyt realistyczny content może być odbierany jako manipulacja, jeśli nie zostanie odpowiednio oznaczony lub kontekstowo osadzony. Kluczem jest transparentność i etyczne wykorzystanie AI, nie jego unikanie.

Piotr Szkoda – AI Product Manager w sprawny.marketing, wcześniej SEO Manager w Widzialni.pl, gdzie dbał o jakość usług i zespół SEO współpracując z działem sprzedaży i digital we wdrażaniu strategii marketingowych. Współtwórca, mentor i wykładowca Szkolenia Junior SEO Specialist dla Coderslab. Certyfikowany trener biznesu Akademii SET. Entuzjasta praktyk automatyzowania żmudnych i powtarzalnych zadań.
Odpowiednio wykorzystane są jak najbardziej przyszłością. Naturalnie podczas tworzenia ważna jest nasza komunikacja z odbiorcami, jednak wiarygodności marki nie zagrażają same narzędzia a sposób ich wykorzystania. Kreatywność, pomysł, spójność z dotychczasową komunikacją oraz szacunek dla odbiorców będzie w stanie zapewnić bezpieczeństwo wykorzystania AI w różnorodnych kampaniach marketingowych.
2. Deepfake w marketingu – kreatywne narzędzie czy etyczna granica?
Jacek Adamczak
Gdzie kończy się akceptowalne wykorzystanie AI w wideo? Deepfake sam w sobie nie jest ani dobry, ani zły – to narzędzie. VEO 3 może np. stworzyć postać, która ,,mówi do nas” z poziomu kampanii, bez konieczności angażowania aktora – to oszczędność czasu i budżetu, ale również potencjalne pole minowe.
Etyczna granica pojawia się wtedy, gdy deepfake imituje realne osoby bez ich zgody, tworzy fałszywe konteksty lub wywołuje emocje oparte na nieprawdziwych przesłankach. Marketingowcy muszą więc nie tylko znać możliwości AI, ale też umieć powiedzieć: ,,nie tędy droga.’’
Piotr Szkoda
Dla każdej branży granica ta będzie umieszczona nieco w innym miejscu. Nakładanie kremu nawilżającego na skórę twarzy przez avatar nie jest wiarygodne i najprawdopodobniej zostanie negatywnie odebrane przez odbiorców. Natomiast możliwość prezentowania się w różnych kreacjach lub wykonanie „karkołomnych” ewolucji już jak najbardziej tak.
3. Czy marki powinny ujawniać, że treść została stworzona przez AI? Autentyczność vs. kreatywna narracja
Jacek Adamczak
Zdecydowanie tak. Transparentność w komunikacji to dziś fundament zaufania. Konsumenci oczekują autentyczności, ale potrafią również docenić innowacyjność – pod warunkiem, że nie zostali wprowadzeni w błąd. Ujawnienie, że dana treść została wygenerowana przez AI, nie osłabia przekazu – przeciwnie, często wzmacnia go, pokazując odwagę i nowoczesne podejście marki.
Piotr Szkoda
Słowo ujawniać jest tu kluczowe. AI może wspierać proces tworzenia na różnych etapach, tak jak obecnie ani firmy ani agencje nie zdradzają całego know how z procesu, tak nie ma takiego obowiązku w przypadku narzędzi AI. Kluczowe jest tu nie wprowadzanie odbiorców w błąd – czyli podchodzenie tak samo jak w przypadku wyglądu produktów spożywczych na ich opakowaniach, gdzie dodana jest informacja o propozycji podania.
4. Jakie ryzyka prawne i reputacyjne niesie wykorzystanie deepfake’ów w kampaniach reklamowych?
Jacek Adamczak
W największym skrócie: prawo i zaufanie.
Ryzyko prawne: Można nieświadomie naruszyć prawa wizerunku, szczególnie jeśli twarz lub głos wygenerowane przez AI przypominają realną osobę.
Ryzyko reputacyjne: Jeśli odbiorca odkryje, że został „oszukany” syntetyczną treścią, może poczuć się zmanipulowany – a to prosta droga do kryzysu wizerunkowego.
Dlatego warto konsultować kampanie AI z prawnikiem, ustalać wewnętrzne zasady etyczne i jasno informować o wykorzystaniu sztucznej inteligencji.
Piotr Szkoda
Wykorzystanie wizerunku lub jego elementów osób trzecich może doprowadzić do pozwów prawnych, podobnie wprowadzanie konsumentów w błąd. W przypadku reputacji….
A jak na to patrzy adwokatka Kasia Krzywicka?
Jeszcze parę lat temu widziałam film wygenerowany przez AI „reklamujący” pizzę – bohaterowie nagrania wyglądali jak z plasteliny, wykonywali nienaturalne i dziwaczne ruchy. Oglądanie tego materiału w moim przypadku wywoływało po prostu ból fizyczny.
Dziś, dzięki narzędziom takim jak Veo 3 od Google, w kilka sekund powstaje wideo, które wygląda jak fragment profesjonalnej kampanii reklamowej. Marketerzy i działy HR testują to narzędzie do reklam, social mediów, onboardingu pracowników czy szkoleń.
Wraz z łatwością tworzenia tych materiałów pojawiają się kolejne pytania prawne: jakie prawo reguluje takie treści i kto odpowiada za konsekwencje?
Jakie przepisy mają zastosowanie?
- Prawo autorskie i ustawa o prawie autorskim i prawach pokrewnych – wygenerowane wideo może zawierać elementy cudzych dzieł. Problem w tym, że „czarna skrzynka” modelu nie zawsze ujawnia, czy nie zostały użyte fragmenty chronionych przez prawo filmów czy zdjęć. Takie wygenerowane video z „zapożyczonymi” fragmentami cudzych dzieł nie spełnia wymogów przewidzianych dla prawa cytatu, a więc ryzyko naruszeń, chociażby z tej strony jest naprawdę realne.
- Dyrektywa Parlamentu Europejskiego i Rady (UE) 2019/790 z dnia 17 kwietnia 2019 r. w sprawie prawa autorskiego i praw pokrewnych na jednolitym rynku cyfrowym (tzw. dyrektywa DSM) – reguluje wykorzystywanie chronionych utworów do trenowania systemów AI w określonych warunkach.
- RODO – problemem może być wizerunek wizerunek (w tym wizerunek głosowy), postacie generowane przez AI mogą przypominać realne osoby, co otwiera pole do naruszeń przepisów dotyczących chociażby danych osobowych.
- AI Act – nakłada obowiązki zarówno na dostawców, jak i na użytkowników. Dostawcy, tacy jak Google, muszą oznaczać treści w formacie do odczytu maszynowego (watermarki, metadane). Użytkownicy, czyli my – firmy i twórcy – mamy obowiązek wyraźnie ujawniać, że treści są sztucznie wygenerowane (oczywiście, jak to w prawie – są wyjątki:)). AI Act zatem wprowadza zasady przejrzystości i transparentności właśnie po to, by w internecie nie zacierała się granica między tym, co prawdziwe, a tym, co sztucznie wygenerowane. W praktyce jednak skuteczność tych rozwiązań jest na razie umiarkowana – deepfake’i wciąż potrafią obiec świat szybciej, niż da się je oznaczyć.
- Prawo cywilne i karne – odpowiedzialność za naruszenie dóbr osobistych, zniesławienie czy oszustwo. Deepfake może zostać wykorzystany np. do podszywania się pod osobę publiczną albo manipulowania wydarzeniami.
- Prawo własności przemysłowej i ustawa o zwalczaniu nieuczciwej konkurencji – ryzyko dotyczy nie tylko znaków towarowych czy logo, ale także specyficznych przedmiotów zaprojektowanych przez konkretne marki. AI może wygenerować obiekt łudząco podobny do chronionego designu albo symbol przypominający logo firmy, a użytkownik – często nieświadomie – wykorzysta to w swoim materiale, narażając się na zarzut naruszenia prawa własności przemysłowej lub czyn nieuczciwej konkurencji.
Dezinformacja i odpowiedzialność: Video tworzone w narzędziach AI to nie tylko rozrywka, ale też narzędzie, które może służyć do siania dezinformacji czy powodować inne nadużycia prawa.
I tutaj dotykamy sedna – dzisiejsze zasady odpowiedzialności określone w prawie polskim są niewystarczające. Mamy dwa główne reżimy odpowiedzialności – ale żaden z nich nie przystaje w pełni do dzisiejszego działania AI.
Dlaczego? Bo w przypadku posługiwania się AI trudno jest przypisać komukolwiek winę. Często błędy, które mogą powodować szkody np. halucynacje modelu powstają nieintencjonalnie. Sporo osób mówi też o konieczność nadania osobowości prawnej AI. Ale co dalej? Nie będziemy przecież karać robota więzieniem.
Ostatecznie odpowiedzialność spada na człowieka – twórcę, użytkownika, czasem dostawcę ale w praktyce często pozostaje luka, bo szkoda powstaje błyskawicznie, w pierwszych 24 godzinach viralowego obiegu treści. A potem niestety już niewiele osób jest zainteresowanych prawdą…
Wyzwanie na przyszłość Prawo zapewnia nam ramy – od prawa autorskiego, przez RODO, kodeks cywilny i karny, po AI Act – ale skuteczność tych regulacji będzie zależeć od praktyki. W marketingu i komunikacji wewnętrznej AI już jest używane na masową skalę.
Prawdziwym wyzwaniem będzie więc nie tylko oznaczanie deepfake’ów i treści AI, ale też utrzymanie zaufania odbiorców. Bo w świecie, w którym nie wiemy, co jest stworzone przez człowieka, a co przez algorytm, na wartości zyskuje jedno – przejrzystość i odpowiedzialność biznesu.
5. Jakie umiejętności marketingowe będą kluczowe w erze AI (VEO3, Sora)? Jak przygotować zespół na przyszłość?
Jacek Adamczak
Era AI to czas transformacji kompetencji. Najważniejsze umiejętności to: projektowanie promptów (prompt design) – pisanie zrozumiałych, precyzyjnych i kreatywnych opisów scen oraz AI storytelling – myślenie obrazem, sceną, nastrojem.
Piotr Szkoda
Edukacja i wyraźne wytyczne. Te dwa elementy w skuteczny sposób są w stanie przygotować zespół nie tylko w aspekcie tego co można i warto tworzyć z wykorzystaniem narzędzi, ale także pomagają podczas natrafienia na takie treści w życiu codziennym.
Łączenie narzędzi – tworzenie „łańcuchów pracy”, np. ChatGPT → VEO → ElevenLabs → Runway.
Etyczne podejście – umiejętność świadomego wyznaczania granic między kreatywnością a odpowiedzialnością.
Zespoły powinny regularnie testować nowe narzędzia i wyznaczać tzw. „AI-evangelistę” – osobę odpowiedzialną za wdrożenia i eksperymenty.
Jak VEO 3 zmienia proces produkcji wideo marketingowego?
Rewolucyjnie. Zamiast tygodni pracy, ekip filmowych, aktorów i montażystów – otrzymujemy możliwość stworzenia materiału wideo w jeden dzień i to bez kamery. VEO 3 pozwala błyskawicznie reagować na trendy, wydarzenia czy potrzeby kampanii.
Oczywiście, nie zastąpi jeszcze pełnometrażowej produkcji, ale do formatów digital, teaserów, spotów promocyjnych czy edukacyjnych – nadaje się doskonale.
Jak wygląda workflow kampanii marketingowej z VEO 3?
Typowy „łańcuch produkcyjny” wygląda obecnie tak:
- Pomysł kampanii i insight od zespołu marketingowego
- Scenariusz lub opis scen napisany w ChatGPT (lub ręcznie)
- Wygenerowanie klipów w VEO 3 (do 8 s każdy)
- Dodanie dźwięku – natywnie w VEO lub z ElevenLabs
- Montaż w Runway, Premiere, CapCut lub bezpośrednio w Flow
- Eksport do różnych kanałów: YouTube, Meta Ads, TikTok, prezentacje
Wszystko to można wykonać w zespole bez specjalistów od wideo – potrzebna jest tylko osoba z wyobraźnią i dostęp do narzędzi.
Jakie marki już wykorzystują VEO lub podobne technologie w kampaniach?
Wiele marek testuje VEO lub jego odpowiedniki (np. Sora, Runway, Pika) – często niechętnie się do tego przyznając. Najwięcej przykładów pochodzi z:
- branży modowej (lookbooki, animacje modeli),
- beauty & wellness (demo produktów),
- technologii i startupów (pitch video, product explainers),
- oraz edukacji i AI marketingu (filmy szkoleniowe, mikroseria video-podcastów).
Wspólny mianownik? Mały budżet, duży efekt, szybki czas realizacji.
Jak wdrożyć VEO 3 w zespole marketingowym bez doświadczenia w produkcji wideo?
Najlepiej podejść do VEO 3 jak do warsztatu kreatywnego. Zacznijcie od testowych projektów: zapowiedź webinaru, teaser nowego produktu, mini-spot z cytatem klienta. Wyznaczcie jedną osobę odpowiedzialną za eksplorację narzędzia i eksperymenty z promptami. Twórzcie wspólnie bazę udanych komend, stylów i efektów.
Nie trzeba być filmowcem, żeby tworzyć wideo – trzeba być ciekawym, otwartym i gotowym na błędy, które są częścią procesu.
Podsumowanie
VEO 3 od Google DeepMind to przełomowe narzędzie AI generujące realistyczne wideo i dźwięk na podstawie tekstowych opisów, umożliwiające tworzenie materiałów marketingowych w rekordowym czasie bez tradycyjnej produkcji filmowej. Eksperci podkreślają ogromny potencjał VEO 3 dla kreatywnego marketingu, ale wskazują też na konieczność transparentności, etycznego wykorzystania i świadomości ryzyk prawnych (np. deepfake bez zgody).
Kluczowe kompetencje w erze AI to projektowanie promptów, AI storytelling, łączenie narzędzi i wyznaczanie „AI-evangelistów” w zespołach. VEO 3 demokratyzuje produkcję wideo, pozwalając małym i dużym markom szybko reagować na trendy, tworzyć angażujące treści i testować nowe formaty bez dużych budżetów.
Przypominamy, że wielkimi krokami zbliża się konferencja I ♥ Marketing & Technology, która odbędzie się już 29–30 października 2025 roku.
Zapoznaj się także z ofertą organizowanych przez nas szkoleń z zakresu marketingu.