Deepfake w Polsce – jak rozpoznać fałszywy film lub zdjęcie generowane przez AI

Deepfake w Polsce – jak rozpoznać fałszywe wideo i zdjęcia AI (poradnik 2026)

Autor: Sławomir Zawadzki | Kategoria: Sztuczna Inteligencja / Bezpieczeństwo w sieci | Czas czytania: ~14 min


Siedzisz wieczorem przy herbacie i scrollujesz newsfeed. Nagle zatrzymujesz się. Na ekranie pojawia się znajoma twarz — jeden z najbardziej rozpoznawalnych Polaków patrzy prosto w kamerę i spokojnym, pewnym głosem opowiada o „pewnej inwestycji, która może zmienić życie”. Wideo wygląda profesjonalnie. Dźwięk jest czysty. Ruchy ust zgadzają się ze słowami. W tle plansza telewizyjna, logotyp stacji, pasek z nagłówkiem. „To musiało być w telewizji” — myślisz.

Tylko że to wszystko nieprawda. Ani jedno słowo.

To nie jest scenariusz z serialu o hakerach ani odcinek z dystopijnego Black Mirror. To coś, co dzieje się w polskim internecie każdego tygodnia. Wizerunki Roberta Lewandowskiego, Rafała Brzoski, prezydenta Nawrockiego, prezydenta Dudy, influencera Buddy czy dziennikarzy TVN i TVP były już wykorzystywane dokładnie w ten sposób — do promowania fałszywych platform inwestycyjnych, które wyczyściły konta dziesiątek tysięcy ofiar. Technologia, która jeszcze kilka lat temu wymagała studia filmowego i miesięcy pracy specjalistów, dziś mieści się w darmowej aplikacji i zajmuje kilka minut.

Mówimy o deepfake’ach.

W tym artykule nie będę straszyć. Pokażę Ci konkretnie: czym są, jak działają, jak je rozpoznać gołym okiem — i co zrobić, gdy jedno z nich trafi na Twój ekran. Bez żargonu, bez paniki. Jak zwykle — z perspektywy zwykłego człowieka.


Czym właściwie jest deepfake?

Zacznijmy od nazwy, bo ona już sporo mówi. „Deep” pochodzi od „deep learning” — czyli głębokiego uczenia maszynowego, gałęzi sztucznej inteligencji. „Fake” mówi samo za siebie: fałszywy. Razem: fałszywa treść stworzona przez AI, która uczy się na ogromnych ilościach prawdziwych danych.

Termin pojawił się po raz pierwszy w 2017 roku na platformie Reddit, gdzie anonimowy użytkownik podpisany właśnie „deepfakes” zaczął publikować wideo z podmienionymi twarzami znanych osób. Zaczęło się od kontrowersyjnych treści, ale szybko stało się jasne, że ta technologia ma o wiele szerszy i niebezpieczniejszy potencjał.

Jakie rodzaje deepfake istnieją?

Wbrew temu, co mogłoby się wydawać, deepfake to nie tylko fałszywe wideo. To szerokie pojęcie, które obejmuje kilka kategorii sfałszowanych treści:

Deepfake wideo — najczęściej spotykany rodzaj. Twarz jednej osoby jest nakładana na ciało innej albo twarz prawdziwej osoby jest animowana tak, by „mówiła” słowa, których nigdy nie wypowiedziała. To właśnie to widzimy w przypadku Lewandowskiego czy Nawrockiego.

Klonowanie głosu — AI potrzebuje zaledwie kilkunastu sekund nagranego głosu, by stworzyć jego syntetyczną kopię, która potrafi powiedzieć wszystko. Wystarczy fragment wywiadu, przemówienia, podcastu. Oszuści używają tej metody między innymi do wyłudzania pieniędzy od rodzin, podszywając się pod bliskich w tarapatach.

Fałszywe zdjęcia — generowane przez AI twarze, które nigdy nie istniały, albo prawdziwe twarze osadzone w sfabrykowanych sytuacjach.

Dokumenty i artykuły — fejkowe artykuły prasowe z prawdziwymi logotypami znanych mediów, z cytatami z prawdziwych osób, które nigdy niczego takiego nie powiedziały. To ten rodzaj deepfake, który trudno wykryć nawet doświadczonemu czytelnikowi.

Jak to technicznie działa — w trzech zdaniach?

Uproszczona wersja brzmi tak: algorytm AI ogląda tysiące zdjęć i nagrań konkretnej osoby, uczy się wzorców jej twarzy, głosu i mimiki. Następnie nakłada te wzorce na inne wideo lub generuje nowe nagranie. Im więcej materiału źródłowego, tym trudniejszy do wykrycia efekt końcowy — i właśnie dlatego politycy, celebryci i biznesmeni, którzy są nagrywani publicznie przez lata, są najbardziej narażeni.


Deepfake w Polsce — co się naprawdę dzieje?

Mogłoby się wydawać, że to problem zachodniej Europy albo Stanów Zjednoczonych. Że u nas jakoś tego nie widać. To złudzenie, które potrafi kosztować oszczędności całego życia.

Twarze, którym Polacy ufają

Skala zjawiska w Polsce jest zatrważająca — i dobrze udokumentowana przez NASK, czyli Naukową i Akademicką Sieć Komputerową, która na bieżąco monitoruje cyberprzestrzeń.

Na fałszywych nagraniach, które krążyły po polskich mediach społecznościowych, do „wyjątkowo korzystnych inwestycji” zachęcali: Robert Lewandowski, Rafał Brzoska (prezes InPostu), prezydent Andrzej Duda, prezydent Karol Nawrocki, minister zdrowia Izabela Leszczyna, influencer Kamil Labudda (Budda), a także dziennikarze kilku głównych stacji telewizyjnych. Wymienione osoby mówiły „swoim” głosem, a treść fałszywego przekazu zgadzała się z ruchami ust i gestykulacją.

Mechanizm był zawsze podobny: kilka minut wideo, twarz zaufanej osoby, obietnica ogromnego zysku z minimalnej wpłaty. „Odkryj metodę, która pozwala każdemu Polakowi zamienić 1000 zł na 29 000 zł w ciągu zaledwie jednego miesiąca” — to dosłowny cytat z jednej z takich reklam. Fałszywych, rzecz jasna.

W 2025 roku na YouTubie i w mediach społecznościowych pojawiły się nagrania z prezydentem Nawrockim, który rzekomo reklamował platformę inwestycyjną „Infinity Bitwave”. Materiał zawierał informację, że wpłata 1050 zł „automatycznie” przerodzi się w 30 000 zł w tydzień, a potem w 100 000 zł w miesiąc. System miał być „licencjonowany przez państwo i wspierany przez NBP”. Brzmi absurdalnie. A jednak ludzie klikali i wpłacali.

Skala zjawiska w liczbach

Dane są bezwzględne. Według analiz CSIRT KNF — czyli zespołu reagowania na incydenty bezpieczeństwa przy Komisji Nadzoru Finansowego — w 2025 roku zgłoszono do zablokowania ponad 41 000 fałszywych domen, z czego przytłaczająca większość służyła do wyłudzania pieniędzy w ramach fałszywych inwestycji. Deepfake był w wielu przypadkach narzędziem, które budowało wiarygodność tych platform.

Globalnie straty finansowe z oszustw opartych na deepfake sięgnęły w 2025 roku ponad miliarda dolarów — co jest trzykrotnym wzrostem rok do roku.

Oszuści, którzy myślą o wszystkim

To, co szczególnie niepokoi specjalistów z NASK, to rosnąca profesjonalizacja fałszywych materiałów. Oszuści coraz częściej osadzają sfabrykowane wideo w szablonie programu informacyjnego — z prawdziwym logotypem stacji, paskiem z nagłówkami, charakterystyczną grafiką. Po to, żeby widz pomyślał: „to było w telewizji, to musi być prawda.”

Pojawiła się też nowa, jeszcze bardziej wyrafinowana technika: celowe dodawanie szumów i plam do nagrania. Nie po to, żeby ukryć błędy przed człowiekiem — ale żeby zmylić algorytmy automatycznego wykrywania deepfake’ów. Oszuści dosłownie hakują systemy AI, które miały ich łapać.

Nowym frontem są też rozmowy rekrutacyjne. Polskie firmy technologiczne odnotowały przypadki, w których kandydaci do pracy brali udział w wideorozmowach, nie orientując się, że wizerunek po drugiej stronie był generowany w czasie rzeczywistym. To nie jest już tylko problem finansowy — to problem tożsamości i zaufania w przestrzeni zawodowej.


Jak rozpoznać deepfake? 8 sygnałów ostrzegawczych

Jak rozpoznać deepfake – 8 sygnałów ostrzegawczych

Dobra wiadomość: mimo że technologia robi gigantyczne postępy, wciąż zostawia ślady. AI — paradoksalnie — nadal popełnia błędy, które ludzkie oko potrafi wychwycić, jeśli wie, czego szukać.

Oto osiem rzeczy, na które warto zwrócić uwagę.

1. Oczy — mruganie i spojrzenie

To jeden z klasycznych wskaźników. Wczesne deepfake’i praktycznie nie mrugały — teraz to się poprawiło, ale wciąż bywa nienaturalne. Za rzadko, za często, w złym rytmie. Połysk w oczach bywa też „zbyt równy”, jakby ktoś przykleił szklane guziki zamiast prawdziwych gałek ocznych. Gdy oglądasz podejrzane nagranie, obserwuj oczy — one zdradzają.

2. Krawędzie twarzy i uszy

Przy ruchu głowy twarz generowana przez AI często „spływa” albo traci ostrość przy krawędziach. Szczególnie wrażliwym miejscem są uszy — AI ma z nimi ogromny problem. Kolczyki znikają i pojawiają się, jeden ucho wygląda inaczej niż drugie, kontur małżowiny jest rozmazany. Jeśli widzisz coś takiego — już masz powód do podejrzeń.

3. Zęby i wnętrze ust

Przejrzyj podejrzane wideo klatka po klatce, jeśli to możliwe. AI generuje zęby jako jednolitą, zbyt idealną masę — bez szczelin, bez nierówności, bez cienia dziąseł. Wnętrze ust wygląda czasem jak plastikowy model stomatologiczny, a nie jak prawdziwa jama ustna. W nagraniach z politykami ten efekt jest szczególnie wyraźny, bo materiału źródłowego jest dużo — algorytm może „przeuczyć się” wzorców i produkować perfekcję, która jest zbyt perfekcyjna.

4. Synchronizacja ust z dźwiękiem

Klasyczny test. Skupiaj się wyłącznie na ustach i słuchaj jednocześnie. Przy deepfake’ach głosowych często pojawia się minimalne, ale zauważalne opóźnienie — sylaby nie pasują idealnie do ruchów warg. W przypadku techniki lip-sync (nakładanie fałszywego głosu na istniejące nagranie) bywa jeszcze gorzej: przy pewnych spółgłoskach, szczególnie „w”, „b”, „p”, kształt ust nie jest zgodny z dźwiękiem.

5. Artefakty na skórze i tęczowe błyski

Przy nagłych ruchach głowy albo w momentach zmiany oświetlenia na skórze mogą pojawiać się dziwne, tęczowe przebarwienia lub pikselowanie — jakby ktoś lekko rozsmarował farbę po twarzy. To efekt kompresji algorytmu AI. Specjaliści NASK zwracają też uwagę na celowe zamazanie nagrania — jeśli jakość wideo jest podejrzanie niska „bez powodu”, może to być próba ukrycia właśnie takich artefaktów.

6. Głos — zbyt równy, zbyt gładki

Prawdziwy głos człowieka jest pełen mikroimperfektów: mówca bierze oddech, zacina się, zmienia tempo, lekko chrząka. Syntetyczny głos często brzmi zbyt płynnie. Rytm jest zbyt równy, pauzy są zbyt matematyczne, nie ma tej charakterystycznej nierówności, która sprawia, że mowę człowieka słychać jako żywą. Zwróć też uwagę na błędy w odmianie słów — AI generująca polszczyznę czasem popełnia błędy fleksyjne, które rodzonemu użytkownikowi języka od razu rzucają się w uszy.

7. Tło i otoczenie

To bywa najłatwiejsza do zauważenia wskazówka, bo AI wciąż ma problem ze spójnością tła. Obiekty za głową mogą się deformować przy ruchu. Krawędzie włosów są rozmyte w dziwny, „watowaty” sposób. Lampy, okna, meble mogą znikać i pojawiać się między klatkami. Jeśli coś w tle „nie siedzi” — zaufaj intuicji.

8. Kontekst — najważniejszy filtr

To jest ta wskazówka, o której często się zapomina, a która jest najskuteczniejsza. Zadaj sobie pytanie: czy ta osoba naprawdę powiedziałaby coś takiego? Czy Robert Lewandowski naprawdę reklamuje platformy kryptowalutowe w ciemnych zakamarkach Facebooka? Czy prezydent naprawdę obiecuje 30 000 zł zysku z 1000 zł inwestycji? Czy znany dziennikarz naprawdę pojawia się w niesprawdzonej reklamie bez żadnego oficjalnego komunikatu?

Jeśli przekaz jest zbyt dobry, żeby być prawdziwy — prawie zawsze jest fałszywy.


Narzędzia do weryfikacji — co naprawdę działa?

Opisałem powyżej, jak rozpoznać deepfake okiem. Ale co, jeśli jesteś niepewny? Istnieje kilka narzędzi, które mogą pomóc — żadne z nich nie jest nieomylne, ale w połączeniu z własną oceną dają solidną podstawę do weryfikacji.

Hive Moderation (hivemoderation.com/deepfake-detection) — jeden z lepszych bezpłatnych detektorów wideo i zdjęć. Wystarczy wgrać plik lub podać link. Narzędzie zwraca procentowe prawdopodobieństwo, że materiał jest syntetyczny. Nie jest nieomylne, szczególnie przy bardzo dobrych deepfake’ach, ale przy amatorskich próbach radzi sobie całkiem dobrze.

Google Reverse Image Search — jeśli masz do czynienia z podejrzanym zdjęciem, kliknij prawym przyciskiem myszy i wybierz „Wyszukaj obraz w Google”. Często okaże się, że ta sama twarz pojawia się w zupełnie innych kontekstach — albo że zdjęcie jest kompilacją kilku innych fotografii. To prosta, szybka i często skuteczna metoda.

FotoForensics (fotoforensics.com) — zaawansowane narzędzie do analizy metadanych i artefaktów w plikach JPEG. Pokazuje tzw. mapę ELA (Error Level Analysis), która ujawnia, które fragmenty zdjęcia były edytowane. Wymaga nieco więcej wiedzy w interpretacji wyników, ale przy zdjęciach daje naprawdę dobry obraz.

InVID / WeVerify — rozszerzenie do przeglądarki Chrome i Firefox stworzone z myślą o dziennikarzach weryfikujących materiały wideo. Pozwala analizować klatki wideo, sprawdzać historię publikacji pliku i szukać podobnych materiałów w internecie. Bezpłatne i bardzo przydatne.

Zdrowy rozsądek i oficjalne kanały — to najważniejsze narzędzie. Zanim uwierzysz w wideo z politykiem lub celebrytą, sprawdź oficjalne konta tej osoby na Twitterze, Instagramie czy LinkedIn. Jeśli Lewandowski naprawdę polecałby jakąś platformę inwestycyjną, powiedziałby o tym na swoim kanale — nie w ciemnej reklamie na Facebooku.

Warto też wiedzieć, że żadne narzędzie nie wykryje 100% deepfake’ów. Najlepsze fałszywe nagrania potrafią oszukać nawet specjalistyczne oprogramowanie. Dlatego weryfikacja zawsze powinna być wieloetapowa: technologia plus kontekst plus oficjalne źródła.


Co zrobić, gdy napotkasz deepfake lub zostaniesz jego ofiarą?

Samo rozpoznanie fałszywego materiału to połowa sukcesu. Druga połowa to wiedzieć, co z tym zrobić.

Nie udostępniaj — to najważniejsze

Odruch jest zrozumiały: znalazłem coś dziwnego, podzielę się ze znajomymi. Problem w tym, że właśnie na to liczą twórcy deepfake’ów. Każde udostępnienie zwiększa zasięg, buduje pozory wiarygodności i potencjalnie naraża kolejnych ludzi. Jeśli masz wątpliwości co do materiału — nie dalej go. Najpierw zweryfikuj.

Zgłoś na platformie

Każda duża platforma ma mechanizm zgłaszania fałszywych treści:

  • Facebook i Instagram: trzy kropki przy poście → „Znajdź wsparcie lub zgłoś post” → „Fałszywe informacje” lub „Oszustwo”
  • YouTube: trzy kropki pod filmem → „Zgłoś” → „Dezinformacja”
  • TikTok: przytrzymaj post → „Zgłoś” → „Fałszywe informacje”

Meta i inne platformy są zobowiązane reagować, choć tempo bywa frustrująco powolne — Rafał Brzoska przekonał się o tym boleśnie, gdy jego zgłoszenia przez wiele dni były ignorowane. Nie oznacza to, że zgłaszanie nie ma sensu — im więcej zgłoszeń, tym większa szansa na szybsze działanie algorytmów moderacji.

Zgłoś do CERT Polska i CSIRT KNF

Jeśli natknąłeś się na materiał promujący fałszywe inwestycje lub mający znamiona oszustwa:

  • CERT Polska (cert.pl) — zgłoś podejrzany link lub materiał przez formularz na stronie lub pisząc na adres cert@cert.pl
  • CSIRT KNF — zgłoszenia dotyczące fałszywych platform finansowych można kierować przez stronę uknf.gov.pl
  • Aplikacja mObywatel — w zakładce „Bezpieczeństwo” można zgłosić próbę oszustwa

Jeśli Ty lub ktoś bliski stał się ofiarą

Jeśli już przekazałeś pieniądze na fałszywą platformę — działaj natychmiast. Zadzwoń do swojego banku i poinformuj o nieautoryzowanej transakcji. Banki mają procedury reklamacyjne i w niektórych przypadkach możliwy jest zwrot środków, jeśli przelew był świeży. Następnie złóż zawiadomienie o przestępstwie na policji lub w prokuraturze.

Oszustwo inwestycyjne w Polsce jest przestępstwem z art. 286 Kodeksu karnego, zagrożonym karą do 8 lat pozbawienia wolności. Korzystanie z cudzego wizerunku bez zgody, szczególnie w celach zarobkowych, narusza art. 81 Prawa autorskiego oraz przepisy o ochronie dóbr osobistych. Pokrzywdzony może dochodzić zarówno odpowiedzialności karnej sprawcy, jak i odszkodowania cywilnego.

Jeśli Twój wizerunek został skradziony

To szczególnie bolesna sytuacja, z którą mierzą się znane osoby, ale coraz częściej też zwykli ludzie. W takim przypadku:

  1. Udokumentuj fałszywy materiał — zrób zrzuty ekranu z datą i adresem URL, zanim zostanie usunięty.
  2. Zgłoś naruszenie bezpośrednio do platformy jako „kradzież tożsamości” lub „naruszenie praw osobistych”.
  3. Skonsultuj się z prawnikiem — masz prawo żądać usunięcia materiału, przeprosin i odszkodowania.
  4. Poinformuj publicznie na swoich kanałach — tak jak zrobił to Rafał Brzoska, którego post na LinkedIn wywołał falę zainteresowania i przyspieszył reakcję Meta.

Deepfake to nie science fiction — to nasza codzienność

Pamiętam moment, gdy po raz pierwszy zobaczyłem naprawdę dobry deepfake. Kilka sekund zanim zrozumiałem, że coś jest nie tak. Kilka sekund niepewności, podczas których mózg próbował przetworzyć sprzeczne sygnały: twarz znajoma, słowa nie pasują, ale tak naturalnie mówi…

Te kilka sekund to właśnie to, na co liczą oszuści.

Technologia deepfake jest jak każde inne narzędzie — neutralna sama w sobie, ale niebezpieczna w złych rękach. I w złych rękach jest coraz częściej. Nie po to, żeby kpić z celebrytów ani tworzyć memów. Po to, żeby kraść pieniądze, niszczyć reputacje i podważać zaufanie do wszystkiego, co widzimy.

Nie mamy wpływu na tempo rozwoju tej technologii. Mamy wpływ na to, jak reagujemy, kiedy na nią trafiamy.

Zatrzymaj się, zanim udostępnisz. Sprawdź, zanim uwierzysz. Zadaj sobie pytanie: czy ta osoba naprawdę by to powiedziała? Czy ta oferta ma jakikolwiek sens w świecie, gdzie nic nie daje się za darmo?

W świecie zdominowanym przez algorytmy i syntetyczne treści zdrowy sceptycyzm to nie paranoja. To umiejętność, której warto się uczyć — i której warto uczyć tych, którym ufamy.


Źródła i do poczytania

  • NASK: Ostrzeżenia przed deepfake’ami — nask.pl
  • CERT Polska — cert.pl (zgłaszanie incydentów)
  • CSIRT KNF — uknf.gov.pl (fałszywe platformy finansowe)
  • Hive Moderation deepfake detector — hivemoderation.com
  • InVID/WeVerify — werification.toolbox

Artykuł jest częścią serii o bezpieczeństwie w sieci na blogu Świat Zwykłego Człowieka. Jeśli uznajesz go za przydatny — udostępnij go osobie, która może tego potrzebować. Szczególnie starszym rodzicom. Szczególnie teraz.


Oszustwa w internecie: Wielki przewodnik bezpieczeństwa dla zwykłego człowieka (Edycja 2026)

Czy korzystanie z AI jest bezpieczne? Fakty, mity i realne zagrożenia w 2025 roku

Edukacja medialna: kluczowa kompetencja cyfrowa XXI wieku

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Gravatar profile