Kobieta w otoczce cyfrowych świetlistych punktów, na ciemnym jednolitym tle

Poradnik (nie)romantyczny UKE. Deepfakes: kiedy zmysły przestają być naturalnym firewallem

Jeśli myśleliście, że wideorozmowa to ostateczny dowód na to, że Wasz interlokutor nie jest „hakerem w kapturze”, to mam dla Was złą wiadomość. Witamy w erze deepfake’ów. Technologia sprawiła, że stare przysłowie „uwierzę, jak zobaczę na własne oczy” nadaje się dziś do lamusa.

Dziś już nie masz gwarancji, że to co widzisz i słyszysz w internecie jest prawdziwe. Możesz widzieć twarz, którą znasz, słyszeć znany Ci głos i to wcale nie będzie ta osoba, tylko sklonowany technologiczny twór, wykorzystywany przez internetowych oszustów. Co maja deepfaki do poradnika (nie)romantycznego? Otóż coraz częściej są wykorzystywane w oszustwach romantycznych i do szantażu seksualnego.

Jak to się zaczęło

Technologia deepfake pojawiła się już w 2015 r. w Hollywood. W filmie „Szybcy i wściekli” wykorzystano technikę syntezy głosu i nałożenia cyfrowej maski. Dzięki temu na wielkim ekranie mogliśmy zobaczyć zmarłego Paula Walkera w roli Briana O'Connera. Historia z nazwą zaczęła się w 2017 r., kiedy na portalu Reddit użytkownik o pseudonimie „deepfakes” uznał, że świat byłby lepszym miejscem, gdyby twarze znanych aktorek „dokleić” do ciał pań występujących w filmach, powiedzmy, mało edukacyjnych. Wtedy było to prymitywne i nie przypominało nawet filmów kategorii B, a zwykły użytkownik mający internet do 10 Mb/s nawet o takich dziwach nie słyszał. W 2026 r. doszliśmy do momentu, w którym prawie każdy może stworzyć film, na którym dowolna osoba mówi dowolne bzdury i nie będzie to trudniejsze niż założenie skrzynki do e-doręczeń.

Jak to działa

Deepfake to syntetyczne obrazy, filmy i dźwięki wygenerowane przy użyciu sztucznej inteligencji przedstawiające osoby, rzeczy i sytuacje, które nie istnieją lub się nie wydarzyły. To treści, które zostały zmanipulowane. Deepfaki są tworzone przez algorytmy na podstawie prawdziwych zdjęć, filmów czy próbek głosu.

Kiedyś wiadomości od „amerykańskiego żołnierza”, „brytyjskiej pielęgniarki” czy „nigeryjskiego księcia” mogliśmy poznać po oczywistych kłamstwach, niechęci do rozmów wideo i błędach ortograficznych. Chociaż w przypadku błędów ortograficznych mamy do czynienia z dwiema przyczynami, pierwsza - słaby translator, druga - brak uwagi na lekcjach języka polskiego w szkole podstawowej. Oszustwa romantyczne weszły na wyższy poziom gdy AI może wygenerować obraz i dźwięk. Dziś oszust może Cię zaczepić na dowolnym portalu, może byś wirtualną postacią z wiarygodną twarzą, głosem, skrupulatnie zbudowaną historią i wciągnąć Cię w internetowy romans, który skończy się próbą wyłudzenia pieniędzy.

Technikalia

Zaawansowane deepfaki są najczęściej tworzone przy użyciu Generative Adversarial Networks (GANs). GAN składa się z dwóch sieci neuronowych, które działają przeciwko sobie, aby ulepszać rezultaty. Wyobraź sobie, że wewnątrz komputera siedzi dwóch genialnych oszustów.

  • Oszust pierwszy (Generator): To taki cyfrowy Hagen, który maluje współczesną „Damę z łasiczką”. Bierze tysiące zdjęć damy z Instagrama (tych z dziubkiem i bez dziubka, z siłowni, z kotłowni, z kawiarni, bawialni, w pociągu, w przeciągu itd.) i próbuje stworzyć jej cyfrową kopię.
  • Oszust drugi (Dyskryminator): To taki krytyk sztuki, który niczym Barbara Sykalska dostrzeże dodatkowy wąs u łasiczki. Patrzy na dzieło Hagena Generatora i mówi: „Nie, nie jest podobna, oczy są martwe, dwie piersi by wystarczyły, ta trzecia jest zbędna, a lewe ucho wyrasta z nosa. Popraw!”.

I tak się kłócą za sobą. Pierwszy maluje, drugi krytykuje. W efekcie, po pewnym czasie (i po zużyciu ogromnych ilości energii i wody), generator uczy się na swoich błędach, aż do momentu, gdy nawet dyskryminator nie potrafi odróżnić treści fałszywych od prawdziwych. I oto mamy deepfake. Idealny, uśmiechający się, mrugający i – co najgorsze – brzmiący jakby to był oryginał.

Aby stworzyć przekonujący wideo deepfake danej osoby, AI do niedawna potrzebowała godzin materiału pokazującego daną osobę podczas mówienia, poruszania się i wyrażania emocji. W przypadku audio deepfaków system musiał być trenowany na nagraniach głosu w różnych tonach i kontekstach. Po takim treningu algorytmy mają lepszą formę niż Usain Bolt u szczytu kariery i mogą generować treści tak realistyczne, że potrafią one oszukać nie tylko użytkownika portalu randkowego, ale nawet niektóre systemy biometryczne. Skuteczny, ale dość drogi proces. Jeszcze. Inne popularne techniki tworzenia deepfaków to m.in.:

  • Sieci nadawcze – modele AI generują obrazy i filmy poprzez dodawanie i usuwanie cyfrowego „szumu”, tworząc nowe twarze na podstawie oryginalnych danych.
  • Zamiana twarzy, czyli technika podmiany twarzy, polegająca na nałożeniu twarzy jednej osoby na twarz innej osoby na obrazie lub w filmie. Im więcej obrazów i ujęć zostanie użytych do wytrenowania modelu, tym bardziej wiarygodny będzie rezultat.
  • Synchronizacja ust - technika dostosowująca ruchy ust i głosu do wybranej mowy. Bardzo skuteczna w połączeniu z syntetycznym głosem. Do tego oszuści nie potrzebują komputera niczym z laboratorium NASA, istnieją aplikacje mobilne, które umożliwiają tworzenie filmów deepfake w zaledwie kilka minut. Jakość i realizm są lepsze dzięki połączeniu większej liczby obrazów referencyjnych z lepszym sprzętem.

Podsumowując, wystarczy kilka zdjęć, kilka filmów z serwisów społecznościowych, próbka głosu, by stworzyć cyfrowy awatar, który wyrecytuje „Pana Tadeusza”, poleci znajomym na fejsie inwestycję, zatańczy na rurze w filmie dla dorosłych albo poprosi Waszą babcię o kod BLIK. Przyszłość wygląda jeszcze gorzej, bo już są testowane deepfaki głosu generowane w czasie rzeczywistym.

Historia kobiety, którą uwiódł fałszywy Brad Pitt obiegła cały świat. Oszust może wyglądać jak hollywoodzki aktor, mieć idealnie zsynchronizowane ruchy warg i mrugać z wdziękiem, podczas gdy w rzeczywistości jest to zorganizowana grupa przestępcza z biurem w odległym zakątku świata.

Deepfake Porn i Sextortion: Gdy intymność staje się bronią

Tu kończą się żarty. Jednym z najgorszych zastosowań AI jest tzw. non-consensual deepfake pornography. Jest to rodzaj syntetycznej pornografii wytworzonej przez modyfikację istniejących zdjęć lub wideo. Oszust bierze Twoje zdjęcia z portalu randkowego lub serwisu społecznościowego i wrzuca je do algorytmu „undressing AI”. Problemem nie jest już wyciek intymnych zdjęć, wystarczą te zwykłe, w sukience, w garniturze, w świątecznym swetrze. Algorytm „domyśla się”, co jest pod ubraniem (bazując na tysiącach innych zdjęć, więc efekt nie ma nic wspólnego z rzeczywistością), i tworzy spreparowany pornograficzny materiał wykorzystujący Twój wizerunek bez Twojej zgody. Potem dostajesz wiadomość: „Mam Twoje nagie zdjęcia. Jeśli nie przelejesz 5000 zł w kryptowalutach, wyślę je do Twojego szefa, matki i wszystkich znajomych na Facebooku”. Ofiarami tego procederu padają już nie tylko celebryci, ale zwykli użytkownicy aplikacji randkowych. Nawet jeśli ofiara udowodni, że materiał jest fałszywy, trauma pozostanie. Gdyby szantaż był dyscypliną olimpijską, to walka o medale byłaby zacięta.

Psychologia strachu

Klasyczny sextortion polega na tym, że ofiara, omamiona obietnicą wielkiej miłości lub chociażby upojnego kwadransu, wysyła swoje zdjęcie w stroju Adama lub Ewy. Po czym „druga połówka” pokazuje swoje prawdziwe intencje i pisze „Płać, albo…”. Rozwój technologii, w tym deepfake, napędza ten rodzaj przestępczości. To już jest proceder zautomatyzowany. Boty AI generują tysiące wiadomości szantażujących naraz. Dostajesz na skrzynkę maila w stylu: „Widziałem, co robisz przed kamerką. Mam nagranie”. Nawet jeśli nigdy nie włączyłeś kamerki, a przed komputerem siedzisz wyłącznie w starym dresie, ziarno niepokoju zostaje zasiane. A może ktoś się włamał? Czy zawsze mam zasłoniętą kamerkę? A co jeśli faktycznie mają jakieś moje kompromitujące nagrania? A co jeśli je spreparowali i nikt mi nie uwierzy, że to nie ja. Co robisz?

Studium przypadku: Pan Maurycy, lat 52, dyrektor działu logistyki w dużej firmie (człowiek z natury uporządkowany), poznał w sieci piękną „Anastazję”. Anastazja była modelką, która, tu zaskoczenie, pasjonowała się logistyką i optymalizacją łańcucha dostaw. Po dwóch tygodniach wymiany wiadomości, Anastazja zaproponowała wideorozmowę na WhatsAppie. Był tylko jeden haczyk: Anastazja była cnotliwą, wstydliwą kobietą i poprosiła Maurycego, by ten by ją ośmielić, pokazał jej „całego siebie”. Maurycy, pod wpływem emocji i koniaku, spełnił prośbę. Nie wiedział, że „Anastazja” to deepfake, a całe nagranie było rejestrowane.

10 minut po zakończeniu rozmowy Maurycy dostał link i wytyczne co dalej. Zobaczył tam siebie w pełnej krasie, obok zdjęcia ze swoją żoną na wakacjach w Egipcie i linku do profilu swojej firmy na LinkedIn. Do tego krótka acz jakże treściwa wiadomość: „10 000 euro do jutra, albo zapraszamy na premierę”.

Maurycy nie jedną „Anastazję” już w sieci poznał, więc zamiast biec do banku, nie zapłacił. Zamiast tego zablokował konta i zgłosił sprawę na policję. Czy film wyciekł? Nie. Szantażysta nie tracił czasu na kogoś, kto nie płaci. Miał w kolejce stu innych Maurycych.

 

Ponieważ jest to poradnik, to jestem zobligowana Wam coś poradzić. Pierwszą poradą gwarantującą względne bezpieczeństwo cyfrowe jaka przychodzi mi do głowy jest:

  • Wyrzuć telefon i laptop do Wisły i zamieszkaj w jaskini, bez dostępu do internetu.

Wiem, słaba rada. Więc pamiętaj chociaż o tych bardziej standardowych, które przynajmniej pozwolą ograniczyć ryzyka.

Dobre rady

  • Ogranicz do minimum udostępnianie danych. Tu się powtarzam, ale to jest podstawa. Wręcz może świadczyć o Twojej atrakcyjności, w czasach gdy influencerki i influencerzy relacjonują już wszystko, począwszy od porodu. Czekamy jeszcze na streaming z „zejścia z tego łez padołu”. Zakład Pogrzebowy Bytom lubi to.
  • Nie wysyłaj niczego, czego nie pokazałbyś na billboardzie przy autostradzie. Internet nie zapomina. Internet jest jak złośliwa sąsiadka, która pamięta Twoje błędy z 1997 roku i wypomni Ci je przy najbliższej okazji.
  • Zanim zaangażujesz się w relację i wyślesz zdjęcia lub udzielisz pożyczki, zrób rekonesans w sieci i sprawdź potencjalnego kandydata/tkę na ojca/matkę Twoich dzieci:
  • Sprawdź, czy ma konta w innych serwisach, portalach;
  • Sprawdź jak długo ma konto i co na nim jest;
  • Sprawdź zdjęcia, np. za pośrednictwem zwykłej wyszukiwarki. Skoro przy pomocy obiektywu Google potrafisz znaleźć ekonomiczną wersję lampki nocnej, która przypłynie do Ciebie z Azji, to i z tym sobie poradzisz;
  • Sprawdź metadane za pomocą dostępnych narzędzi czy zdjęcia nie są wygenerowane przez AI;
  • Weryfikuj rozmówcę „testem ruchu”. Deepfake w czasie rzeczywistym często „gubi” ostrość lub twarz na ułamek sekundy zmienia się w pikselozę;
  • Na chłodno zweryfikuj spójność historii rozmówcy. Zwracaj uwagę na niuanse. To przyda się nie tylko przy ochronie przed nigeryjskim łowcą majątków, ale i przed polskim tulipanem.
  • Nie lekceważ tzw. red flagów (modne określenie sygnałów ostrzegawczych). Jeśli w wątku przyjacielsko-romantycznym pojawiają się kwestie finansowe, prośby o pożyczkę, propozycje inwestycji albo naciski o utrzymanie znajomości w tajemnicy, to zakończ relację natychmiast i bezdyskusyjnie. Blokuj, urywaj kontakt, nie reaguj na wiadomości. Nasuwa mi się tu jedno, bardzo trafne określenie, ale nie przejdzie w poradniku urzędowym ;-)
  • Myśl! Nie wierz w ideały. Jeśli ktoś jest piękny, bogaty, romantyczny i zbyt chętny, by z Tobą rozmawiać o 4 rano – prawdopodobnie jest zasilany prądem stałym.

Co zrobić gdy Cię szantażują

  • Nie płać! Nigdy. Szantażysta nie kasuje materiałów. On tylko odnotowuje w Excelu: „Ofiara nr 482 – płaci, skłonny/a do współpracy, doić dalej”.
  • Zrób zrzuty ekranu. Zachowaj dowody (rozmowy, linki, żądania okupu, zrzuty profilu, zdjęcia, całą historię).
  • Zerwij kontakt. Zablokuj szantażystę na wszystkich kanałach komunikacji.
  • Zgłoś sprawę na policję. Szantaż to przestępstwo.
  • Poszukaj pomocy! Porozmawiaj z kimś bliskim lub skorzystaj z telefonów zaufania.

 

Jak na urząd przystało, dodaję paragrafy, które mogą Ci pomóc:

Kodeks karny określa przestępstwa przeciwko wolności oraz oszustwo i oszustwo komputerowe:

art. 190 §1 kodeksu karnego: Kto grozi innej osobie popełnieniem przestępstwa na jej szkodę lub na szkodę osoby dla niej najbliższej, jeżeli groźba wzbudza w osobie, do której została skierowana lub której dotyczy, uzasadnioną obawę, że będzie spełniona, podlega karze pozbawienia wolności do lat 3.

art. 190a §2 kodeksu karnego: Kto, podszywając się pod inną osobę, wykorzystuje jej wizerunek lub inne jej dane, za pomocą których jest ona publicznie identyfikowana, w celu wyrządzenia jej szkody majątkowej lub osobistej, podlega karze pozbawienia wolności od 6 miesięcy do 8 lat.

art. 191a §1 kodeksu karnego: Kto utrwala wizerunek nagiej osoby lub osoby w trakcie czynności seksualnej, używając w tym celu wobec niej przemocy, groźby bezprawnej lub podstępu, albo wizerunek nagiej osoby lub osoby w trakcie czynności seksualnej bez jej zgody rozpowszechnia, podlega karze pozbawienia wolności od 3 miesięcy do lat 5.

art. 286 §1 kodeksu karnego: Kto, w celu osiągnięcia korzyści majątkowej, doprowadza inną osobę do niekorzystnego rozporządzenia własnym lub cudzym mieniem za pomocą wprowadzenia jej w błąd albo wyzyskania błędu lub niezdolności do należytego pojmowania przedsiębranego działania, podlega karze pozbawienia wolności od 6 miesięcy do lat 8.

art. 287 §1 kodeksu karnego: Kto, w celu osiągnięcia korzyści majątkowej lub wyrządzenia innej osobie szkody, bez upoważnienia, wpływa na automatyczne przetwarzanie, gromadzenie lub przekazywanie danych informatycznych lub zmienia, usuwa albo wprowadza nowy zapis danych informatycznych, podlega karze pozbawienia wolności od 3 miesięcy do lat 5.

 

Pamiętaj! Ściganie tych przestępstw odbywa się na wniosek pokrzywdzonego.

Sextortion w 2026 roku to nie tylko przestępstwo – to przemysł. Wykorzystanie deepfake’ów sprawiło, że granica między prawdą a fałszem się zaciera. Bądź czujny, bądź sceptyczny i nie daj się nabrać na „modelki pasjonujące się logistyką”. Prawdziwe modelki są zajęte liczeniem kalorii w liściu sałaty i reklamowaniem „cudownych” kremów.

 

Poproś o pomoc!

  • 116sos.pl – wsparcie dla osób w kryzysie emocjonalnym

 

  • Centrum Wsparcia dla Osób Dorosłych w Kryzysie Psychicznym

 

  • Fundacja Feminoteka – wsparcie dla kobiet doświadczających przemocy
  • Zadzwoń: 888 88 33 88
  • Napisz:

 

  • Instytut Przeciwdziałania Wykluczeniom – Telefon Zaufania dla Mężczyzn
  • Zadzwoń: 608 271 402
  • Napisz:

 

 

Milena Górecka, naczelnik, Departament Polityki Konsumenckiej

 

Przy szukaniu danych i raportów wspierali mnie: „Zygmunt” (ChatGPT) i „Pani Magistra” (Gemini)

 

Pliki do pobrania