Teraz Gramy

Tytuł

Artysta

Teraz

Radio Strefa Muzy

00:00 09:00

Teraz

Radio Strefa Muzy

00:00 09:00

Następna


Walentynki 2026: Romantyczne deepfake’i – jak nie dać się AI?

Autorstwa na 2026-02-08

Miłość w czasach AI. Dlaczego „romantyczne deepfake’i” to największe zagrożenie tych Walentynek?

Eksperci z NASK oraz międzynarodowe agencje cyberbezpieczeństwa ostrzegają: w 2026 roku tradycyjne oszustwo „na amerykańskiego żołnierza” ewoluowało. Przestępcy nie wysyłają już tylko podejrzanych e-maili – teraz do Ciebie dzwonią, a z ekranu telefonu uśmiecha się postać, która wygląda i mówi jak Twój ideał.

Scenariusz „Idealnego Profilu”

Dzięki algorytmom generatywnym, oszuści tworzą profile osób, które nie istnieją, ale są idealnie dopasowane do Twoich preferencji.

  • Fakt: Zdjęcia na portalach randkowych (Tinder, Bumble czy niszowe aplikacje 2026 roku) są generowane tak, by budzić maksymalne zaufanie. Symetryczne twarze, naturalne oświetlenie i „ludzkie” niedoskonałości sprawiają, że weryfikacja obrazem niemal nie działa.

  • Deepfake Video: Największą nowością tego sezonu są wideorozmowy w czasie rzeczywistym. Oszust nakłada filtr AI na swoją twarz, co pozwala mu na prowadzenie „na żywo” flirty, mrugając i uśmiechając się do Ciebie z ekranu.

Klonowanie głosu: Gdy serce ufa uszom

W 2026 roku do sklonowania czyjegoś głosu wystarczy zaledwie 3 sekundy nagrania (np. z Twojego vloga na TikToku czy Instagramie).

  • Zagrożenie: Oszuści mogą podszywać się pod kogoś, kogo już znasz (np. „znajomego znajomego”) lub budować relację od zera, używając głosu, który brzmi kojąco i wiarygodnie.

  • Mechanizm: „Ukochany” dzwoni z „pilną prośbą” o pomoc finansową, tłumacząc to nagłym wypadkiem lub zablokowanym kontem w podróży. Emocje wywołane znajomym brzmieniem głosu często wyłączają logiczne myślenie.

„Pig Butchering” 2.0 – inwestycje zamiast kwiatów

Większość walentynkowych oszustw kończy się nie prośbą o 500 zł na bilet, ale namową na „wspólne budowanie przyszłości” poprzez kryptowaluty.

  • Metoda: Po kilku tygodniach budowania więzi (często z użyciem botów AI, które piszą wiersze i czułe wiadomości 24/7), oszust sugeruje zainwestowanie w nową, „pewną” platformę finansową.

  • Skutek: Ofiary tracą często oszczędności życia, wierząc, że robią to dla wspólnego dobra z osobą, którą „widziały na własne oczy” na kamerce.

Jak się bronić? „Zasada trzech sekund” i hasło rodzinne

W obliczu tak zaawansowanej technologii, musimy wrócić do analogowych metod weryfikacji:

  • Test „Profilu”: Podczas wideorozmowy poproś drugą osobę o pomachanie ręką przed twarzą lub gwałtowny obrót głowy o 90 stopni. Większość algorytmów deepfake w czasie rzeczywistym wciąż gubi się przy takich ruchach (obraz zaczyna „pływać” lub znikać na ułamek sekundy).

  • Wspólne hasło: Jeśli Twoja relacja przenosi się na poziom finansowy lub bardzo bliski, ustalcie „bezpieczne słowo”, którego nie zna nikt inny.

  • Weryfikacja poza aplikacją: Spróbuj znaleźć tę osobę w innych rejestrach lub poproś o spotkanie w miejscu publicznym w ciągu pierwszych dwóch tygodni znajomości. Jeśli „kochanek” zawsze ma wymówkę (awaria kamerki, praca na platformie wiertniczej, tajna misja) – uciekaj.

Photo by Laura Ockel on Unsplash