Formularz wyceny

Deep fake. Manipulacja jest coraz łatwiejsza

Co to jest deep fake?

 

Zaczniemy od definicjii próby zrozumienia zjawiska. Deep fake to technika, która polega na manipulowaniu obrazami, tekstem lub dźwiękami za pomocą sztucznej inteligencji. Deep fake może służyć do tworzenia fałszywych lub zmienionych materiałów wideo, audio lub graficznych, które wyglądają na autentyczne. Przykładami deep fake mogą być:

 


Podmiana twarzy

Technika, która polega na zastąpieniu twarzy jednej osoby twarzą innej w materiale wideo. Może być używana do tworzenia parodii, satyr, ale także do szkalowania, szantażowania lub wprowadzania w błąd.

Synteza mowy

Polega na generowaniu sztucznego głosu, który brzmi jak głos rzeczywistej osoby. Może być używana do tworzenia podkastów, audiobooków, ale także do podszywania się, oszukiwania lub wpływania na opinie, wykorzystując pozycję osoby, której wypowiedź fałszuje.

Generowanie treści

Tworzenie nowych obrazów, tekstów lub dźwięków za pomocą sztucznej inteligencji. Może być używana do tworzenia sztuki, rozrywki, edukacji, ale także do dezinformacji, propagandy lub fałszowania dowodów.

Jak rozpoznać deep fake?

Deep fake jest coraz trudniejsze do odróżnienia od prawdziwych materiałów, ponieważ technologia sztucznej inteligencji stale się rozwija. Ponadto, narzędzia mogące wygenerować deep fake są powszechnie dostępne. Jednak istnieją pewne wskazówki, które mogą pomóc w wykrywaniu deep fake, takie jak:

Niespójności

Sprawdź, czy nie ma żadnych niezgodności w obrazie lub dźwięku, takich jak błędy w oświetleniu, kolorach, cieniach, odbiciach, ruchach ust, synchronizacji dźwięku, tle, ubraniu, fryzurze, biżuterii, znamionach, tatuażach itp.

Źródło

Skąd pochodzi materiał? Kto go opublikował, kiedy i gdzie? Sprawdź, czy nie ma żadnych podejrzanych lub nieznanych źródeł, braku informacji, sprzeczności, zmian w nazwie pliku, adresie URL, metadanych itp.

Kontekst

Upewnij się cz materiał pasuje do kontekstu, w jakim się znajduje. Sprawdź, czy nie ma żadnych anachronizmów, nieprawdopodobnych sytuacji, sprzeczności z innymi źródłami, braku logiki, sensu, motywu itp.

Weryfikacja

Czy materiał został zweryfikowany przez inne, wiarygodne źródła, takie jak media, eksperci, organizacje, instytucje, osoby publiczne itp.? Sprawdź, czy nie ma żadnych kontrowersji, zaprzeczeń, sprostowań, korekt itp. Jeśli oglądsz zdjęcie, zwróć uwagę na detale: "ludzka" budowa ciała, dłoni, padanie cienia. Na obrazach wygenerowanych przez AI mogą pojawiać się np. nogi nie należące do nikogo.

Jak się chronić przed dezinformacją?

Dezinformacja to celowe lub niecelowe wprowadzanie w błąd za pomocą fałszywych lub zniekształconych informacji. Dezinformacja może mieć negatywne skutki dla społeczeństwa, takie jak podważanie zaufania, niszczenie reputacji, wpływanie na wybory, wywoływanie konfliktów, szerzenie nienawiści, łamania praw człowieka itp. Wpływ deep fake jeszcze szczególnie niebepzieczny gdy dotyczy większych grup społecznych czy państw, jednak nawet atak na pojedynczą osobę może wywołać wiele negatywnych skutków dla pokrzywdzonego. Aby jak najlepiej chronić się przed dezinformacją i jej wpływem, należy:

 


Być krytycznym - nie przyjmować wszystkiego za pewnik, zadawać pytania, analizować, porównywać, oceniać, weryfikować informacje, które otrzymujemy lub przekazujemy dalej.

Być świadomym - zdawać sobie sprawę z istnienia i zagrożenia deep fake i innych technik manipulacji informacją. Znać i rozumieć, jak działają, jak je rozpoznać i jak się przed nimi bronić.

Być odpowiedzialnym - nie tworzyć, nie udostępniać, nie rozpowszechniać deep fake lub innych fałszywych lub zniekształconych informacji. Nie poddawać się emocjom, uprzedzeniom, stereotypom, presji, manipulacji. Nie wpadać w pułapki, takie jak clickbait, fake news, teorie spiskowe, hejt, trolling itp.


Istnieją także technologie, które pomagają w rozpoznawaniu materiałów stworzonych przy pomocy algorytmów sztucznej inteligencji. Oto kilka przykładów takich narzędzi:

 

Sentinel to platforma ochrony oparta na sztucznej inteligencji, która pomaga demokratycznym rządom, agencjom obronnym i przedsiębiorstwom powstrzymać zagrożenie związane z deep fake. Umożliwia użytkownikom przesyłanie multimediów cyfrowych do analizy i zapewnia wizualizację manipulacji.


FakeCatcher to wykrywacz deep fake firmy Intel, który działa w czasie rzeczywistym. Wykorzystuje sprzęt i oprogramowanie firmy Intel, aby szukać autentycznych wskazówek w prawdziwych filmach, takich jak subtelny „przepływ krwi” w pikselach filmu.


WeVerify to narzędzie do weryfikacji treści cyfrowych, które integruje różne techniki analizy i wykrywania deep fake, takie jak analiza metadanych, porównanie źródeł, analiza mikroekspresji, czy wykrywanie niezgodności fonemów i visemów.


Wykrywanie deep fake przy użyciu niezgodności fonemów i visemów to metoda, która polega na analizie synchronizacji dźwięku i obrazu w filmach. Fonemy to jednostki dźwiękowe, a visemy to jednostki wizualne odpowiadające ruchom ust. Jeśli fonemy i visemy nie pasują do siebie, może to wskazywać na manipulację.

 

Podsumowanie

Deep fake to zjawisko, które polega na manipulowaniu obrazami lub dźwiękami za pomocą sztucznej inteligencji. Deep fake może służyć do różnych celów, zarówno pozytywnych, jak i negatywnych. Tworzone materiały są coraz trudniejsze do odróżnienia od prawdziwych, ale istnieją sposoby, jak je wykryć i zwalczać. Aby się chronić przed dezinformacją, należy być krytycznym, świadomym i odpowiedzialnym.