top of page
Szukaj

Obrona przed deepfake'ami: jak ewoluuje oszustwo oparte na sztucznej inteligencji i co możemy z tym zrobić

  • Zdjęcie autora: Katarzyna  Celińska
    Katarzyna Celińska
  • 20 paź
  • 2 minut(y) czytania

Deepfake'i nie są już tylko ciekawostką — obecnie stanowią systemowe zagrożenie cybernetyczne i społeczne. Raporty Ofcom „Deepfake Defences: Mitigating the Harms of Deceptive Deepfakes” (Obrona przed deepfake'ami: ograniczanie szkód spowodowanych przez oszukańcze deepfake'i) oraz „Deepfake Defences 2 – The Attribution Toolkit” (Obrona przed deepfake'ami 2 – zestaw narzędzi do atrybucji) zawierają jeden z najbardziej kompleksowych przeglądów sposobów tworzenia deepfake'ów, szkód, jakie powodują, oraz strategii, które organy regulacyjne, firmy technologiczne i rządy mogą stosować w celu ich zwalczania.


ree

Najważniejsze wnioski

Deepfake stały się obecnie powszechne.


Trzy główne szkody:

➡️ Poniżające: wykorzystywane do poniżania lub znęcania się nad ofiarami, często poprzez treści seksualne bez zgody.

➡️ Oszukańcze: wykorzystywane w fałszywych reklamach, oszustwach i podszywaniu się pod inne osoby, w tym w kradzieżach finansowych w świecie rzeczywistym.

➡️ Dezinformacja: wykorzystywane do szerzenia dezinformacji politycznej i społecznej.


„Gospodarka deepfake”.


Cały ekosystem twórców, aplikacji i platform hostingowych napędza rozwój.


Wykrywanie i reagowanie są złożone.

Ofcom proponuje czteroczęściowy model obrony — zapobieganie, osadzanie, wykrywanie, egzekwowanie:

➡️ Zapobieganie: ograniczenie tworzenia (filtry podpowiedzi/wyników, usuwanie zestawów danych NSFW, red teaming).

➡️ Osadzanie: dodawanie znaków wodnych, metadanych i etykiet w celu śledzenia pochodzenia treści.

➡️ Wykrywanie: wykorzystanie narzędzi kryminalistycznych, hashujących i klasyfikujących opartych na sztucznej inteligencji do identyfikacji zmanipulowanych treści.

➡️ Egzekwowanie: ustalenie zasad platformy, usuwanie szkodliwych treści i nakładanie sankcji na osoby naruszające zasady.


Zestaw narzędzi do atrybucji


W drugim artykule przedstawiono ramy dotyczące pochodzenia treści — zapewniające możliwość śledzenia syntetycznych mediów do ich źródła za pomocą metadanych, podpisów cyfrowych i znaków wodnych. Skupiono się w nim na odpowiedzialności na wyższym szczeblu (i egzekwowaniu na niższym szczeblu).

Jako specjalista ds. cyberbezpieczeństwa, który jest pasjonatem swojej pracy, uważam te raporty za bardzo interesujące. Deepfake'i są coraz częściej wykorzystywane do oszustw, manipulacji i ataków na reputację, a mimo to brakuje nam uniwersalnych standardów obronnych. Brakuje — i tego właśnie się spodziewałem — jasnych wytycznych dla organizacji i użytkowników dotyczących przygotowania się i reagowania na zagrożenia związane z deepfake'ami. Raporty koncentrują się przede wszystkim na historii, mechanizmach i łańcuchu dostaw technologii, a nie na zabezpieczeniach na poziomie użytkownika.


Niemniej jednak zdecydowanie zgadzam się z jednym kluczowym punktem: „Twórcy modeli sztucznej inteligencji i dostawcy usług muszą wbudować zabezpieczenia już na etapie projektowania, a nie jako dodatek”.


Aby się chronić, organizacje powinny wdrożyć:


➡️ Protokoły weryfikacyjne – ustanowić wielopoziomową weryfikację wrażliwej komunikacji i wymagać dodatkowego potwierdzenia (np. oddzwonienia lub bezpiecznego kanału) przed podjęciem działań w odpowiedzi na prośby przekazane głosowo, wideo lub e-mailem.

➡️ Systemy wykrywania – wykorzystanie narzędzi opartych na sztucznej inteligencji do wykrywania zmanipulowanych mediów.

➡️ Świadomość pracowników – regularne szkolenia i ćwiczenia symulacyjne, aby pomóc pracownikom rozpoznawać deepfake'i, ćwiczyć procedury weryfikacyjne i wzmocnić gotowość organizacyjną.




 
 
 

Komentarze


Kontakt

BW Advisory sp. z  o.o.

Boczańska 25
03-156 Warszawa
NIP: 525-281-83-52

 

Polityka prywatności

  • LinkedIn
  • Youtube
bottom of page