Sztuczna inteligencja a wzrost liczby oszustw phishingowych
- Katarzyna Celińska

- 13 paź
- 2 minut(y) czytania
W ramach niedawnego badania przeprowadzonego przez agencję Reuters we współpracy z Uniwersytetem Harvarda sprawdzono, czy generatywne narzędzia AI mogą być wykorzystywane do tworzenia oszustw phishingowych. Wyniki były alarmujące: AI sprawia, że phishing jest szybszy, tańszy i bardziej przekonujący, niemal podwajając wskaźnik skuteczności w porównaniu z tradycyjnym phishingiem.
Przetestowane modele sztucznej inteligencji:
☑️ ChatGPT firmy OpenAI
☑️ Claude firmy Anthropic
☑️ Meta AI firmy Meta
☑️ Gemini firmy Google
☑️ xAI Grok firmy Elona Muska
☑️ DeepSeek z Chin

Chatboty zostały poproszone o wygenerowanie wiadomości e-mail przypominających oszustwa. Chociaż większość z nich początkowo odmówiła, po niewielkiej „inżynierii podpowiedzi” (np. przedstawieniu tego jako badania, odgrywanie ról lub fikcję) wygenerowały one wysoce spersonalizowane szablony phishingowe.
Wyniki
Współczynnik klikalności: 11% uczestników kliknęło linki w wiadomościach e-mail generowanych przez sztuczną inteligencję — prawie dwukrotnie więcej niż wynosi branżowy benchmark wynoszący 6% dla symulacji phishingu.
☑️ Sztuczna inteligencja obniża bariery → każdy może generować zaawansowane wiadomości e-mail typu phishing.
☑️ Manipulacja psychologiczna na dużą skalę → algorytmy mogą masowo generować poczucie pilności, strachu, zaufania i empatii.
Wygenerowane scenariusze:
☑️ Fałszywe wiadomości dotyczące zwrotu podatku IRS.
☑️ E-maile dotyczące oszustw związanych z świadczeniami Medicare.
☑️ Oszustwa charytatywne wykorzystujące motywy pomocy ofiarom katastrof.
☑️ E-maile dotyczące oszustw bankowych i płatniczych.
☑️ Poziom personalizacji: chatboty sugerowały nawet najlepsze pory dnia, aby osiągnąć maksymalny efekt w przypadku osób starszych.
☑️ Omijanie zabezpieczeń: pomimo zabezpieczeń modele nadal generowały treści phishingowe, gdy poproszono je o to pośrednio. Podkreśla to kruchość filtrów bezpieczeństwa AI.
☑️ Analogiczne sytuacje w świecie rzeczywistym: dochodzenia w Azji Południowo-Wschodniej pokazują, że grupy przestępcze już wykorzystują narzędzia AI do udoskonalania swoich kampanii oszustw.
Szum wokół sztucznej inteligencji jest wszechobecny — obecnie obserwuję pojawienie się wielu „ekspertów”, którzy jeszcze wczoraj byli konsultantami ds. RODO, zgodności, ryzyka, zgłaszania nieprawidłowości lub NIS2. Dzisiaj nagle stali się guru sztucznej inteligencji (sic!).
Dla mnie sztuczna inteligencja jest bronią obosieczną. Może przynieść ogromne korzyści, ale może również zaszkodzić organizacjom i ludziom, jeśli zostanie niewłaściwie wykorzystana. Badanie to jasno pokazuje, w jaki sposób przestępcy mogą wykorzystać sztuczną inteligencję do przeprowadzania ataków phishingowych na dużą skalę.
Phishing nie jest niczym nowym, ale manipulacja psychologiczna, która za nim stoi, jest ponadczasowa — a sztuczna inteligencja tylko ją wzmacnia. Niebezpieczne jest tu nie tylko wyrafinowanie oszustw, ale także szybkość i skala, z jaką można je obecnie przeprowadzać.
Autor: Sebastian Burgemejster





Komentarze