Koszt naruszenia bezpieczeństwa danych w 2025 r. – część 3
- Katarzyna Celińska

- 14 paź
- 2 minut(y) czytania
W trzeciej części mojej analizy raportu IBM–Ponemon Institute Cost of a Data Breach Report 2025 zagłębiam się w jedno z najszybciej rosnących zagrożeń: sztuczną inteligencję w naruszeniach bezpieczeństwa danych.
Sztuczna inteligencja w naruszeniach bezpieczeństwa
13% organizacji zgłosiło naruszenie związane z modelami lub aplikacjami sztucznej inteligencji — i, co szokujące, 97% z nich nie posiadało odpowiednich mechanizmów kontroli dostępu do sztucznej inteligencji.

Foto: https://pl.freepik.com/
Najczęstsze przyczyny incydentów związanych z bezpieczeństwem AI:
☑️ Naruszenie łańcucha dostaw (30%)
☑️ Odwrócenie modelu (24%)
☑️ Ominięcie modelu (21%)
Konsekwencje były poważne: zakłócenia operacyjne (31%), nieautoryzowany dostęp do wrażliwych danych (31%) i utrata integralności danych (29%).
Cień AI – większy problem
☑️ 20% naruszeń było związanych z cieniem AI – nieautoryzowanym wykorzystaniem sztucznej inteligencji przez pracowników.
☑️ Incydenty związane z shadow AI najczęściej dotyczyły naruszenia bezpieczeństwa danych osobowych klientów (65%) i własności intelektualnej (40%).
☑️ Naruszenia związane z shadow AI zwiększyły średni koszt naruszenia o 670 tys. dolarów w porównaniu z organizacjami, w których shadow AI występowało w niewielkim stopniu lub wcale.
Dowodzi to, że zakazanie AI nie działa. Pracownicy będą korzystać z AI, aby pracować mądrzej — kluczem jest umożliwienie bezpiecznego, regulowanego korzystania z tej technologii.
AI as an Attack Tool
Attackers are also weaponizing AI:
☑️ 16% of all breaches in 2025 involved attackers using AI.
☑️ Top techniques: AI-generated phishing (37%) and deepfakes (35%).
Almost every organization has now faced incidents involving AI. The most common risks come from supply chain exposure, model inversion, or evasion. The biggest consequences? Service disruption, data loss, and compromised integrity. Shadow AI is now a bigger problem than Shadow IT — employees use AI even when banned. The solution isn’t prohibition, but helping employees use AI in a safe and secure way. The fact that 63% of organizations lack AI governance policies says everything about our preparedness. Meanwhile, threat actors are moving fast, weaponizing AI for phishing and deepfakes.
Autor: Sebastian Burgemejster





Komentarze