top of page
Szukaj

Luka w nadzorze nad sztuczną inteligencją

  • Zdjęcie autora: Katarzyna  Celińska
    Katarzyna Celińska
  • 9 lis
  • 2 minut(y) czytania

Kiedy przyjrzymy się raportowi KPMG i Uniwersytetu w Melbourne „Zaufanie, postawy i wykorzystanie sztucznej inteligencji w 2025 r.” wraz z raportem IBM „Koszt naruszenia bezpieczeństwa danych w 2025 r. – luka w nadzorze nad sztuczną inteligencją”, wyłania się jasny obraz: największym ryzykiem związanym ze sztuczną inteligencją nie jest sama technologia, ale brak zrozumienia i nadzoru nad nią.


Globalne badanie KPMG przedstawia uderzający obraz tego, w jaki sposób ludzie i organizacje wykorzystują sztuczną inteligencję:

➡️ 66% osób regularnie korzysta ze sztucznej inteligencji, ale 61% nie ma żadnego szkolenia w tym zakresie, a połowa przyznaje, że nie rozumie, jak działa sztuczna inteligencja.

➡️ 83% respondentów chce dowiedzieć się więcej na temat sztucznej inteligencji, co świadczy o dużym zainteresowaniu, ale niskich kompetencjach.

➡️ Tylko 43% uważa, że obecne przepisy i regulacje dotyczące sztucznej inteligencji są odpowiednie, podczas gdy 70% domaga się silniejszego nadzoru.

➡️ 79% jest zaniepokojonych cyberbezpieczeństwem, dezinformacją i ryzykiem związanym z prywatnością danych.

➡️ Jednocześnie raport IBM pokazuje, że organizacje z ograniczonym doświadczeniem w zarządzaniu sztuczną inteligencją ponoszą średnio o 21% wyższe koszty naruszeń bezpieczeństwa spowodowanych nieautoryzowanym użyciem sztucznej inteligencji — niezatwierdzonymi narzędziami, niezabezpieczonymi modelami i niekontrolowanymi, halucynacyjnymi wynikami.


ree

Związek między brakami w zakresie wiedzy na temat sztucznej inteligencji a incydentami związanymi z bezpieczeństwem hashtag#security jest niezaprzeczalny.


Cień sztucznej inteligencji

Badanie pokazuje, że w wielu organizacjach wdrożenie sztucznej inteligencji wyprzedziło zarządzanie bezpieczeństwem.


➡️ 58% pracowników regularnie korzysta obecnie ze sztucznej inteligencji w pracy.

➡️ Połowa z nich korzysta z publicznych narzędzi AI, takich jak ChatGPT lub Gemini, do przetwarzania danych wrażliwych — w tym informacji finansowych lub dotyczących klientów — często z naruszeniem polityki firmy.

➡️ Dwie trzecie polega na wynikach AI bez weryfikacji ich dokładności, a ponad połowa popełniła błędy z powodu treści generowanych przez AI.


Kiedy czytam raport AI Trust Report 2025, dostrzegam te same wzorce, co w raporcie Cost of a Data Breach 2025:


Brak edukacji → złe decyzje → sztuczna inteligencja działająca w ukryciu → incydenty. To prosta droga od niewiedzy do skutków.


Przypadek Deloitte (firma Deloitte została zmuszona do zwrotu 290 000 AUD rządowi australijskiemu po dostarczeniu raportu wygenerowanego przez sztuczną inteligencję, który zawierał zafałszowane dane i sfabrykowane odniesienia) jest kolejnym przykładem tego problemu. Nie chodzi o to, że sztuczna inteligencja jest „zła” — chodzi o to, że ludzie używają jej bez odpowiedniej kontroli i krytycznej oceny.


Podobnie jak w przypadku cyberbezpieczeństwa, nie można zlecić odpowiedzialności maszynie.


Najbardziej niepokoi mnie eksplozja samozwańczych „ekspertów AI”.

Podobnie jak w przypadku poprzednich fal szumu medialnego – whistleblowingu, cyberbezpieczeństwa, prywatności, zgodności, audytu lub oszustw – nagle pojawili się „specjaliści AI” z niewielką lub żadną wiedzą techniczną. Mówią o sztucznej inteligencji, jakby była niemal świadoma (serio?), nie potrafiąc jednocześnie wyjaśnić, jak faktycznie działają transformatory, osadzanie lub wstrzyknięcia promptów. Przestańmy więc tworzyć „ekspertów od sztucznej inteligencji”, którzy nie rozumieją technologii.




 
 
 

Komentarze


Kontakt

BW Advisory sp. z  o.o.

Boczańska 25
03-156 Warszawa
NIP: 525-281-83-52

 

Polityka prywatności

  • LinkedIn
  • Youtube
bottom of page