top of page
Szukaj

AI a ryzyko kwantowe

Organizacja ISACA opublikowała niedawno raport „The Promise and Peril of the AI Revolution: Managing Risk” („Obietnice i zagrożenia rewolucji sztucznej inteligencji: zarządzanie ryzykiem”), w którym przedstawiono, w jaki sposób ryzyko związane ze sztuczną inteligencją przechodzi od „przyszłych obaw” do rzeczywistości operacyjnej.


Najbardziej moją uwagę przykuło wyraźne powiązanie między sztuczną inteligencją a kolejnym horyzontem ryzyka: kwantowym.


ISACA podkreśla, że sztuczna inteligencja przestała być „narzędziem eksperymentalnym”, a stała się infrastrukturą przedsiębiorstwa wbudowaną w różne platformy i procesy, tworząc nowe rodzaje awarii szybciej, niż tradycyjne mechanizmy kontroli są w stanie je wykryć i opanować.



Tematy związane z ryzykiem związanym ze sztuczną inteligencją

➡️ ryzyko społeczne (dezinformacja i deepfake’i),

➡️ ryzyko związane z własnością intelektualną i prawami własności,

➡️ wpływ na cyberbezpieczeństwo i odporność systemów,

➡️ słabe wewnętrzne struktury uprawnień,

➡️ luki w kompetencjach,

➡️ niezamierzone wykorzystanie,

➡️ integralność danych/halucynacje,

➡️ oraz odpowiedzialność prawna.


Z perspektywy cyberbezpieczeństwa i zarządzania wyróżniają się dwa punkty:


➡️ Sztuczna inteligencja agentyczna/autonomiczna skraca czas reakcji

ISACA zwraca uwagę na pojawienie się zagrożeń związanych ze sztuczną inteligencją agentyczną, w ramach której systemy mogą samodzielnie planować i wykonywać wieloetapowe operacje cybernetyczne, skracając czas wykrywania i reakcji ponad możliwości klasycznych zabezpieczeń.


➡️ Sztuczna inteligencja potęguje skutki błędów związanych z uprawnieniami


Nieprawidłowo skonfigurowany dostęp nie jest niczym nowym, ale sztuczna inteligencja może szybko wnioskować, podsumowywać i agregować poufne informacje, zwiększając zasięg skutków błędów związanych z uprawnieniami. ISACA wskazuje na zarządzanie tożsamością i zasadę minimalnych uprawnień jako podstawowe środki kontroli.


Informatyka kwantowa i sztuczna inteligencja


Skala i autonomia sztucznej inteligencji wiążą się z wpływem informatyki kwantowej na zaufanie do kryptografii:

➡️ Informatyka kwantowa stanowi zagrożenie dla powszechnie stosowanej kryptografii klucza publicznego.

ISACA twierdzi, że sztuczna inteligencja zwiększa pilność kwestii PQC z trzech powodów:

➡️ Długowieczność danych wykorzystywanych przez systemy sztucznej inteligencji,

➡️ Automatyzacja na dużą skalę,

➡️ Rozszerzona powierzchnia ataku.


ISACA sugeruje utworzenie zespołu ds. gotowości kwantowo-AI, w skład którego wchodziliby przedstawiciele dziedzin takich jak cyberbezpieczeństwo, architektura korporacyjna, ryzyko, kwestie prawne/zgodność oraz kierownictwo programów AI.


To interesująca perspektywa, zwłaszcza w kontekście zagrożeń kwantowych, które mogą być dodatkowo spotęgowane przez sztuczną inteligencję poprzez automatyzację (agentowa sztuczna inteligencja jako warstwa wykonawcza). Sztuczna inteligencja jest już powszechna, ale widzę coraz więcej publikacji i dokumentów rządowych poruszających również temat PQC, co jest pozytywnym zjawiskiem. Zwiększa to szansę, że więcej organizacji zajmie się tą kwestią i zacznie zajmować się zagrożeniami postkwantowymi.



 
 
 

Komentarze


Kontakt

BW Advisory sp. z  o.o.

Boczańska 25
03-156 Warszawa
NIP: 525-281-83-52

 

Polityka prywatności

  • LinkedIn
  • Youtube
bottom of page