AI a ryzyko kwantowe
- Katarzyna Celińska

- 19 godzin temu
- 2 minut(y) czytania
Organizacja ISACA opublikowała niedawno raport „The Promise and Peril of the AI Revolution: Managing Risk” („Obietnice i zagrożenia rewolucji sztucznej inteligencji: zarządzanie ryzykiem”), w którym przedstawiono, w jaki sposób ryzyko związane ze sztuczną inteligencją przechodzi od „przyszłych obaw” do rzeczywistości operacyjnej.
Najbardziej moją uwagę przykuło wyraźne powiązanie między sztuczną inteligencją a kolejnym horyzontem ryzyka: kwantowym.
ISACA podkreśla, że sztuczna inteligencja przestała być „narzędziem eksperymentalnym”, a stała się infrastrukturą przedsiębiorstwa wbudowaną w różne platformy i procesy, tworząc nowe rodzaje awarii szybciej, niż tradycyjne mechanizmy kontroli są w stanie je wykryć i opanować.

Tematy związane z ryzykiem związanym ze sztuczną inteligencją
➡️ ryzyko społeczne (dezinformacja i deepfake’i),
➡️ ryzyko związane z własnością intelektualną i prawami własności,
➡️ wpływ na cyberbezpieczeństwo i odporność systemów,
➡️ słabe wewnętrzne struktury uprawnień,
➡️ luki w kompetencjach,
➡️ niezamierzone wykorzystanie,
➡️ integralność danych/halucynacje,
➡️ oraz odpowiedzialność prawna.
Z perspektywy cyberbezpieczeństwa i zarządzania wyróżniają się dwa punkty:
➡️ Sztuczna inteligencja agentyczna/autonomiczna skraca czas reakcji
ISACA zwraca uwagę na pojawienie się zagrożeń związanych ze sztuczną inteligencją agentyczną, w ramach której systemy mogą samodzielnie planować i wykonywać wieloetapowe operacje cybernetyczne, skracając czas wykrywania i reakcji ponad możliwości klasycznych zabezpieczeń.
➡️ Sztuczna inteligencja potęguje skutki błędów związanych z uprawnieniami
Nieprawidłowo skonfigurowany dostęp nie jest niczym nowym, ale sztuczna inteligencja może szybko wnioskować, podsumowywać i agregować poufne informacje, zwiększając zasięg skutków błędów związanych z uprawnieniami. ISACA wskazuje na zarządzanie tożsamością i zasadę minimalnych uprawnień jako podstawowe środki kontroli.
Informatyka kwantowa i sztuczna inteligencja
Skala i autonomia sztucznej inteligencji wiążą się z wpływem informatyki kwantowej na zaufanie do kryptografii:
➡️ Informatyka kwantowa stanowi zagrożenie dla powszechnie stosowanej kryptografii klucza publicznego.
ISACA twierdzi, że sztuczna inteligencja zwiększa pilność kwestii PQC z trzech powodów:
➡️ Długowieczność danych wykorzystywanych przez systemy sztucznej inteligencji,
➡️ Automatyzacja na dużą skalę,
➡️ Rozszerzona powierzchnia ataku.
ISACA sugeruje utworzenie zespołu ds. gotowości kwantowo-AI, w skład którego wchodziliby przedstawiciele dziedzin takich jak cyberbezpieczeństwo, architektura korporacyjna, ryzyko, kwestie prawne/zgodność oraz kierownictwo programów AI.
To interesująca perspektywa, zwłaszcza w kontekście zagrożeń kwantowych, które mogą być dodatkowo spotęgowane przez sztuczną inteligencję poprzez automatyzację (agentowa sztuczna inteligencja jako warstwa wykonawcza). Sztuczna inteligencja jest już powszechna, ale widzę coraz więcej publikacji i dokumentów rządowych poruszających również temat PQC, co jest pozytywnym zjawiskiem. Zwiększa to szansę, że więcej organizacji zajmie się tą kwestią i zacznie zajmować się zagrożeniami postkwantowymi.
Autor: Sebastian Burgemejster



Komentarze