Modele sztucznej inteligencji Frontier i firma Anthropic
- Katarzyna Celińska

- 1 dzień temu
- 2 minut(y) czytania
Z najnowszych doniesień wynika, że brytyjskie organy nadzoru finansowego prowadzą pilne rozmowy z Narodowym Centrum Cyberbezpieczeństwa oraz największymi bankami w związku z ujawnionymi możliwościami najnowszego modelu firmy Anthropic.
W Stanach Zjednoczonych agencja Bloomberg donosi, że wysocy rangą urzędnicy zachęcali banki o znaczeniu systemowym do przetestowania i oceny możliwości oraz konsekwencji związanych z modelem Mythos.

Foto: Freepik
W tym samym czasie australijski organ ds. cyberbezpieczeństwa opublikował komunikat: najnowocześniejsze modele szybko zmienią krajobraz zagrożeń, zmniejszając koszty, nakład pracy i poziom wiedzy specjalistycznej potrzebne do wykrywania i wykorzystywania luk w zabezpieczeniach.
W australijskich wytycznych stwierdzono, że sztuczna inteligencja zmienia tę dynamikę: w miarę jak najnowocześniejsze modele coraz lepiej radzą sobie z analizą i interpretacją kodu, bariera związana z wykrywaniem i wykorzystywaniem luk w zabezpieczeniach znacznie się obniża.
Firma Anthropic twierdzi, że jej model zidentyfikował „tysiące luk o wysokim stopniu zagrożenia” w głównych systemach operacyjnych i przeglądarkach, podkreślając zarówno potencjał obronny, jak i ryzyko ataku w przypadku niewłaściwego wykorzystania takich możliwości.
ASD/ACSC zaleca: organizacje powinny nadal koncentrować się na solidnych podstawach bezpieczeństwa zgodnych z uznanymi standardami, ponieważ żadne pojedyncze działanie zabezpieczające nie będzie wystarczające.
Ogranicz powierzchnię ataku
Ponownie oceń, co jest narażone na ataki z zewnątrz, zminimalizuj łączność i stosuj segmentację/segregację, aby ograniczyć drogi dostępu dla ataków.
„Codzienne instalowanie poprawek”
Modele pionierskie przyspieszą tempo wykrywania luk w zabezpieczeniach oraz częstotliwość wydawania poprawek. Wytyczne zachęcają do przyjęcia podejścia polegającego na codziennym instalowaniu poprawek, zwłaszcza w przypadku systemów podłączonych do Internetu, oraz do ponownego rozważenia długich okresów testowania poprawek.
Wykorzystaj sztuczną inteligencję również do obrony
Organizacje tworzące oprogramowanie powinny stosować podejście „Secure by Design” / „Secure by Default” oraz rozważyć wykorzystanie modeli pionierskich w celu wzmocnienia kodu przed wprowadzeniem go do produkcji.
Wielowarstwowe zabezpieczenia
Ataki wykorzystujące sztuczną inteligencję będą wymagały głębokiej obrony i nowoczesnych, łatwych do obrony architektur, łączących cele biznesowe z celami bezpieczeństwa i decyzjami technicznymi.
Nowe modele AI o silniejszych zdolnościach ofensywnych znacznie zwiększają ryzyko przełamania istniejących zabezpieczeń. Tradycyjnie atakujący byli „o krok do przodu”, ale możliwości modeli pionierskich mogą zwiększyć tę przewagę z jednego kroku do wielu.
Podstawowe zasady bezpieczeństwa pozostaną niezmienne, ale w coraz większym stopniu będziemy potrzebować:
➡️ szybszego wdrażania środków zabezpieczających,
➡️ lepszej widoczności i wykrywalności,
➡️ większej automatyzacji,
➡️ oraz solidniejszych, wielowarstwowych architektur.
Pasywne podejście do bezpieczeństwa i przestarzałe narzędzia nie wystarczą, gdy wykrywanie luk w zabezpieczeniach i tworzenie exploitów stanie się tańsze i szybsze na dużą skalę.
Autor: Sebastian Burgemejster



Komentarze