top of page
Szukaj

Modele sztucznej inteligencji Frontier i firma Anthropic

Z najnowszych doniesień wynika, że brytyjskie organy nadzoru finansowego prowadzą pilne rozmowy z Narodowym Centrum Cyberbezpieczeństwa oraz największymi bankami w związku z ujawnionymi możliwościami najnowszego modelu firmy Anthropic.


W Stanach Zjednoczonych agencja Bloomberg donosi, że wysocy rangą urzędnicy zachęcali banki o znaczeniu systemowym do przetestowania i oceny możliwości oraz konsekwencji związanych z modelem Mythos.


Foto: Freepik


W tym samym czasie australijski organ ds. cyberbezpieczeństwa opublikował komunikat: najnowocześniejsze modele szybko zmienią krajobraz zagrożeń, zmniejszając koszty, nakład pracy i poziom wiedzy specjalistycznej potrzebne do wykrywania i wykorzystywania luk w zabezpieczeniach.



W australijskich wytycznych stwierdzono, że sztuczna inteligencja zmienia tę dynamikę: w miarę jak najnowocześniejsze modele coraz lepiej radzą sobie z analizą i interpretacją kodu, bariera związana z wykrywaniem i wykorzystywaniem luk w zabezpieczeniach znacznie się obniża.

Firma Anthropic twierdzi, że jej model zidentyfikował „tysiące luk o wysokim stopniu zagrożenia” w głównych systemach operacyjnych i przeglądarkach, podkreślając zarówno potencjał obronny, jak i ryzyko ataku w przypadku niewłaściwego wykorzystania takich możliwości.


ASD/ACSC zaleca: organizacje powinny nadal koncentrować się na solidnych podstawach bezpieczeństwa zgodnych z uznanymi standardami, ponieważ żadne pojedyncze działanie zabezpieczające nie będzie wystarczające.


Ogranicz powierzchnię ataku


Ponownie oceń, co jest narażone na ataki z zewnątrz, zminimalizuj łączność i stosuj segmentację/segregację, aby ograniczyć drogi dostępu dla ataków.


„Codzienne instalowanie poprawek”


Modele pionierskie przyspieszą tempo wykrywania luk w zabezpieczeniach oraz częstotliwość wydawania poprawek. Wytyczne zachęcają do przyjęcia podejścia polegającego na codziennym instalowaniu poprawek, zwłaszcza w przypadku systemów podłączonych do Internetu, oraz do ponownego rozważenia długich okresów testowania poprawek.


Wykorzystaj sztuczną inteligencję również do obrony


Organizacje tworzące oprogramowanie powinny stosować podejście „Secure by Design” / „Secure by Default” oraz rozważyć wykorzystanie modeli pionierskich w celu wzmocnienia kodu przed wprowadzeniem go do produkcji.


Wielowarstwowe zabezpieczenia

Ataki wykorzystujące sztuczną inteligencję będą wymagały głębokiej obrony i nowoczesnych, łatwych do obrony architektur, łączących cele biznesowe z celami bezpieczeństwa i decyzjami technicznymi.


Nowe modele AI o silniejszych zdolnościach ofensywnych znacznie zwiększają ryzyko przełamania istniejących zabezpieczeń. Tradycyjnie atakujący byli „o krok do przodu”, ale możliwości modeli pionierskich mogą zwiększyć tę przewagę z jednego kroku do wielu.


Podstawowe zasady bezpieczeństwa pozostaną niezmienne, ale w coraz większym stopniu będziemy potrzebować:


➡️ szybszego wdrażania środków zabezpieczających,

➡️ lepszej widoczności i wykrywalności,

➡️ większej automatyzacji,

➡️ oraz solidniejszych, wielowarstwowych architektur.


Pasywne podejście do bezpieczeństwa i przestarzałe narzędzia nie wystarczą, gdy wykrywanie luk w zabezpieczeniach i tworzenie exploitów stanie się tańsze i szybsze na dużą skalę.


 
 
 

Komentarze


Kontakt

BW Advisory sp. z  o.o.

Boczańska 25
03-156 Warszawa
NIP: 525-281-83-52

 

Polityka prywatności

  • LinkedIn
  • Youtube
bottom of page