top of page
Szukaj

ICO dotyczące sztucznej inteligencji agencyjnej

ICO opublikowało raport Tech Futures dotyczący sztucznej inteligencji agentycznej, w którym nakreślono, jak ta nowa technologia może ewoluować w ciągu najbliższych kilku lat oraz jakie ma to znaczenie dla ochrony danych, prywatności i zarządzania.


Sztuczna inteligencja agentyczna wykracza poza tradycyjną sztuczną inteligencję generatywną. Łączy w sobie:

➡️ modele generatywne,

➡️ dostęp do narzędzi i systemów,

➡️ świadomość kontekstową,

➡️ oraz zdolność do wykonywania otwartych, ukierunkowanych na cel działań przy ograniczonej interwencji człowieka.


Chociaż technologia ta wciąż się rozwija, ICO jasno stwierdza, że organizacje pozostają odpowiedzialne za sposób przetwarzania danych osobowych przez te systemy.


Obraz autorstwa rawpixel.com na Freepik


Raport podkreśla kilka nowych i zwiększonych zagrożeń w porównaniu z tradycyjnymi systemami sztucznej inteligencji:


Łańcuch dostaw


Systemy agencjalne często obejmują:

➡️ dostawców modeli podstawowych,

➡️ dostawców narzędzi i interfejsów API,

➡️ integratorów,

➡️ wdrażających.


Określenie ról kontrolera i procesora staje się bardziej złożone.


Zautomatyzowane podejmowanie decyzji

Sztuczna inteligencja agencyjna może szybko zautomatyzować złożone, wieloetapowe decyzje, zwiększając:

➡️ skalę,

➡️ szybkość,

➡️ oraz potencjalny wpływ na jednostki.


Ma to bezpośrednie konsekwencje dla:

➡️ zasad automatycznego podejmowania decyzji,

➡️ przejrzystości,

➡️ wyjaśnialności,

➡️ oraz nadzoru ludzkiego zgodnie z brytyjskim rozporządzeniem UKGDPR.


Szerokie lub nieokreślone cele


ICO ostrzega przed:

➡️ niejasnymi celami,

➡️ „agentami ogólnego przeznaczenia” bez jasnych granic,

➡️ otwartymi instrukcjami, które pozwalają na niepotrzebne przetwarzanie danych osobowych.


Minimalizacja danych i dane szczególnej kategorii


Sztuczna inteligencja agentyczna może:

➡️ uzyskiwać dostęp do większej ilości danych niż to konieczne,

➡️ wnioskować o wrażliwych atrybutach,

➡️ nieumyślnie przetwarzać dane szczególnej kategorii.


Przejrzystość i prawa osób, których dane dotyczą


Wraz ze wzrostem złożoności systemów agentycznych:

➡️ wyjaśnienie sposobu podejmowania decyzji może stać się trudniejsze,

➡️ osoby fizyczne mogą mieć trudności z wykonywaniem praw dostępu, sprzeciwu lub usuwania danych.


Ryzyko związane z cyberbezpieczeństwem


Ponieważ agenticzna sztuczna inteligencja może współdziałać z wieloma systemami i narzędziami, może:

➡️ zwiększać powierzchnię ataku,

➡️ być nadużywana do automatyzacji złośliwych działań,

➡️ wprowadzać nowe wektory eksfiltracji danych.


Przykłady wysokiego ryzyka obejmują systemy, które:

➡️ nie mają jasno określonego celu,

➡️ są połączone z niepotrzebnymi bazami danych,

➡️ nie mają kontroli dostępu ani monitorowania aktywności,

➡️ pozwalają na niekontrolowane dalsze udostępnianie danych.


Z punktu widzenia ITGRC podejście ICO ma sens. Sztuczna inteligencja agencyjna wprowadza nowe możliwości techniczne, ale nie nowe zasady zarządzania.


Organizacje pozostają odpowiedzialne za:

➡️ ochronę danych,

➡️ zarządzanie ryzykiem,

➡️ bezpieczeństwo,

➡️ oraz rozliczalność.


Zmienia się natomiast potrzeba silniejszej integracji między:

➡️ zarządzaniem sztuczną inteligencją,

➡️ zarządzaniem danymi,

➡️ zarządzaniem bezpieczeństwem,

➡️ oraz ogólnym zarządzaniem IT.



 
 
 

Komentarze


Kontakt

BW Advisory sp. z  o.o.

Boczańska 25
03-156 Warszawa
NIP: 525-281-83-52

 

Polityka prywatności

  • LinkedIn
  • Youtube
bottom of page