ICO dotyczące sztucznej inteligencji agencyjnej
- Katarzyna Celińska

- 28 sty
- 2 minut(y) czytania
ICO opublikowało raport Tech Futures dotyczący sztucznej inteligencji agentycznej, w którym nakreślono, jak ta nowa technologia może ewoluować w ciągu najbliższych kilku lat oraz jakie ma to znaczenie dla ochrony danych, prywatności i zarządzania.
Sztuczna inteligencja agentyczna wykracza poza tradycyjną sztuczną inteligencję generatywną. Łączy w sobie:
➡️ modele generatywne,
➡️ dostęp do narzędzi i systemów,
➡️ świadomość kontekstową,
➡️ oraz zdolność do wykonywania otwartych, ukierunkowanych na cel działań przy ograniczonej interwencji człowieka.
Chociaż technologia ta wciąż się rozwija, ICO jasno stwierdza, że organizacje pozostają odpowiedzialne za sposób przetwarzania danych osobowych przez te systemy.

Obraz autorstwa rawpixel.com na Freepik
Raport podkreśla kilka nowych i zwiększonych zagrożeń w porównaniu z tradycyjnymi systemami sztucznej inteligencji:
Łańcuch dostaw
Systemy agencjalne często obejmują:
➡️ dostawców modeli podstawowych,
➡️ dostawców narzędzi i interfejsów API,
➡️ integratorów,
➡️ wdrażających.
Określenie ról kontrolera i procesora staje się bardziej złożone.
Zautomatyzowane podejmowanie decyzji
Sztuczna inteligencja agencyjna może szybko zautomatyzować złożone, wieloetapowe decyzje, zwiększając:
➡️ skalę,
➡️ szybkość,
➡️ oraz potencjalny wpływ na jednostki.
Ma to bezpośrednie konsekwencje dla:
➡️ zasad automatycznego podejmowania decyzji,
➡️ przejrzystości,
➡️ wyjaśnialności,
➡️ oraz nadzoru ludzkiego zgodnie z brytyjskim rozporządzeniem UKGDPR.
Szerokie lub nieokreślone cele
ICO ostrzega przed:
➡️ niejasnymi celami,
➡️ „agentami ogólnego przeznaczenia” bez jasnych granic,
➡️ otwartymi instrukcjami, które pozwalają na niepotrzebne przetwarzanie danych osobowych.
Minimalizacja danych i dane szczególnej kategorii
Sztuczna inteligencja agentyczna może:
➡️ uzyskiwać dostęp do większej ilości danych niż to konieczne,
➡️ wnioskować o wrażliwych atrybutach,
➡️ nieumyślnie przetwarzać dane szczególnej kategorii.
Przejrzystość i prawa osób, których dane dotyczą
Wraz ze wzrostem złożoności systemów agentycznych:
➡️ wyjaśnienie sposobu podejmowania decyzji może stać się trudniejsze,
➡️ osoby fizyczne mogą mieć trudności z wykonywaniem praw dostępu, sprzeciwu lub usuwania danych.
Ryzyko związane z cyberbezpieczeństwem
Ponieważ agenticzna sztuczna inteligencja może współdziałać z wieloma systemami i narzędziami, może:
➡️ zwiększać powierzchnię ataku,
➡️ być nadużywana do automatyzacji złośliwych działań,
➡️ wprowadzać nowe wektory eksfiltracji danych.
Przykłady wysokiego ryzyka obejmują systemy, które:
➡️ nie mają jasno określonego celu,
➡️ są połączone z niepotrzebnymi bazami danych,
➡️ nie mają kontroli dostępu ani monitorowania aktywności,
➡️ pozwalają na niekontrolowane dalsze udostępnianie danych.
Z punktu widzenia ITGRC podejście ICO ma sens. Sztuczna inteligencja agencyjna wprowadza nowe możliwości techniczne, ale nie nowe zasady zarządzania.
Organizacje pozostają odpowiedzialne za:
➡️ ochronę danych,
➡️ zarządzanie ryzykiem,
➡️ bezpieczeństwo,
➡️ oraz rozliczalność.
Zmienia się natomiast potrzeba silniejszej integracji między:
➡️ zarządzaniem sztuczną inteligencją,
➡️ zarządzaniem danymi,
➡️ zarządzaniem bezpieczeństwem,
➡️ oraz ogólnym zarządzaniem IT.
Autor: Sebastian Burgemejster



Komentarze