top of page
Szukaj

AEPD publikuje wytyczne dotyczące agentów AI

Dosłownie „przed chwilą” natknąłem się na nowe wytyczne opublikowane przez AEPD dotyczące agentów AI i ochrony danych osobowych.


Nie mogło być lepszego momentu. Przygotowywałem mini wykład dla łódzkiej grupy Stowarzyszenia Praktyków Ochrony Danych, gdzie mówiłem o: Bezpieczeństwie sztucznej inteligencji i ochronie danych osobowych – zrozumieniu ryzyka w systemach sztucznej inteligencji (LLM, RAG, agenci) oraz zabezpieczeniach technicznych.


Autor: Freepik


Polecam tę publikację wszystkim osobom zajmującym się cyberbezpieczeństwem, prywatnością, zgodnością z przepisami lub zarządzaniem sztuczną inteligencją.


To, co sprawia, że wytyczne te są szczególnie cenne, to fakt, że nie są one jedynie komentarzem prawnym lub ogólnymi informacjami dotyczącymi regulacji. Jest to dokument techniczny.


Agencja Hiszpańska ds. Ochrony Danych (AEPD) poświęca czas na wyjaśnienie, jak działają systemy sztucznej inteligencji z perspektywy architektury. Porusza kwestie modeli LLM, mechanizmów pamięci, warstw koordynacyjnych, integracji narzędzi, autonomii i interakcji z systemami zewnętrznymi. Wyraźnie uznaje, że agenci sztucznej inteligencji to nie tylko „chatboty”, ale systemy zdolne do działania, podejmowania decyzji, wywoływania narzędzi i interakcji z wieloma środowiskami.


Nawet tradycyjne systemy sztucznej inteligencji generycznej oparte na architekturach LLM lub RAG już teraz niosą ze sobą znaczne ryzyko. Wszyscy znamy takie zjawiska, jak wstrzykiwanie poleceń, halucynacje, wycieki danych, nadmierne gromadzenie danych osobowych lub słaba kontrola dostępu do osadzeń i baz danych wektorowych.


Agenci AI stanowią kolejny krok naprzód. Mogą oni uruchamiać interfejsy API, uzyskiwać dostęp do baz danych, przechowywać trwałą pamięć, koordynować działania z innymi agentami i wykonywać zautomatyzowane przepływy pracy. W takich środowiskach dane osobowe mogą przepływać między systemami w sposób trudny do przewidzenia lub pełnego odwzorowania.


Inżynieria, a nie papierkowa robota


W wytycznych znajduje się oczywiście sekcja poświęcona procesom i organizacji. Jednak prawdziwą siłą tego dokumentu jest skupienie się na technologii. Omawia on wybory dotyczące projektowania systemów, zabezpieczenia architektury, mechanizmy monitorowania, rejestrowanie, kontrolę dostępu, izolację komponentów oraz znaczenie nadzoru ludzkiego w systemach agencyjnych. Moim zdaniem właśnie w tym kierunku zmierza przyszłość prywatności i zarządzania sztuczną inteligencją.


Przez lata zgodność z przepisami często traktowano jako dokumentację: polityki, rejestry, oceny wpływu na ochronę danych, klauzule umowne. Obecnie ryzyko jest coraz częściej związane z kodem, potokami, łącznikami i konfiguracjami systemów. Jeśli nie rozumiesz, w jaki sposób agent wybiera narzędzia, jak przechowuje pamięć, jak pobiera kontekst lub jak rejestruje interakcje użytkowników, nie możesz w sposób znaczący ocenić ryzyka związanego z danymi osobowymi.


Zgodność z przepisami przenosi się z dokumentów do projektowania.


Stajemy się coraz bardziej zależni od autonomicznych technologii. W takim środowisku era czysto „papierowej” zgodności z przepisami i prawników skupiających się wyłącznie na formalnej zgodności może powoli dobiegać końca.



 
 
 

Komentarze


Kontakt

BW Advisory sp. z  o.o.

Boczańska 25
03-156 Warszawa
NIP: 525-281-83-52

 

Polityka prywatności

  • LinkedIn
  • Youtube
bottom of page