top of page

Zagrożenia związane ze sztuczną inteligencją w SaaS

Zdjęcie autora: Katarzyna  CelińskaKatarzyna Celińska

Najnowszy raport SaaS AI-Risk for Mid-Market Organizations Survey Report, opublikowany przez Cloud Security Alliance i Wing Security, podkreśla rosnące obawy dotyczące bezpieczeństwa, widoczności i zarządzania w środowiskach SaaS opartych na sztucznej inteligencji. W miarę jak możliwości AI stają się wbudowane w platformy SaaS, organizacje średniej wielkości muszą ponownie przemyśleć swoje strategie bezpieczeństwa, szczególnie w zakresie ochrony danych, ryzyka błędnej konfiguracji i obaw związanych z własnością intelektualną.

Kluczowe wnioski

- Rozszerzająca się powierzchnia ataku przy ograniczonej widoczności

Organizacje korzystają średnio z ~700 aplikacji SaaS, ale wiele z nich śledzi tylko ~50 zatwierdzonych aplikacji.


Shadow IT pozostaje wyzwaniem, wprowadzając zagrożenia bezpieczeństwa poprzez niesprawdzone połączenia API, narażenie poświadczeń i dostęp do tokenów.


- Brak formalnego nadzoru nad zagrożeniami związanymi ze sztuczną inteligencją

75% organizacji obawia się zagrożeń związanych ze sztuczną inteligencją, ale tylko 6% traktuje zgodność z przepisami priorytetowo.

45% respondentów wymienia ryzyko związane z własnością intelektualną jako swoje największe obawy, a następnie

ochrona danych (41%). Odpowiedzialność za ryzyko związane ze sztuczną inteligencją jest podzielona między

bezpieczeństwo (52%), IT (45%) i prawne (29%), a 33% organizacji nie ma wyraźnego właściciela do zarządzania ryzykiem związanym ze sztuczną inteligencją.


- Luki w zabezpieczeniach wynikające z priorytetyzacji krytycznych aplikacji

66% firm koncentruje się na bezpieczeństwie podstawowych aplikacji SaaS, takich jak Microsoft 365 i Google Workspace, pozostawiając niezatwierdzone i niekrytyczne aplikacje.

Organizacje często pomijają zabezpieczenia API i dostęp między aplikacjami, zwiększając wektory ataków.


- Zespoły ds. bezpieczeństwa są niedostatecznie obsadzone i przeciążone

55% zespołów ds. bezpieczeństwa liczy od 6 do 10 członków, ale ich obciążenie pracą rośnie wraz ze skalowaniem środowisk SaaS.

48% nadal polega na procesach ręcznych, podczas gdy wyspecjalizowane narzędzia SaaS Security Posture Management mają niską popularność (30%).

- Zgodność z AI i zarządzanie są priorytetami drugorzędnymi

Tylko 3% organizacji ma dedykowany budżet na bezpieczeństwo SaaS.

Działania w zakresie zgodności pozostają w tyle pomimo zmieniających się przepisów dotyczących sztucznej inteligencji i ryzyka prawnego związanego z wykorzystaniem danych generowanych przez sztuczną inteligencję.


Moje spostrzeżenia

- Sztuczna inteligencja wprowadza nowe zagrożenia w SaaS, takie jak zagrożenia związane z własnością intelektualną i ryzyko manipulacji modelami, ale z punktu widzenia bezpieczeństwa najlepsze podejście pozostaje takie samo - wykorzystanie najlepszych praktyk bezpieczeństwa w chmurze w celu zminimalizowania powierzchni ataku, egzekwowania najmniejszych uprawnień i automatyzacji monitorowania.

- Bezpieczeństwo SaaS nie może opierać się wyłącznie na tradycyjnych ramach bezpieczeństwa IT. Organizacje muszą przyjąć środki bezpieczeństwa specyficzne dla sztucznej inteligencji, aby ocenić, w jaki sposób aplikacje SaaS trenują dane przedsiębiorstwa, ograniczyć nieautoryzowany dostęp i wdrożyć silne zasady zarządzania.

- W miarę dojrzewania przepisów dotyczących sztucznej inteligencji, firmy muszą przygotować się na zwiększoną kontrolę w zakresie pozyskiwania danych AI, rozliczalności algorytmów i zgodności z ramami, takimi jak unijna ustawa o sztucznej inteligencji.

- Bezpieczeństwo SaaS AI to nie tylko narzędzia - chodzi o dostosowanie zespołów IT, bezpieczeństwa i prawnych w celu zapewnienia odpowiedzialności i zarządzania.






AI Risks in SaaS

 

The latest SaaS AI-Risk for Mid-Market Organizations Survey Report, released by Cloud Security Alliance and Wing Security, highlights growing concerns about security, visibility, and governance in AI-driven SaaS environments. As AI capabilities become embedded into SaaS platforms, mid-market organizations must rethink their security strategies, particularly around data protection, misconfiguration risks, and intellectual property concerns.

 

Key Findings

·  Expanding Attack Surface with Limited Visibility

Organizations use an average of ~700 SaaS applications, yet many only track ~50 sanctioned apps.


Shadow IT remains a challenge, introducing security risks via unvetted API connections, credential exposure, and token access.

 

·  AI Risks Lack Formal Oversight

75% of organizations are concerned about AI risks, but only 6% prioritize compliance.

45% of respondents cite IP risks as their top concern, followed by

data protection (41%). AI risk responsibility is fragmented between

security (52%), IT (45%), and legal (29%), with 33% of organizations lacking a clear owner for AI risk management.

 

·  Security Gaps Due to Prioritization of Critical Apps

66% of companies focus security on core SaaS apps like Microsoft 365 and Google Workspace, leaving unsanctioned and non-critical applications exposed.

Organizations often overlook API security and cross-app access, increasing attack vectors.

 

·  Security Teams Are Understaffed and Overburdened

55% of security teams have 6-10 members, but their workload is increasing as SaaS environments scale.

48% still rely on manual processes, while specialized SaaS Security Posture Management tools have low adoption (30%).


·  AI Compliance and Governance Are Secondary Priorities

Only 3% of organizations have a dedicated budget for SaaS security.

Compliance efforts lag behind despite evolving AI regulations and legal risks surrounding AI-generated data use.

 

My Observations

- AI introduces new risks in SaaS, such as IP-related threats and model manipulation risks, but from a security perspective, the best approach remains the same—leveraging cloud security best practices to minimize attack surfaces, enforce least privilege, and automate monitoring.

- SaaS security cannot rely on traditional IT security frameworks alone. Organizations must adopt AI-specific security measures to assess how SaaS applications train on enterprise data, restrict unauthorized access, and implement strong governance policies.

- As AI regulations mature, companies must prepare for increased scrutiny around AI data sourcing, algorithm accountability, and compliance with frameworks like the EU AI Act.

- SaaS AI security isn't just about tools—it's about aligning IT, security, and legal teams to ensure accountability and governance.


 
 
 

Comentarios


Kontakt

BW Advisory sp. z  o.o.

Boczańska 25
03-156 Warszawa
NIP: 525-281-83-52

 

Polityka prywatności

  • LinkedIn
  • Youtube
bottom of page