Zarejestruj się i uzyskaj dostęp do licznych narzędzi

Jak zapewnić zgodność z RODO? EIOD przedstawia wytyczne zarządzania ryzykiem dla systemów AI

11/12/2025

Ai, Eiod (Ang. Edps, Administrator Danych Osobowych, Zarządzanie Ryzykiem, Zgodność Z Rodo, Ochrona Danych Osobowych, Dane Osobowe,

Europejski Inspektor Ochrony Danych (ang. EDPS) opublikował wytyczne dotyczące identyfikacji i ograniczania ryzyka związanego z przetwarzaniem danych osobowych w systemach AI (ang. „Guidance for Risk Management of Artificial Intelligence systems”). Dokument skierowany jest do instytucji UE jako administratorów danych i koncentruje się na technicznych strategiach minimalizacji zagrożeń dla praw podstawowych.


Jak zapewnić zgodność z RODO? EIOD przedstawia wytyczne zarządzania ryzykiem dla systemów AI

Jak zapewnić zgodność z RODO? EIOD przedstawia wytyczne zarządzania ryzykiem dla systemów AI

Zarządzanie ryzykiem w systemach AI nie może polegać na jednorazowym zapewnieniu zgodności z RODO

 

EIOD opiera swoje wytyczne na metodologii zarządzania ryzykiem zgodnej z normą ISO 31000:2018, dostosowanej do wymogów rozporządzenia Parlamentu Europejskiego i Rady 2018/1725. Proces obejmuje identyfikację źródeł ryzyka, analizę prawdopodobieństwa i konsekwencji naruszeń oraz wdrożenie odpowiednich środków zaradczych. EIOD podkreśla, że zgodność z przepisami RODO nie jest jednorazowym zadaniem. Wymaga ciągłego monitorowania przez cały cykl życia systemu AI – od projektowania, przez wdrożenie, aż po wycofanie z użycia.

 

5 zasad ochrony danych przy przetwarzaniu przez systemy AI

 

 „Guidance for Risk Management of Artificial Intelligence systems” zawiera wytyczne ze szczegółową analizą ryzyka przy naruszeniu podstawowych zasad ochrony danych w kontekście AI. Wśród wskazanych zagrożeń znalazły się:

  • Zasada uczciwości (fairness) – główne ryzyka dotyczą m.in. błędów wynikających z braku jakości danych wykorzystanych w szkoleniu AI, błędów w wynikach modelu nawet przy dostarczeniu jakościowych danych oraz tzw. nadmiernego dopasowania.
  • Zasada dokładności (accuracy) – wiąże się z zagrożeniami w postaci nieaktualnych danych wejściowych oraz „halucynacjami" systemów AI generującymi nieprawdziwe i niedokładne informacje osobowe.
  • Zasada minimalizacji danych – główne ryzyko dotyczy braku równowagi między ilością danych osobowych potrzebnych do efektywnego działania AI a ograniczeniem przetwarzania do minimum.
  • Zasada bezpieczeństwa – przy trenowaniu AI na zbiorach zawierających dane osobowe istnieje ryzyko, że model w generowanych odpowiedziach ujawni szczegóły dotyczące tych osób, a także, że dane te zostaną naruszone pod względem poufności lub integralności.
  • Prawa osób, których dane dotyczą – złożona struktura AI może też powodować znaczne trudności w realizacji prawa dostępu, sprostowania i usunięcia danych z wytrenowanych modeli.

 

Źródło: https://www.edps.europa.eu/data-protection/our-work/publications/guidelines/2025-11-11-guidance-risk-management-artificial-intelligence-systems_en

 

Masz pytania?

Jeśli masz więcej pytań dotyczących RODO i sztucznej inteligencji- więcej informacji znajdziesz w naszym serwisie. Przejrzyj nasze zasoby!

 

Jeżeli chcesz być na bieżąco z tematyką RODO, prawa nowych technologii i AI obserwuj nas!

Facebook https://www.facebook.com/odoserwis.pl.2016/

Linkedin https://www.linkedin.com/company/odoserwis-pl/

Wydawcą odoserwis.pl jest firma JDS Consulting świadcząca usługi outsourcingu Inspektora ochrony danych, doradztwa i audytu RODO; www.jds.com.pl

Jeżeli chciałbyś skorzystać z opinii lub porady prawnej nie wahaj się skontaktować z nami office@jds.com.pl ; www.jds.com.pl

 

Ai, Eiod (Ang. Edps, Administrator Danych Osobowych, Zarządzanie Ryzykiem, Zgodność Z Rodo, Ochrona Danych Osobowych, Dane Osobowe,
Ludzie jako „pasterze AI”, czyli 6 trendów technologicznych według TechSonar2025-2026
Ludzie jako „pasterze AI”, czyli 6 trendów technologicznych według TechSonar2025-2026
UODO bada wykorzystanie sztucznej inteligencji
UODO bada wykorzystanie sztucznej inteligencji
Polskie przepisy nie zapewniają skutecznej ochrony przed deepfake
Polskie przepisy nie zapewniają skutecznej ochrony przed deepfake