Jak zapewnić zgodność z RODO? EIOD przedstawia wytyczne zarządzania ryzykiem dla systemów AI
11/12/2025
Europejski Inspektor Ochrony Danych (ang. EDPS) opublikował wytyczne dotyczące identyfikacji i ograniczania ryzyka związanego z przetwarzaniem danych osobowych w systemach AI (ang. „Guidance for Risk Management of Artificial Intelligence systems”). Dokument skierowany jest do instytucji UE jako administratorów danych i koncentruje się na technicznych strategiach minimalizacji zagrożeń dla praw podstawowych.
Jak zapewnić zgodność z RODO? EIOD przedstawia wytyczne zarządzania ryzykiem dla systemów AI
Zarządzanie ryzykiem w systemach AI nie może polegać na jednorazowym zapewnieniu zgodności z RODO
EIOD opiera swoje wytyczne na metodologii zarządzania ryzykiem zgodnej z normą ISO 31000:2018, dostosowanej do wymogów rozporządzenia Parlamentu Europejskiego i Rady 2018/1725. Proces obejmuje identyfikację źródeł ryzyka, analizę prawdopodobieństwa i konsekwencji naruszeń oraz wdrożenie odpowiednich środków zaradczych. EIOD podkreśla, że zgodność z przepisami RODO nie jest jednorazowym zadaniem. Wymaga ciągłego monitorowania przez cały cykl życia systemu AI – od projektowania, przez wdrożenie, aż po wycofanie z użycia.
5 zasad ochrony danych przy przetwarzaniu przez systemy AI
„Guidance for Risk Management of Artificial Intelligence systems” zawiera wytyczne ze szczegółową analizą ryzyka przy naruszeniu podstawowych zasad ochrony danych w kontekście AI. Wśród wskazanych zagrożeń znalazły się:
- Zasada uczciwości (fairness) – główne ryzyka dotyczą m.in. błędów wynikających z braku jakości danych wykorzystanych w szkoleniu AI, błędów w wynikach modelu nawet przy dostarczeniu jakościowych danych oraz tzw. nadmiernego dopasowania.
- Zasada dokładności (accuracy) – wiąże się z zagrożeniami w postaci nieaktualnych danych wejściowych oraz „halucynacjami" systemów AI generującymi nieprawdziwe i niedokładne informacje osobowe.
- Zasada minimalizacji danych – główne ryzyko dotyczy braku równowagi między ilością danych osobowych potrzebnych do efektywnego działania AI a ograniczeniem przetwarzania do minimum.
- Zasada bezpieczeństwa – przy trenowaniu AI na zbiorach zawierających dane osobowe istnieje ryzyko, że model w generowanych odpowiedziach ujawni szczegóły dotyczące tych osób, a także, że dane te zostaną naruszone pod względem poufności lub integralności.
- Prawa osób, których dane dotyczą – złożona struktura AI może też powodować znaczne trudności w realizacji prawa dostępu, sprostowania i usunięcia danych z wytrenowanych modeli.
Masz pytania?
Jeśli masz więcej pytań dotyczących RODO i sztucznej inteligencji- więcej informacji znajdziesz w naszym serwisie. Przejrzyj nasze zasoby!
Jeżeli chcesz być na bieżąco z tematyką RODO, prawa nowych technologii i AI obserwuj nas!
Facebook https://www.facebook.com/odoserwis.pl.2016/
Linkedin https://www.linkedin.com/company/odoserwis-pl/
Wydawcą odoserwis.pl jest firma JDS Consulting świadcząca usługi outsourcingu Inspektora ochrony danych, doradztwa i audytu RODO; www.jds.com.pl
Jeżeli chciałbyś skorzystać z opinii lub porady prawnej nie wahaj się skontaktować z nami office@jds.com.pl ; www.jds.com.pl
- Doradztwo w zakresie ochrony danych osobowych
- Outsourcing Inspektora Ochrony Danych / IOD
- Audyt i wdrożenie NIS2 I KSC
- Doradztwo w zakresie sztucznej inteligencji/AI

.jpg)
.jpg)
.jpg)