Komisja Europejska opublikowała Q&A dotyczący AI Literacy
26/05/2025
Komisja Europejska przedstawiła szczegółowy zestaw pytań i odpowiedzi (Q&A) dotyczący umiejętności korzystania z AI (AI Literacy) –wymogu Artykułu 4 AI Act (Aktu w sprawie sztucznej inteligencji). W swojej publikacji Komisja precyzuje, co powinno składać się na programy szkoleniowe zgodne z tym przepisem i jak należy interpretować wymagania AI Act
Co zawiera opublikowany przez Komisję zestaw pytań i odpowiedzi dotyczący AI Literacy?
Zestaw Q&A dotyczących AI Literacy opublikowany przez Komisję Europejską ma na celu pomóc organizacjom i osobom fizycznym w zrozumieniu, czym dokładnie są tzw. „kompetencje AI” oraz w jaki sposób można je rozwijać i dokumentować, by być zgodnym z Artykułem 4 AI Act. Dokument obejmuje m.in.:
- Definicję AI Literacy i jej znaczenie w kontekście bezpieczeństwa i odpowiedzialnego użycia technologii.
- Zakres obowiązku: kogo dotyczy i jakie działania są wymagane.
- Wytyczne dotyczące dostosowania szkoleń do różnych ról i poziomów wiedzy.
- Wskazówki dot. dokumentowania działań edukacyjnych w ramach systemów zgodności (compliance).
- Przykłady dobrych praktyk i odniesienia do repozytorium wspierającego rozwój AI Literacy.
Zgodnie z podejściem zaprezentowanym przez Biuro ds. Sztucznej Inteligencji, celem artykułu 4 nie jest wprowadzenie jednolitych i sztywnych standardów dla wszystkich podmiotów w UE. Wręcz przeciwnie – Komisja kładzie nacisk na elastyczność, z uwagi na dynamiczny rozwój technologii i różnorodność jej zastosowań w różnych sektorach gospodarki. Mimo to organizacje, które wdrażają lub wykorzystują systemy sztucznej inteligencji, muszą zapewnić, że osoby odpowiedzialne za ich obsługę dysponują nie tylko podstawową wiedzą, ale również kompetencjami dopasowanymi do pełnionej funkcji, roli instytucji oraz stopnia ryzyka związanego z konkretnym zastosowaniem AI.
Podstawą każdego programu zgodnego z artykułem 4 powinno być zapewnienie ogólnego zrozumienia sztucznej inteligencji w ramach danej organizacji. Obejmuje to wiedzę na temat tego, czym jest AI, jak działa, jakie systemy są stosowane w organizacji oraz jakie mogą nieść za sobą szanse i zagrożenia. Komisja zaleca, by podmioty dokładnie przeanalizowały swoją rolę – niezależnie od tego, czy są dostawcami technologii, czy jedynie ich użytkownikami – oraz zakres odpowiedzialności, jaki się z tym wiąże.
Kolejnym kluczowym elementem jest ocena ryzyka wynikającego z użytkowania konkretnych systemów. Organizacje powinny zadać sobie pytanie: co muszą wiedzieć osoby pracujące z AI, aby robić to bezpiecznie i świadomie? Jakie zagrożenia mogą się pojawić w praktyce i w jaki sposób można im przeciwdziałać? Kompetencje personelu nie mogą być oderwane od rzeczywistego kontekstu – to znaczy, że szkolenia muszą być dostosowane zarówno do poziomu wiedzy technicznej danej grupy, jak i do specyfiki sektora, w którym systemy są stosowane, oraz do potencjalnego wpływu na osoby trzecie.
Komisja wyraźnie zaznacza, że poleganie wyłącznie na instrukcjach obsługi czy dokumentacji technicznej nie spełnia wymogów art. 4. Szkolenie, a przynajmniej pogłębiona forma przekazu wiedzy, jest konieczne w niemal każdej sytuacji. W szczególności dotyczy to systemów zaklasyfikowanych jako wysokiego ryzyka, gdzie – zgodnie z art. 26 AI Act – zapewnienie przeszkolonego personelu stanowi wymóg prawny. Organizacje, które obsługują tego rodzaju systemy, muszą mieć pewność, że ich pracownicy rozumieją mechanizmy działania narzędzi AI oraz potrafią reagować na potencjalne incydenty.
Warto jednak podkreślić, że nie istnieje jeden obowiązkowy format szkolenia. Programy edukacyjne mogą mieć różne formy, dostosowane do odbiorców, a Komisja zachęca do czerpania inspiracji z dostępnego „żywego repozytorium” dobrych praktyk. Samo odtworzenie gotowego modelu nie daje jednak automatycznie gwarancji zgodności – kluczowe jest dopasowanie programu do konkretnej organizacji.
W odniesieniu do sektorów takich jak finanse, zdrowie czy administracja publiczna, Komisja nie narzuca odgórnych regulacji branżowych. Podkreśla natomiast znaczenie uwzględnienia kontekstu: funkcji, w jakiej działa system AI, jego celu, odbiorców i wpływu na użytkowników końcowych. To właśnie ten kontekst – nie rodzaj sektora – powinien być punktem wyjścia do konstruowania programu kompetencji.
Wytyczne Komisji obejmują także osoby działające na rzecz organizacji, ale niebędące jej formalnymi pracownikami – jak np. wykonawcy, usługodawcy czy klienci. Jeśli mają kontakt z systemami AI, muszą również posiadać odpowiedni poziom kompetencji, co powinno być przewidziane w ramach umowy.
Zestaw Q&A dotyczący AI Literacy zawiera także praktyczne przykłady. Wskazuje m.in., że firma wykorzystująca ChatGPT do pisania tekstów marketingowych powinna zadbać o to, aby jej pracownicy byli świadomi zagrożeń, takich jak tzw. „halucynacje” – czyli generowanie przez systemy AI fałszywych informacji. Jeśli organizacja pracuje z systemami z udziałem człowieka (human-in-the-loop), to zarówno użytkownicy, jak i osoby pełniące funkcje kontrolne muszą być odpowiednio przeszkoleni w zakresie swojej roli.
Więcej: https://digital-strategy.ec.europa.eu/en/faqs/ai-literacy-questions-answers
Masz pytania?
Jeśli masz więcej pytań dotyczących RODO i sztucznej inteligencji- więcej informacji znajdziesz w naszym serwisie. Przejrzyj nasze zasoby!
Jeżeli chcesz być na bieżąco z tematyką RODO, prawa nowych technologii i AI obserwuj nas!
Facebook https://www.facebook.com/odoserwis.pl.2016/
Linkedin https://www.linkedin.com/company/odoserwis-pl/
Wydawcą odoserwis.pl jest firma JDS Consulting świadcząca usługi outsourcingu Inspektora ochrony danych, doradztwa i audytu RODO; www.jds.com.pl
Jeżeli chciałbyś skorzystać z opinii lub porady prawnej nie wahaj się skontaktować z nami office@jds.com.pl ; www.jds.com.pl
- Doradztwo w zakresie ochrony danych osobowych
- Outsourcing Inspektora Ochrony Danych / IOD
- Audyt i wdrożenie NIS2 I KSC
- Doradztwo w zakresie sztucznej inteligencji/AI