Akt w sprawie sztucznej inteligencji wprowadził zamknięty katalog ośmiu zakazanych praktyk w zakresie AI. Przepisy te zaczęły być stosowane po upływie sześciu miesięcy od wejścia w życie AI Act, a więc już od 2 lutego 2025 r. Warto zatem przyjrzeć się im bliżej.
Rozporządzenie 2024/1689 z dnia 13 czerwca 2024 r. w sprawie sztucznej inteligencji (dalej: akt w sprawie sztucznej inteligencji, AI Act) jest pierwszym aktem prawnym na świecie, który kompleksowo reguluje kwestie dotyczące tworzenia, wprowadzania do obrotu i wykorzystywania systemów sztucznej inteligencji (AI). Stanowi odpowiedź na rosnące obawy dotyczące dynamicznego rozwoju AI oraz liczne zagrożenia z tym związane. Dlatego celem regulacji jest zapewnienie warunków dla rozwoju sztucznej inteligencji zgodnej z wartościami UE, zorientowanej na człowieka i godnej zaufania, zapewniającej poszanowanie zasad etycznych oraz praw podstawowych przewidzianych w Karcie praw podstawowych UE (dalej: KPP).
Podejście oparte na ryzyku
AI Act przyjmuje podejście oparte na ryzyku (risk-based approach), zgodnie z którym systemy AI są klasyfikowane według poziomu ryzyka, jaki niosą dla społeczeństwa i poszczególnych użytkowników. W związku z tym wprowadzono cztery następujące poziomy ryzyka w odniesieniu do systemów AI:
- ryzyko nieakceptowalne,
- wysokie ryzyko,
- ograniczone ryzyko,
- minimalne ryzyko.
Ryzyko nieakceptowalne obejmuje zakazane praktyki AI, które z uwagi na swoją szkodliwość stwarzają niedopuszczalnie wysokie ryzyko dla wartości UE oraz praw podstawowych. Wskazany wcześniej cel AI Act (tj. upowszechnianie zorientowanej na człowieka i godnej zaufania AI) nie pozwala na tolerowanie tego typu praktyk.
Katalog zakazanych praktyk w zakresie AI
Zakazanym praktykom AI w całości poświęcono art. 5 AI Act (w tym odpowiadające mu motywy rozporządzenia, które odnoszą się do poszczególnych zakazów). Zawiera on zamknięty katalog ośmiu praktyk w zakresie AI, których wprowadzanie do obrotu, oddawanie do użytku i wykorzystywanie zostało całkowicie zabronione (z wyjątkiem jednej zakazanej praktyki w określonych przypadkach). Na marginesie warto zaznaczyć, że przepis ten nie wymienia konkretnych rodzajów systemów AI, a zamiast tego wskazuje jako niedopuszczalne określone działania związane z takimi systemami AI, które mogłyby być podejmowane w określonym celu lub z określonym skutkiem.
Zakazano następujących praktyk w zakresie AI:
- systemy AI wykorzystujące techniki podprogowe, celowe techniki manipulacyjne lub wprowadzające w błąd – skutkują znaczącą zmianą zachowania poprzez ograniczenie zdolności do podejmowania świadomych decyzji, prowadzą do podjęcia decyzji, które inaczej nie zostałyby podjęte, co wyrządza lub może wyrządzić poważną szkodę (art. 5 ust. 1 lit. a AI Act);
- systemy AI wykorzystujące słabości poszczególnych osób lub grup – ze względu na wiek, niepełnosprawność, szczególną sytuację społeczną lub ekonomiczną, prowadzą do znaczącej zmiany zachowania, co wyrządza lub może, z uzasadnionym prawdopodobieństwem, wyrządzić poważną szkodę (art. 5 ust. 1 lit. b AI Act);
- systemy scoringu społecznego (social scoring) – oceniają lub klasyfikują osoby lub grupy na podstawie ich zachowania społecznego, cech osobistych czy cech osobowości, gdy skutkuje to np. krzywdzącym lub niekorzystnym traktowaniem osób lub grup w kontekstach społecznych niezwiązanych z kontekstami, w których pierwotnie wygenerowano lub zebrano dane (art. 5 ust. 1 lit. c AI Act);
- systemy AI przewidujące ryzyko popełnienia przestępstwa – oceniają lub przewidują ryzyko popełnienia przestępstwa wyłącznie na podstawie profilowania lub oceny cech osobowości i cech charakterystycznych (art. 5 ust. 1 lit. d AI Act);
- systemy AI tworzące lub rozbudowujące bazy danych służące rozpoznawaniu twarzy – poprzez nieukierunkowane pozyskiwanie (untargeted scraping) wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej (art. 5 ust. 1 lit. e AI Act);
- systemy AI do rozpoznawania emocji – służą do wyciągania wniosków na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych (art. 5 ust. 1 lit. f AI Act);
- systemy kategoryzacji biometrycznej wykorzystywane do wnioskowania o niektórych szczególnych kategoriach danych osobowych – kategoryzują osoby na podstawie ich danych biometrycznych, aby móc wywnioskować w ten sposób informacje na temat ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub światopoglądowych, seksualności lub orientacji seksualnej (art. 5 ust. 1 lit. g AI Act);
- systemy zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej – stosowane do ścigania przestępstw, chyba że jest to bezwzględnie konieczne do jednego z celów wskazanych w omawianym przepisie, np. do ukierunkowanego poszukiwania konkretnych ofiar uprowadzeń, handlu ludźmi lub wykorzystywania seksualnego ludzi. Jest to zatem jedyna praktyka AI, która wyjątkowo może być stosowana, jednak wyłącznie w konkretnych celach i pod ściśle określonymi warunkami, które zostały wymienione w przepisie (art. 5 ust. 1 lit. h oraz art. 5 ust. 2–4 AI Act).
Z wyjątkiem pewnych wyraźnie określonych przypadków zakazane praktyki AI nie są ograniczone do konkretnych obszarów czy sektorów. W większości mają charakter ogólny i mogą odnosić się do szerokiego spektrum możliwych zastosowań sztucznej inteligencji.
Przepisy rozporządzenia nie wskazują jasno, w jaki sposób należy rozumieć poszczególne przesłanki, których spełnienie kwalifikuje daną praktykę w zakresie AI jako niedopuszczalną. Opublikowane na początku lutego 2025 r. wytyczne Komisji Europejskiej dotyczące zakazanych praktyk w zakresie sztucznej inteligencji (dalej: wytyczne KE) mają istotne znaczenie dla interpretacji art. 5 AI Act. Pomimo braku wiążącego charakteru dokument ten zawiera wskazówki dotyczące wykładni poszczególnych zakazów przewidzianych w tym przepisie.
Systemy AI przewidujące ryzyko popełnienia przestępstwa
Prawodawca unijny w art. 5 ust. 1 lit. d AI Act objął zakazem systemy AI przeprowadzające oceny ryzyka w odniesieniu do konkretnej osoby w celu oceny lub przewidzenia ryzyka popełnienia przestępstwa przez taką osobę, wyłącznie na podstawie profilowania lub oceny cech osobowości i cech charakterystycznych (predictive policing). Opisana praktyka od razu przywodzi na myśl film Raport mniejszości w reżyserii Stevena Spielberga (2002), przedstawiający świat, w którym było możliwe przewidywanie przestępstw i karanie sprawców, zanim jeszcze je popełnią. Technologia ta jednak była zawodna.
Osoby fizyczne zawsze powinny być oceniane na podstawie ich faktycznego zachowania, a nie zachowań prognozowanych przez AI w wyniku poddania ich profilowaniu, bez uzasadnionego podejrzenia, że uczestniczą w działalności przestępczej na podstawie obiektywnie możliwych do zweryfikowania faktów i bez ich oceny przez człowieka (motyw 42 AI Act). Wynika to przede wszystkim z zasady domniemania niewinności, zgodnie z którą oskarżonego uważa się za niewinnego, dopóki jego wina nie zostanie stwierdzona zgodnie z prawem (art. 48 KPP). Warto zaznaczyć, że zakaz dotyczy wyłącznie przewidywania przyszłych przestępstw, a zatem nie obejmuje ani systemów AI wspierających badania przestępstw już popełnionych, ani wspomagających ludzką ocenę, pod warunkiem że opiera się ona na obiektywnych i weryfikowalnych faktach związanych bezpośrednio z działalnością przestępczą. Wytyczne KE potwierdzają, że adresatami tego zakazu są nie tylko organy ścigania, lecz także podmioty sektora prywatnego działające z ich upoważnienia lub zobowiązane przepisami prawa do oceny ryzyka popełnienia określonych przestępstw.
Systemy AI tworzące bazy danych, które służą do rozpoznawania twarzy
Zakazano systemów sztucznej inteligencji, które tworzą lub rozbudowują bazy danych służące rozpoznawaniu twarzy poprzez nieukierunkowany scraping wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej. Celem tego zakazu jest przeciwdziałanie masowemu nadzorowi, który może prowadzić do poważnych naruszeń praw podstawowych, w tym prawa do prywatności (motyw 43 AI Act). Zgodnie z wytycznymi KE „nieukierunkowany scraping” należy rozumieć jako masowe i zautomatyzowane pozyskiwanie dostępnych danych bez skoncentrowania się na wcześniej zdefiniowanych osobach czy grupach.
Warto zwrócić uwagę, że nawet bez wprowadzenia tego zakazu przez AI Act stworzenie takiej bazy zgodnie z prawem wymagałoby spełnienia wielu rygorystycznych wymogów rodo, co w praktyce byłoby niezwykle trudne do zrealizowania. Bazy danych służące do rozpoznawania twarzy zawierają dane biometryczne stanowiące szczególne kategorie danych, o których mowa w art. 9 ust. 1 rodo. Nie jest to bowiem zwykły zbiór zdjęć obejmujących wizerunki twarzy, lecz wzorce biometryczne wyodrębnione z takich zdjęć, które umożliwiają rozpoznanie twarzy konkretnej osoby.
Prawdopodobnie inspiracją do wprowadzenia tego zakazu była działalność spółki Clearview AI, Inc. zajmującej się technologią rozpoznawania twarzy (facial recognition technology). Clearview AI stworzyła oprogramowanie wykorzystujące sztuczną inteligencję, opierające się na bazie danych, która zawiera ponad 30 mld zdjęć twarzy, pozyskanych z różnych stron internetowych z wykorzystaniem web scrapingu. Działalność Clearview AI wielokrotnie była przedmiotem postępowań przed organami ochrony danych osobowych, które zakończyły się m.in. nałożeniem na spółkę administracyjnych kar pieniężnych oraz nakazem zaprzestania zbierania i przetwarzania danych osobowych osób znajdujących się na terenie danego kraju.
Systemy rozpoznawania emocji w miejscu pracy i instytucjach edukacyjnych
Zgodnie z art. 5 ust. 1 lit. f AI Act systemy AI, które służą do wyciągania wniosków na temat emocji osób fizycznych, nie mogą być wykorzystywane w miejscu pracy i instytucjach edukacyjnych, z wyjątkiem zastosowań wynikających ze względów medycznych lub bezpieczeństwa (np. systemy przeznaczone do użytku terapeutycznego).
Zakaz ten został ograniczony do miejsc pracy i instytucji edukacyjnych ze względu na brak równowagi sił, który zazwyczaj występuje w takich miejscach. Wynika on z wątpliwości co do podstaw naukowych i etycznych takich systemów AI, zwłaszcza że emocje mogą być różnie wyrażane i interpretowane w zależności od kontekstu kulturowego, osobowości, a nawet chwilowego nastroju danej osoby. To sprawia, że systemy AI mające na celu wyciąganie wniosków na temat emocji często nie są w stanie poprawnie zidentyfikować rzeczywistych stanów emocjonalnych. Ze względu na nieprecyzyjność, ograniczoną wiarygodność i możliwość uogólnienia ich wykorzystywanie może prowadzić m.in. do dyskryminacji (motyw 44 AI Act).
Miejsce pracy należy interpretować szeroko. Omawiany zakaz odnosi się nie tylko do stacjonarnej pracy w biurze, lecz obejmuje także pracownika pracującego z domu. Z kolei przez instytucje edukacyjne powinno się rozumieć jakiekolwiek publiczne i prywatne placówki, których głównym celem jest przekazywanie wiedzy, kształtowanie określonych cech oraz umiejętności w ramach formalnie zorganizowanej struktury i procesu (w szczególności szkoły, uniwersytety oraz centra kształcenia zawodowego i ustawicznego). Podobnie jak w przypadku miejsc pracy, dla zakresu stosowania zakazu nieistotne jest to, czy wnioskowanie o emocjach odbywa się w świecie fizycznym (np. w budynku uczelni) czy w świecie wirtualnym (np. poprzez platformę e-learningową wykorzystywaną do kształcenia na odległość).
Systemy kategoryzacji biometrycznej
Przewidziany w art. 5 ust. 1 lit. g AI Act zakaz obejmuje wyłącznie systemy kategoryzacji biometrycznej, które indywidualnie kategoryzują osoby fizyczne na podstawie ich danych biometrycznych, aby wydedukować lub wywnioskować informacje na temat ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub światopoglądowych, seksualności lub orientacji seksualnej.
Przepis ten dotyczy stosowania „systemów kategoryzacji biometrycznej”, czyli rozwiązań służących do przypisywania osób fizycznych do określonych kategorii na podstawie danych biometrycznych tych osób (art. 3 pkt 40 AI Act). W świetle aktu w sprawie sztucznej inteligencji do systemów kategoryzacji biometrycznej nie zaliczają się te, które pełnią jedynie funkcję pomocniczą, nieodłącznie związaną z inną usługą komercyjną (usługą główną), bez której z obiektywnych względów technicznych takie rozwiązania nie mogłyby być samodzielnie wykorzystywane. Przykładem mogą być filtry klasyfikujące cechy ciała wykorzystywane na internetowych platformach handlowych, aby umożliwić konsumentom uzyskanie podglądu, jak będą wyglądać w wybranych przez siebie produktach (np. ubraniach, okularach) w świecie rzeczywistym (art. 3 pkt 40 AI Act w zw. z motywem 16 AI Act).
Przedmiotowy zakaz dotyczy sytuacji, w których przeznaczeniem systemu kategoryzacji biometrycznej jest umożliwienie w sposób bezpośredni i celowy wyciągania wniosków na temat informacji stanowiących szczególne kategorie danych osobowych w rozumieniu art. 9 ust. 1 rodo – bazując na danych biometrycznych określonej osoby. Warto jednak zauważyć, że w świetle art. 5 ust. 1 lit. g AI Act nie jest zakazane wnioskowanie przy pomocy systemu AI o danych dotyczących zdrowia oraz danych genetycznych. Unijny prawodawca nie wymienia bowiem w przepisie tych kategorii danych.
Zakaz ten nie obejmuje przypadków etykietowania ani filtrowania pozyskanych zgodnie z prawem zbiorów danych biometrycznych, takich jak obrazy oparte na danych biometrycznych, ani kategoryzacji danych biometrycznych w obszarze ścigania przestępstw.
Możliwość zmian wykazu zakazanych praktyk w zakresie AI
Można spodziewać się, że katalog zakazanych praktyk w zakresie AI będzie ulegał w przyszłości pewnym modyfikacjom. Z uwagi na szybki rozwój technologiczny Komisja Europejska została zobowiązana do przeprowadzania corocznej oceny dotyczącej konieczności wprowadzenia zmian w wykazie zakazanych praktyk AI (art. 112 ust. 1 AI Act). Pozwoli to na dostosowanie przepisów do pojawiających się nowych zastosowań sztucznej inteligencji i związanych z nimi poważnych zagrożeń.
Najwyższa sankcja za nieprzestrzeganie zakazów
AI Act za nieprzestrzeganie zakazu stosowania określonych praktyk w zakresie AI przewiduje nałożenie administracyjnej kary pieniężnej w wysokości do 35 mln euro albo 7% całkowitego rocznego światowego obrotu przedsiębiorstwa z poprzedniego roku obrotowego, przy czym zastosowanie ma kwota wyższa. Jest to najwyższa możliwa sankcja, jaka może zostać nałożona na podstawie AI Act.
Trzeba jednak zauważyć, że kary w tym zakresie będą mogły zostać nałożone dopiero od 2 sierpnia 2025 r., co wynika z tego, że dopiero od tego dnia będą stosowane przepisy rozdziału XII AI Act dotyczącego kar (art. 113 lit. b AI Act). Na poziomie krajowym zasady nakładania administracyjnych kar pieniężnych za naruszenie art. 5 AI Act określa również przygotowany przez Ministerstwo Cyfryzacji projekt ustawy o systemach sztucznej inteligencji (UC71).
Autor
Sandra Słowik
Autorka jest prawniczką specjalizującą się w prawie ochrony danych osobowych i prawie nowych technologii.