Zakazane praktyki w dziedzinie AI
Akt w sprawie sztucznej inteligencji (AI Act) został uchwalony 13 czerwca 2024 r. Większość jego przepisów ma dość długie vacatio legis i nie podlega jeszcze stosowaniu. Niemniej, od 2 lutego 2025 r. stosuje się już zakazy niektórych praktyk w dziedzinie AI. Warto przyjrzeć się tym zakazom w kontekście wytycznych, jakie wydała niedawno Komisja Europejska (wydanych na podstawie rozporządzenia [UE] 2024/1689 [AI Act] z dnia 4 lutego 2025 r.
Zapraszamy do lektury artykułu, który ukazał się w Magazynie CRN – wydanie 6-7/2025, a którego autorem jest ekspert sektora IT – radca prawny Piotr Grzelczak.
Zakazy przewidziane w AI Act obejmują systemy AI, które generują nieakceptowalne ryzyko dla praw podstawowych i wartości unijnych. W art. 5 tego aktu wymieniono kilka kategorii systemów AI, w przypadku których takie ryzyko zachodzi. W tym artykule chciałbym omówić takie zakazane praktyki, pomijając te, które z natury rzeczy dotyczyć będą przede wszystkim władz publicznych.
Manipulowanie ludzkim zachowaniem
AI Act zakazuje systemów AI, które w sposób nieakceptowalny oddziaływają na ludzkie zachowania/decyzje. Są to systemy, które łącznie spełniają następujące warunki:
- stosują techniki podprogowe (np. emitowanie komunikatów głosowych na częstotliwościach, których ludzkie ucho nie rejestruje), celowe techniki manipulacyjne wykorzystujące błędy poznawcze, słabości psychiki lub określony kontekst sytuacyjny lub techniki wprowadzające w błąd (np. chatbot, który udaje członka rodziny, syntetyzując głos),
- celem lub skutkiem wykorzystania ww. technik jest wywołanie znaczącej zmiany zachowania czyli skłonienie ludzi do podjęcia decyzji, której w innych okolicznościach by nie podjęli,
- zmienione zachowanie wyrządza lub może wyrządzać szkodę (m.in. śmierć, utrata zdrowia, pogorszenie dobrostanu emocjonalnego, szkoda majątkowa), przy czym musi to być szkoda poważna (istotny negatywny wpływ na daną osobę/grupę).
Zakaz nie obejmuje zgodnych z prawem praktyk reklamowych czy też klasycznej perswazji, gdy działania perswazyjne nie mają charakteru ukrytego i gdzie godność i autonomia człowieka jest szanowana.
Wykorzystywanie ludzkich słabości
AI Act zakazuje systemów AI, które wykorzystują ludzkie słabości wynikające z wieku, niepełnosprawności lub sytuacji społeczno-ekonomicznych. Kwestia niepełnosprawności i wieku nie wymaga specjalnego wyjaśnienia. Natomiast sytuację społeczno-ekonomiczną należy rozumieć jako przynależność do określonej grupy społecznej (np. mniejszości religijnej) czy przypisanie pewnego statusu w społeczeństwie (np. bycie osobą ubogą).
Aby zakaz miał zastosowanie, wymagane jest, by celem lub skutkiem działania systemu AI była znacząca zmiana zachowania, a ponadto aby zmienione zachowanie wyrządzało lub mogło wyrządzić poważną szkodę. Tutaj aktualne pozostają uwagi przedstawione w opisie pierwszego zakazu.
Scoring społeczny
AI Act zakazuje niektórych praktyk scoringu społecznego w odniesieniu do osób fizycznych. Proces oceny powinien trwać przez określony czas, co oznacza, że zakaz nie dotyczy działań o charakterze jednorazowym. Ponadto, musi być dokonywany w oparciu o zachowanie społeczne w różnych kontekstach, w tym również prywatnych lub biznesowych lub w oparciu o cechy osobiste lub cechy osobowości (płeć, rasa, sytuacja rodzinna, itp.).
Systemy scoringu społecznego są zakazane, o ile scoring prowadzi do krzywdzącego lub niekorzystnego traktowania:
- w sytuacjach, które nie są związane z kontekstami, w których pierwotnie wygenerowano lub zebrano dane (np. gdy typowanie do kontroli skarbowych następuje w oparciu o dane niezwiązane z podatkami), lub
- kiedy takie traktowanie jest nieuzasadnione lub nieproporcjonalne do zachowania społecznego lub jego wagi.
Zakaz ma szerokie zastosowanie. Działa on w sferze public i komercyjnej i to także wówczas, gdy sam scoring jest dokonywany (tworzony) przez inny podmiot niż ten, który go finalnie wykorzystuje (np. gdy decydenci kupują oceny scoringowe od podmiotów trzecich). Niemniej, należy podkreślić, że AI Act nie zakazuje każdego rodzaju scoringu bazującego na systemach AI. Nie jest w szczególności zabronione stosowanie tego rodzaju systemów przy scoringu kredytowym czy w ramach systemów antyfraudowych.
Bazy danych do rozpoznawania twarzy
AI Act zakazuje systemów AI, które tworzą lub rozbudowują bazy danych do rozpoznawania twarzy poprzez nieukierunkowany scraping wizerunków twarzy z Internetu lub nagrań CCTV (kamery lotniskowe, dworcowe, itp.). Bez znaczenia jest tutaj architektura takich baz danych oraz to, czy rozpoznawanie twarzy jest ich wyłącznym celem.
Pozyskiwanie (scraping) należy rozumieć jako wykorzystanie zautomatyzowanych narzędzi, które wydobywają dane z różnych źródeł, w tym telewizji przemysłowej, mediów społecznościowych, stron internetowych, po to, aby wykorzystać je w celu budowy/rozbudowy baz do rozpoznawania twarzy. Pozyskiwanie ma charakter nieukierunkowany, jeśli nie skupia się na poszukiwaniu danych określonej osoby lub grupy osób, lecz jest dokonywane masowo.
Rozpoznawanie emocji w pracy i szkole
AI Act zakazuje systemów AI, które rozpoznają emocje osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych. Nie zakazuje się więc generalnie wszystkich tego rodzaju systemów AI, a jedynie tych, które występują w ww. kontekstach.
Systemy rozpoznawania emocji to systemy AI służące do identyfikacji lub wnioskowania o emocjach lub zamiarach osób fizycznych na podstawie ich danych biometrycznych. Pojęcie emocji powinno być rozumiane szeroko, lecz nie obejmuje ono stanów fizycznych organizmu człowieka takich jak zmęczenie, ból czy choroba. Ponadto, od rozpoznawania emocji należy odróżnić rozpoznawanie zachowań ludzkich (np. uśmiechu czy marszczenia brwi). Sam fakt, że system AI rozpoznaje, że ktoś się uśmiecha nie stanowi jeszcze rozpoznawania emocji.
Przedmiotowy zakaz obejmuje identyfikację lub wnioskowanie o emocjach dokonywane w oparciu o dane biometryczne (np. przy wykorzystaniu obrazów twarzy, sposobu chodu czy pisania na klawiaturze). Jeśli wnioskowanie o emocjach będzie następowało w oparciu o inne dane (np. kiedy system będzie wnioskował z samej tylko treści napisanej przez kogoś wiadomości, że jej autor jest smutny), wówczas zakaz nie ma zastosowania.
Środowisko pracy powinno być rozumiane szeroko. Chodzi tutaj o wszelkie konteksty, kiedy osoby fizyczne wykonują zlecone im zadania, w tym gdy świadczą usługi w modelu B2B, są wolontariuszami, stażystami, itp., począwszy od etapu rekrutacji. Instytucje edukacyjne również należy rozumieć szeroko. Chodzi tutaj o wszelkie tego rodzaju instytucje, publiczne i prywatne, niezależnie od szczebla nauczania, wieku uczestników, modelu pracy (online/zwykły).
Na zasadzie wyjątku systemy rozpoznawania emocji mogą być stosowane w miejscach pracy lub instytucjach edukacyjnych, jeżeli jest to konieczne ze względów medycznych lub bezpieczeństwa.
Kategoryzacja biometryczna
AI Act zakazuje systemów kategoryzacji biometrycznej, które kategoryzują osoby fizyczne w oparciu o dane biometryczne w celu dedukcji lub wnioskowania informacji na temat ich wrażliwych atrybutów takich jak rasa, poglądy polityczne, przynależność do związków zawodowych, przekonania religijne, światopoglądowe, seksualność lub orientacja seksualna. Tylko te atrybuty mają znaczenie – zakaz nie obejmuje innego rodzaju wnioskowań. Ponadto, kategoryzacja musi następować w oparciu o dane biometryczne. System, który kategoryzowałby ludzi w oparciu o ich ubiór (np. noszenie krzyżyków/medalików czy chust na głowie) nie wchodzi w zakres zakazu.
Zakazem nie są objęte systemy AI, które spełniają łącznie następujące warunki: pełnią funkcję pomocniczą w stosunku do innej usługi komercyjnej i są bezwzględnie konieczne z obiektywnych względów technicznych. Jako przykład można tutaj podać filtry do edycji zdjęć na platformach społecznościowych. Zakaz nie obejmuje także systemów AI do etykietowania lub filtrowania pozyskanych zgodnie z prawem danych biometrycznych ani kategoryzacji takich danych w obszarze ścigania przestępstw.
Artykuł dostępny także w elektronicznym wydaniu Magazynu CRN – TUTAJ.
Materiał prasowy: radca prawny Piotr Grzelczak.