Projekt kodeksu dobrych praktyk AI. Transparentność generowanych treści

Rozwój generatywnej sztucznej inteligencji radykalnie zmienia sposób tworzenia i rozpowszechniania treści. Obrazy, nagrania wideo, głos czy tekst mogą dziś być generowane lub modyfikowane maszynowo w sposób niemal nieodróżnialny od twórczości ludzkiej. To z jednej strony ogromny potencjał innowacyjny, z drugiej – realne ryzyka odnośnie zaufania do informacji, debaty publicznej i praw podstawowych. Odpowiedzią Unii Europejskiej na te wyzwania jest AI Act, a jego praktycznym uzupełnieniem – projekt kodeksu dobrych praktyk AI dotyczący transparentności treści, który został niedawno opublikowany. Dokument ten pokazuje wprost, jaki jest kodeks postępowania dla sztucznej inteligencji i jak w praktyce rozumieć obowiązki wynikające z art. 50 AI Act.


Jaki jest kodeks postępowania dla sztucznej inteligencji? Standardy dla dostawców generatywnych systemów AI

Pierwsza część dokumentu, jakim jest kodeks postępowania w zakresie AI, koncentruje się na obowiązkach dostawców generatywnych systemów sztucznej inteligencji, w tym dostawców modeli ogólnego przeznaczenia (GPAI). Ich zadaniem jest stworzenie technicznych warunków umożliwiających rozpoznanie treści jako wygenerowanej lub zmanipulowanej przez AI.

Projekt kodeksu dobrych praktyk AI jednoznacznie wskazuje, że obecnie nie istnieje jedna, uniwersalna metoda znakowania. Dlatego proponowane jest podejście wielowarstwowe, łączące techniki takie jak:

  • osadzanie informacji o pochodzeniu treści w metadanych (wraz z podpisem cyfrowym),
  • niewidoczne znaki wodne wplecione bezpośrednio w obraz, dźwięk, wideo lub tekst,
  • mechanizmy fingerprintingu lub logowania, umożliwiające późniejszą weryfikację źródła treści,
  • certyfikaty pochodzenia dla treści, których nie da się trwale oznaczyć (np. krótkich fragmentów tekstu).

Kodeks postępowania w zakresie sztucznej inteligencji a publikacja treści

Druga część, którą opisuje kodeks postępowania AI, przesuwa punkt ciężkości z technologii na praktykę publikowania treści. Dotyczy ona podmiotów, które stosują systemy AI i rozpowszechniają ich wyniki. W zakresie tego rodzaju treści obowiązują następujące zasady:

  • deepfake’i (obrazy, audio, wideo) muszą być jasno i wyraźnie oznaczone,
  • teksty generowane lub istotnie modyfikowane przez AI, publikowane w celu informowania społeczeństwa o sprawach leżących w interesie publicznym również powinny być oznaczone w sposób ujawniający, że tekst został przygotowany/zmieniony automatycznie, chyba że został zweryfikowany przez człowieka lub poddany kontroli redakcyjnej.

Kodeks postępowania AI w organizacji

Istotnym rysem kodeksu jest wskazanie na wymogi organizacyjne po stronie podmiotów stosujących. Po pierwsze, organizacje powinny wdrożyć wewnętrzne procedury, które pozwolą identyfikować treści podlegające obowiązkowi oznaczenia i zapewnić odpowiednią rozliczalność. Po drugie, kodeks wskazuje na konieczność szkoleń pracowników. Po trzecie, należy wdrożyć mechanizmy monitorowania i korekty, umożliwiające zgłaszanie nieprawidłowo oznaczonych treści oraz szybkie ich poprawianie.

Choć omawiany kodeks postępowania w zakresie sztucznej inteligencji jest formalnie dobrowolny, w praktyce wyznacza on standard, który stanie się punktem odniesienia dla organów nadzorczych i audytorów badających przestrzeganie obowiązujących przepisów.


Prawidłowa implementacja powyższych wytycznych wymaga nie tylko wiedzy technicznej, ale przede wszystkim rzetelnej analizy prawnej. Kancelaria prawna we Wrocławiu GFP Legal oferuje kompleksowe wsparcie w dostosowaniu procesów biznesowych do wymogów unijnego rozporządzenia oraz kodeksu dobrych praktyk. Jeśli potrzebny jest Państwu doświadczony prawnik AI, zapraszamy do kontaktu.


Materiał prasowy: radca prawny Piotr Grzelczak.

Zapisz się do newslettera

Zapisz się do newslettera

Chcę zapisać się do newslettera
Na skróty