Skip to main content
//

Stało się! 1 sierpnia 2024 r. po długich, niczym olimpijskich, pracach legislacyjnych weszło w życie Rozporządzenie o sztucznej inteligencji nr 2024/1689 znane jako AI Akt (AIA). Tym samym Unia Europejska wywalczyła „złoty medal” w kategorii pierwszej tak kompleksowej regulacji sztucznej inteligencji na świecie. Entuzjazm miesza się z obawami nadmiernej regulacji. Coraz większym zainteresowaniem AI Akt cieszy się wśród przedstawicieli biznesu. Nic dziwnego, gdyż pozostając w terminologii olimpijskiej rozpoczyna się właśnie bieg sztafetowy terminów, od których poszczególne przepisy AI znajdą zastosowanie. To ważne by wyjaśnić, że AIA co prawda wszedł w życie 1 sierpnia, ale jego postanowienia jeszcze nie są stosowane. Niemniej, już rozgrzewają się bohaterzy tego artykułu tj.  regulacje dot. zakazanych praktyk AI. To one zaczną obowiązywać jako pierwsze, bo już 2 lutego 2025 r. A zatem wydźwięk powiedzenia „luty podkuj buty” wciąż aktualny! 


Tekst ukazał się pierwotnie w piśmie 

MAGAZYN ODO


Na pierwszy ogień to co zakazane 

Artykuł 5 AIA nie schodzi z pierwszych stron „gazet AI”.  Dlaczego? To właśnie ten przepis przedstawia listę systemów AI o tzw. ryzyku niedopuszczalnym, których wprowadzanie do obrotu, oddawanie do użytku oraz samo wykorzystanie będzie już wkrótce zakazane. Systemy te niewątpliwie zagrażają kluczowym wartościom UE, tj. wolność czy równość, prawom podstawowym jak prawo do prywatności czy ochrona danych osobowych, w skrócie samej idei AI Aktu, zgodnie, z którą im bardziej intruzywny i mniej etyczny system tym surowsze zasady wobec niego stosuje nowe Rozporządzenie.

Lista praktyk zakazanych AI jest co prawda zamknięta i zawiera raptem 8 rodzajów systemów. Jednak, niech nas to nie zmyli. Ich interpretacja – a w praktyce zidentyfikowanie w spółce – nie jest wcale takie proste. Dlatego zresztą spodziewamy się, że Komisja Europejska opublikuje wytyczne dotyczące zakazanych systemów AI jeszcze zanim art. 5 AIA rozpocznie na dobre swoje stosowanie.

Złota ósemka

Do „złotej” ósemki praktyk zakazanych, które obrały za cel ochronę jednostki zakazując tego co najbardziej szkodliwe społecznie należą: (1) systemy wykorzystujące techniki podprogowe manipulacyjne, wprowadzające w błąd, prowadzące do ograniczenia podejmowania świadomych decyzji lub podejmowania decyzji, której normalnie by nie podjęto,  co wyrządza lub może wyrządzić poważną szkodę (art. 5(1)(a) i motyw 29) (2) systemy wykorzystujące słabości jak wiek, niepełnosprawność, szczególna sytuacja społeczna czy ekonomiczna,  celem wywołania znaczącej zmiany w zachowaniu danej osoby lub grupy osób, która ponownie może lub wyrządza poważną szkodę (art. 5(1)(b) oraz motyw 29 AIA), (3) systemy oceny lub klasyfikacji obywateli (ang. social scoring), które mogą prowadzić np. do krzywdzącego lub niekorzystnego traktowania osoby/grupy osób w kontekstach społecznych niezwiązanych z pierwotnym celem wygenerowania/zebrania danych (art. 5(1)(c) oraz motyw 31 AIA), (4) systemy przewidujące ryzyko popełnienia przestępstwa przez osobę fizyczną wyłącznie na podstawie profilowania lub oceny jej cech osobowości m.in., iż  godzą one w koronną zasadę domniemania niewinności (art. 5(1)(d) oraz motyw 42 AIA), (5) systemy tworzące bazy danych służące rozpoznawaniu twarzy (ang. facial recognition) poprzez niekierunkowane pozyskiwanie wizerunku „zdrapanego” (ang. scrapping) z Internetu lub nagrań z kamer CCTV (art. 5 (1)(e)oraz motyw 43 AIA), (6) systemy służące rozpoznawaniu emocji w pracy i szkołach z wyjątkami wynikającymi ze względów medycznych i bezpieczeństwa (art. 5(1)(f) oraz motyw 44 AIA) (7) systemy oparte o tzw. kategoryzację biometryczną w celu wnioskowania o rasie, poglądach politycznych, przekonaniach religijnych lub orientacji seksualnej danej osoby z wyjątkami (art. 5 (1)(g) oraz motyw 30 AIA) i wreszcie (8) systemy zdalnej identyfikacji biometrycznej w czasie rzeczywistym w miejscach publicznych z wyjątkami dopuszczającymi ich wykorzystanie np. dla celów poszukiwania osób zaginionych (art. 5 (1) h – art. 5(2) oraz motywy 33 i dalsze AIA).

Z uwagi na obszerność zakazów, w artykule skupimy się wyłącznie na wybranych systemach zakazanych, które potencjalnie mogą występować w biznesie, a zatem powinny znaleźć się pod lupą przedsiębiorców w nadchodzących miesiącach.

Manipulacja, techniki podprogowe oraz wykorzystywanie słabości, czyli o wolności, którą UE „kocha i rozumie” a człowiek „oddać nie chce” więc AI Akt też „nie umie” 

Zabronione jest używanie systemów AI, które stosują techniki podprogowe, manipulacyjne lub wprowadzające w błąd, jeśli ich celem lub skutkiem jest znaczna zmiana zachowania osoby, ograniczenie zdolności do podejmowania świadomych decyzji lub podejmowanie decyzji, której inaczej by nie podjęto, gdy takie działanie może wyrządzić poważną szkodę. Definicja jest dość skomplikowana jednak zakaz szczytny i zasadny. Takie systemy mogą powodować szkody materialne i niematerialne (psychiczne, fizyczne czy ekonomiczne) pozbawiając nas autonomii i swobody wyboru, a zatem „wolności” stanowiącej filar wartości UE.

Wykorzystanie elementów podprogowych jak bodźce dźwiękowe czy wizualne, niedostrzegalnych dla oka czy ucha od dawna było przedmiotem kontrowersji. Wiele mówiono np. o bardzo krótkich przerwach w reklamach kinowych z napojami gazowanymi w kinie, które „podprogowo” pobudzały pragnienie właśnie na owy napój. Wraz z AI Aktem kończy się era systemów nakłaniających nas do podjęcia decyzji poza percepcją czy świadomością.  Jak podpowiada motyw 29 AIA takim systemom może sprzyjać choćby obszar wirtualnej rzeczywistości czy też interfejsy znane jako maszyna-mózg umożliwiające bezpośrednią komunikację między mózgiem a urządzeniami zewnętrznymi (przykładem są choćby gry komputerowe sterowane za pomocą myśli, co tworzy nowe, immersyjne doświadczenia dla graczy[1]). Analogiczne NIE Unia mówi systemom wykorzystującym celowe techniki manipulacyjne oraz techniki wprowadzające w błąd. Zwłaszcza te ostatnie budzą uzasadniony niepokój branży marketingowej, czy szerzej e-commerce. Agencje marketingowe, ale też ogólnie działy PR mogą jednak o tyle odetchnąć z ulgą, że motyw 29 AI Aktu wyjaśnia, iż powszechne i zasadne praktyki handlowe (reklamowe) same w sobie nie powinny być uznawane za szkodliwe praktyki manipulacyjne z art. 5 AIA o ile są zgodne z obowiązującym prawem. W tym kontekście warto obserwować losy tzw. dark patterns, szerzej omówione w Wytycznych Europejskiej Rady ds. Ochrony Danych Osobowych dotyczące zwodniczych wzorców w mediach społecznościowych.

AI Akt wyróżnia również jako zakazane systemy, które wykorzystują słabości związane z wiekiem, niepełnosprawnością lub szczególną sytuacją społeczną lub ekonomiczną. Jeśli zatem zastosowanie danej praktyki AI prowadzi lub może prowadzić do znacznego zniekształcenia zachowania poszkodowanej osoby lub grupy osób, którzy poniosą znaczną szkodę rozumianą jak wyżej – będziemy już mówić o systemie zabronionym w świetle art. 5 ust. 1 lit. b AIA. Zakaz ten ma na celu ochronę grup wrażliwych na nadużycia z uwagi na ich sytuację osobistą np. w przypadku osób z mniejszości religijnych czy etnicznych. Co istotne, bez znaczenia dla odpowiedzialności dostawców i podmiotów korzystających z takich systemów jest zamiar wyrządzenia poważnej szkody. Decydujące jest bowiem samo to czy szkoda wynika z wykorzystania wyżej wymienionych praktyk opartych na AI. Podobnie w/w zakazy oparte o manipulację nie mają zastosowania w przypadku leczenia – terapii psychologicznych czy też rehabilitacji, jeśli działania te są prowadzone zgodnie z prawem i normami medycznymi.

Twarz to nie zdrapka

Kolejną kategorią systemów zabronionych AI, które powinny zainteresować przedsiębiorstwa sektora prywatnego są systemy umożliwiające tzw. nieukierunkowany scrapping wizerunków ze stron internetowych czy zapisów kamer CCTV w celu tworzenia lub rozbudowania baz danych[2].  Tytuł znanego programu „Twoja twarz brzmi znajomo” nabiera zatem nowego znaczenia.

Nie jest tajemnicą, że dane stanowią nowe paliwo napędowe gospodarki. Zakaz ten ma na celu zrównoważenie interesów stron (przedsiębiorca – osoba fizyczna) poprzez zapobieganie rozprzestrzeniania się kultury masowej inwigilacji i zapewnienie ochrony przed niekontrolowanym gromadzeniem danych.

Jest to również odpowiedź na urzeczywistniające się obawy związane z konkretnymi przykładami takiego scrapingu, przykładem są choćby działania Clearview AI lidera scrapingu, który pozyskał ok. 30 miliardy wizerunków w ten sposób[3], a jednocześnie laureata już wielu kar za naruszenia RODO. Zarówno w Europie, jak i na świecie różne organy ochrony danych osobowych (m.in. włoski Garante oraz brytyjski ICO) przedstawiły stanowiska krytyczne w tym zakresie. Możliwe więc, że w niedługim czasie również i polski Prezes UODO zabierze głos w tej kwestii.

Oceniaj pracę a nie grymas czy uśmiech

Zakaz, który zdecydowanie powinien zainteresować przedsiębiorców to ten dotyczący systemów AI służących do rozpoznawania zamiarów i emocji jak smutek, złość, zadowolenie, satysfakcja, rozczarowanie itp. oraz wyciągania z nich wniosków na podstawie danych biometrycznych – tzw. systemy rozpoznawania emocji – ER zdefiniowane zresztą w art. 3 pkt. 39 AIA.

Zakaz ten został ograniczony wyłącznie do miejsc pracy i instytucji edukacyjnych, przede wszystkim z uwagi na brak równowagi sił występujący w takich okolicznościach. Tak więc z pewnością nie będzie można stosować ich w odniesieniu do pracowników, a także uczniów i studentów. Tutaj jednak uwaga na wyjątki – zakaz nie obowiązuje, jeżeli systemy ER będą służyły względom bezpieczeństwa (monitorowanie zmęczenia kierowców) czy medycznym (np. systemy przeznaczone do użytku terapeutycznego)[4].

Jednak to, że inne systemy ER nie będą wykorzystywane w miejscu pracy czy w instytucjach edukacyjnych nie oznacza, że AI Akt o nich zapomina. Wręcz przeciwnie, takie systemy będą systemami wysokiego ryzyka, z którymi wiążą się liczne obowiązki i wymogi. O użyciu takich systemów ER wysokiego ryzyka trzeba będzie zgodnie z art. 50 ust. 3 AIA poinformować osoby fizyczne, wobec których będą stosowane. Zatem jeśli nasze emocje są „podglądane” w sklepach, siłowniach czy w kinach to z pewnością o tym usłyszymy lub przeczytamy w przyszłości.

Moje poglądy (polityczne) moja sprawa, czyli o tym, dlaczego UE mówi „nie” systemom kategoryzacji biometrycznej

Kolejną praktyką zabronioną przez AI Akt jest indywidualne kategoryzowanie osób na podstawie ich danych biometrycznych przy użyciu systemu AI w celu ustalenia ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub światopoglądowych, seksualności lub orientacji seksualnej. Jeśli zatem na podstawie np. odcisków palców czy cech twarzy konkretnej osoby dany system wyciąga wnioski o jej danych wrażliwych, np. na podstawie geometrii twarzy, koloru oczy czy włosów system wnioskuje, że dana osoba ma określone przekonania religijne czy światopoglądowe musi liczyć się z zakazem. Nie będzie można zatem w ten sposób „sprawdzić” swojego potencjalnego klienta czy kontrahenta. Mając na względzie jednak korzyści płynące z tego rodzaju technologii przy jednoczesnym zapewnieniu odpowiedniej ochrony praw jednostki i niedyskryminacji, AI Akt nie wprowadził zakazu bezwzględnego – nie będzie bowiem zabronione m.in. etykietowanie i filtrowanie pozyskanych zgodnie z prawem obrazów w oparciu o dane biometryczne, ani kategoryzacja takich danych w ramach ścigania przestępstw.

Biorąc pod uwagę, że dane biometryczne należą do szczególnych kategorii danych osobowych (art. 9 RODO), jeśli systemy kategoryzacji biometrycznej nie są zabronione w świetle art. 5 AIA to kwalifikują się jako systemy wysokiego ryzyka na mocy załącznika III AIA.  Podlegają wówczas podobnie jak dozwolone systemy ER obowiązkom w zakresie przejrzystości wskazanym w art. 50 ust. 3 AIA.

Katalog może ulec zmianom – odpowiedź UE na zmieniający się świat AI

Obecny katalog zakazanych praktyk AI nie jest dany raz na zawsze i może z czasem ulegać pewnym modyfikacjom. AI Akt przyznaje w tym zakresie Komisji Europejskiej szczególną funkcję do dokonywania raz w roku przeglądu wykazu praktyk zakazanych i oceny czy zachodzi ewentualna potrzeba wprowadzenia do niego zmian, co stanowi odpowiedź na wyzwania związane z nieustannie rozwijającym się światem technologii.

Dotkliwe konsekwencje

Zakazy zakazami, ale nic tak nie motywuje do działania jak sankcje. A jak mowa o sankcjach, to AI Akt nie pozostaje dłużny, gdyż za niezastosowanie się do zakazów przewiduje kary pieniężne do 35 milionów euro, a w przypadku przedsiębiorców do 7% całkowitego rocznego światowego obrotu. Motywacja jest zatem zdecydowanie niemała. I choć pierwsze kary nie zostaną nałożone szybciej niż w sierpniu 2025 roku[5], nie oznacza to, że można przez dodatkowe 6 miesięcy osiąść na laurach anegdot o „bezsankcyjnych praktykach zakazanych AIA”. Ciężko bowiem z całą pewnością stwierdzić, że do sierpnia nie poniosą żadnych negatywnych konsekwencji, jeśli nie zastosują się do zakazów. W takiej sytuacji z pewnością będą musieli liczyć się choćby ze stratami wizerunkowymi, a brak spełnienia wymogów art. 5 AI może co także stanowić okoliczność obciążającą w innych postępowaniach choćby konsumenckich czy procesach o odszkodowanie za działania systemów spółki.

Check Lista zakazanych systemów dla biznesu

Przez najbliższe kilka miesięcy – do lutego 2025 roku przedsiębiorcy będą mieli nie lada wyzwanie, by przygotować się do nowej rzeczywistości prawnej. I choć z pozoru wielu może się wydawać, że zakazy nie dotyczą ich organizacji, zalecamy w tym zakresie ostrożny optymizm.

Jaki przyjąć plan działania? W pierwszej kolejności zlokalizować systemy AI w rozumieniu Aktu, następnie zastanowić się jakie mają funkcje, w jakim celu są lub mogą być wykorzystywane, a także jakie potencjalnie negatywne konsekwencje się z nimi wiążą. Pomoże to w ustaleniu, czy mogą kwalifikować się jako te zakazane systemy z art. 5 AIA. Jeżeli w jakimkolwiek aspekcie będzie choćby cień ryzyka, że spełniają warunki, o których mowa w wykazie zakazów – należy przeprowadzić pogłębioną analizę, nie tylko prawną, ale również techniczną, a niekiedy i socjologiczną. Tutaj przydatne może okazać się wsparcie interdyscyplinarnego zespołu. Warto, aby efektem takich analiz było, poza zapewnieniem zgodności z AI Aktem, stworzenie również odpowiedniej dokumentacji wewnętrznej na miarę choćby RODO-wskiego DPIA. Warto rozważyć zastrzeżenie np. w Polityce Zarządzania Systemami AI zakazu tworzenia i używania „złotej ósemki”. Istotnym elementem są także szkolenia personelu. Artykuł 4 AIA nakazuje bowiem zapewnienie kompetencji AI w spółkach. Warto zatem aby członkowie departament marketingu byli świadomi jakich praktyk nie mogą stosować w reklamie i promocji skierowanej do klientów.

AI Akt z pewnością wymaga od przedsiębiorców wytrwałości, co ponownie składania nas do analogii olimpijskiej. Jak mawiał Walter Elliot „Wytrwałość to nie jest długi wyścig; to wiele krótkich wyścigów jeden po drugim”.  W AI Akcie pierwszy z nich to wyścig do mety – 2 lutego 2025 r.  Upewnijmy się, że jeśli po drodze potkniemy się o system zakazany w naszej organizacji to zostanie on wyeliminowany. Monitorujmy też, aby nie pojawił się na dalszym etapie poprzez cykliczne kontrole w tym zakresie. Pamiętajmy, że eliminacja systemów zakazanych to dopiero pierwszy bieg w sztafecie. Z AI Aktem należy nauczyć się żyć, jak z RODO czy innymi aktami o efekcie brukselskim, które obowiązują nas bezlitośnie, bezpośrednio i wprost.

[1] https://mlodytechnik.pl/technika/18605-jak-to-dziala-interfejs-mozg-komputer-i-znow-mozg

[2] Zgodnie z definicją ICO web scraping polega na wykorzystaniu zautomatyzowanego oprogramowania do „indeksowania” stron internetowych, gromadzenia, kopiowania i/lub wyodrębniania informacji z tych stron oraz przechowywania tych informacji (np. w bazie danych) w celu ich dalszego wykorzystania. Informacje mogą być dowolne na stronie internetowej – obrazy, filmy, tekst, dane kontaktowe Źródło: Generative AI first call for evidence: The lawful basis for web scraping to train generative AI models | ICO dostęp: 21.08.2024

[3] Face search company Clearview AI overturns UK privacy fine (bbc.com), dostęp: 21.08.2024

[4] Jak wskazuje motyw 44 AIA, zakaz stosowania systemów rozpoznawania emocji wynika z poważnych obaw dotyczące naukowych podstaw systemów sztucznej inteligencji mających na celu identyfikację lub wnioskowanie o emocjach, zwłaszcza że ekspresja emocji różni się znacznie w zależności od kultury i sytuacji, a nawet w obrębie jednej osoby. Wśród kluczowych wad takich systemów znajdują się ograniczona niezawodność, brak specyficzności i ograniczona ogólność.

[5] Zgodnie z art. 113 pkt b przepisy rozdziału XII dotyczącego kar co do zasady rozpoczną stosowanie dopiero od 2 sierpnia 2025 roku.


Autorzy: Adriana Zdanowicz-Leśniak, Agnieszka Czopska


Tekst ukazał się pierwotnie w piśmie 

MAGAZYN ODO

Szkolenia, webinary i konferencje