1. Przejdź do treści
  2. Przejdź do głównego menu
  3. Przejdź do dalszych stron DW
TechnikaEuropa

UE. Jest porozumienie o ustawie o AI

9 grudnia 2023

AI nie będzie mogła być wykorzystywana m.in. do punktowania zachowań obywateli, wychwytywania ich emocji czy śledzenia poczynań, chociaż z systemów rozpoznawania twarzy będą mogły korzystać służby. Pod pewnymi warunkami.

https://p.dw.com/p/4Zxzj
Symbolbild ChatGPT
UE porozumiała się w sprawie sztucznej inteligencjiZdjęcie: Christian Ohde/Chromorange/picture alliance

Po 36 godzinach i trzech dniach negocjacji Parlament Europejski, Rada i eksperci z Komisji Europejskiej zawarli w piątek (08.12) w nocy porozumienie odnośnie unijnej ustawy o sztucznej inteligencji (AI Act). – To historyczny moment – skomentowała w wydanym w sobotę (9.12) rano oświadczeniu szefowa KE Ursula von der Leyen. Faktycznie, będą to pierwsze przepisy regulujące wykorzystanie AI na świecie. Nowe regulacje dzielą wykorzystanie technologii sztucznej inteligencji na cztery grupy w zależności od tego jaki wpływ i jakie ewentualne zagrożenie mogą one nieść dla użytkowników. To: oprogramowanie wysokiego ryzyka, ograniczonego ryzyka, o minimalnym wpływie i nieakceptowalne. To ostatnie będzie w UE zakazane.

Obywatele bez punktacji

Zabronione w UE będzie wykorzystywanieAI w wyraźny sposób naruszającej prawa obywateli. W praktyce oznacza to, że zakazane zostaną systemy tzw. scoringu czyli punktowania społecznego, gdzie obywatele oceniani są na podstawie swoich zachowań społecznych, systemy biometrii wykorzystujące dane wrażliwe obywateli np. płeć, wiek, orientację seksualną czy religię – mowa tu na przykład o takich sytuacjach, gdzie obywatel byłby obserwowany przez organy rządowe tylko dlatego, że jest muzułmaninem. Zabroniona będzie także AI wykorzystywana do manipulowania ludzkimi zachowaniami. Chodzi tu o wszelkie wykorzystanie technologii, która skłania ludzi do określonych zachowań z pominięciem ich wolnej woli. Mowa tu o sytuacjach, kiedy oprogramowanie analizuje zachowania obywateli, w tym ich aktywność w sieci i na podstawie tego podsuwa im określone treści lub przewiduje (ze sporym prawdopodobieństwem) ich kolejne kroki. Jak mówią eksperci, tego typu oprogramowanie wykorzystywane jest chętnie przez dyktatorów lub liderów sekt, którzy chcą skłonić obywateli lub wyznawców do konkretnych zachowań podsuwając im zachęty lub kary za przewidywane zachowania. Takie systemy są już zresztą z powodzeniem wykorzystywane w niektórych regionach świata, zwłaszcza w Chinach, gdzie zachowania społeczne obywateli są od lat monitorowane, a te pożądane nagradzane. I tak obywatele, którzy poprawnie wyrzucają śmieci, nie sprawiają problemów sąsiadom czy sprawnie przechodzą odprawę na lotnisku, bo nie sprawiają problemów choćby nadbagażem, mogą liczyć na zniżki czy pierwszeństwo przy odprawie do samolotu. UE zakaże również systemów AI monitorujących emocje ludzi w miejscach pracy, szkołach lub na uczelniach – na ich podstawie można monitorować choćby gotowość pracowników do strajku czy niepokojów - oraz ściągania wizerunków ludzi z internetu lub monitoringu miejskiego w celu stworzenia bazy danych do rozpoznawania twarzy.

Długo walczyły zresztą o to organizacje obywatelskie alarmując, że stosowanie systemów identyfikacji twarzy w miejscach publicznych narusza prywatność obywateli. Biometria nie zostanie jednak całkowicie wykluczona. W wyjątkowych sytuacjach będzie ona mogła być wykorzystywana przez organy ścigania. Jak jednak zapewniają unijni legislatorzy zgodę na jej użycie będzie musiał wcześniej wydać sąd, a technologia będzie mogła być wykorzystana jedynie przy określonych przestępstwach, w tym przy poszukiwaniach i lokalizacji osób podejrzewanych lub skazanych za poważne przestępstwa, poszukiwaniach ofiar np. porwania, handlu ludźmi, wykorzystywania seksualnego lub przy przeciwdziałaniu atakom terrorystycznym.To właśnie te zapisy, zwłaszcza dotyczące wykorzystywania rozpoznawania biometrycznego w czasie rzeczywistym, wywołały wśród negocjatorów największe kontrowersje. – Wprowadziliśmy wyjątki dla organów ścigania, ale nie chcemy, żeby ta praktyka została ogólnie przyjęta, ponieważ może doprowadzić do nadmiernej kontroli obywateli – mówił włoski europoseł Brando Benifei (S&D), jeden ze sprawozdawców projektu z ramienia PE. Unijne przepisy nie obejmą natomiast AI wykorzystywanej przez państwa członkowskie w celach obronnościowych, w tym wojskowych.

Wniosek o pracę odrzucony przez AI?

Negocjatorzy porozumieli się również co do regulacji systemów sztucznej inteligencji wysokiego ryzyka. Za takie uważa się technologie, które mogą potencjalnie stworzyć zagrożenie dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji i praworządności. Chodzi tu np. sztuczną inteligencję wykorzystywaną przez firmy, uczelnie lub banki do analizowania podań o pracę czy pożyczkę. Jak mówią legislatorzy, nie może być tak, że technologia decydować będzie o życiu lub przyszłości obywateli, w tym o ich dostępie do edukacji czy otrzymaniu pracy. Zwłaszcza, że systemy bywają zawodne. Podobnie, w przypadku migracji, gdzie AI wykorzystywana jest do weryfikacji np. prawdziwości dokumentów, na podstawie czego zapadają decyzje o przyznaniu komuś azylu czy wizy. Nieuregulowana AI może stwarzać zagrożenie także dla zdrowia obywateli – tu technologia wykorzystywania jest np. w robotach asystujących przy operacjach – i dla demokracji – coraz częściej mówi się o opartych na sztucznej inteligencji programach do liczenia głosów oddanych w wyborach, te mogłyby być wykorzystane np. podczas przyszłorocznych wyborach prezydenckich w USA. Nowe unijne przepisy nakładają na producentów obowiązek oceny wpływu i monitoringu ryzykownej technologii zanim ta trafi na rynek UE oraz przez cały cykl jej życia. Obywatele będą mieli również prawo do składania skarg na systemy AI i domagania się wyjaśnień odnośnie decyzji opartych na AI, np. kiedy odmówi im się kredytu.

Obowiązek transparentności 

Jeśli chodzi o AI niskiego ryzyka, jak chatboty, w tym popularny ostatnimi czasy ChatGPT oraz najczęściej wykorzystywane przez użytkowników systemy AI minimalnego ryzyka, jak gry wideo oparte na sztucznej inteligencji lub filtry antyspamowe, to będą musiały one przestrzegać obowiązku transparentności. Oznacza to, że internauci z nich korzystający będą musieli mieć świadomość tego, że dane treści zostały wygenerowane przez sztuczną inteligencją (np. tekst napisany przez ChatGPT), co pozwoli im na świadome podejmowanie decyzji i możliwość rezygnacji z korzystania z danej aplikacji. Legislatorzy zapewnili, że będą wspierać zwłaszcza średnie i małe firmy, tak żeby te mogły rozwijać technologię AI. Chodzi o wspieranie innowacyjności europejskich firm bez konieczności oglądania się na międzynarodowych gigantów technologicznych monopolizujących rynek. Z drugiej strony jednak, firmy które nie będą przestrzegać unijnych przepisów o AI będą musiały liczyć się z surowymi karami, te wahać się będą od 7,5 mln euro lub 1,5 proc. światowych obrotów do 35 mln euro i 7 proc. obrotów. – UE stanie się pierwszym kontynentem, który ustanowi jasne przepisy o użyciu AI – napisał na X (wcześniej Twitter) komisarz UE ds. rynku wewnętrznego i wielki orędownik unijnych regulacji o AI Thierry Breton. Porozumienie o AI skrytykowały natomiast unijne organizacje konsumentów uznając, że UE wcale nie udało się załatać części luk prawnych. – Co prawda systemy pozwalające na rozpoznawanie emocji będą zabronione w miejscach pracy i szkołach, ale nadal będą one dozwolone w innych miejscach, co jest bardzo niepokojące biorąc pod uwagę jak bardzo są inwazyjne i zawodne – mówi DW Ursula Pachl z BEUC. Zdaniem organizacji UE niedostatecznie uregulowała część systemów wysokiego ryzyka, w tym AI stosowanej w zabawkach dziecięcych lub chatbotach.

Deepfejki: realne zagrożenie

Regulacje będą teraz musiały zostać formalnie przyjęte przez Parlament Europejski i państwa członkowskie, co w przypadku zawartego porozumienia powinno być już tylko formalnością. Przepisy będą obowiązywać w takie samej formie we wszystkich państwach UE.

Lubisz nasze artykuły? Zostań naszym fanem na facebooku! >>