Projekt rozporządzenia ws. sztucznej inteligencji to krok we właściwym kierunku, ale wciąż nie uwzględnia różnych kwestii etycznych związanych ze stosowaniem technik biometrycznych – podkreślono w analizie Think Tanku Parlamentu Europejskiego.
Raport poświęcony etycznym aspektom wykorzystywania technik biometrycznych został zlecony przez Departament Tematyczny ds. Praw Obywatelskich i Spraw Konstytucyjnych Parlamentu Europejskiego na wniosek Komisji Prawnej i Komisji Petycji. Jak podkreślono we wstępie publikacji, identyfikacja biometryczna, kategoryzacja biometryczna, detekcja behawioralna, rozpoznawanie emocji i tym podobne techniki są stosowane w coraz większym stopniu zarówno przez organy publiczne, jak i prywatne.
„Termin +techniki biometryczne+ oznacza każdą technologię lub operację, która polega na specyficznym, technicznym przetwarzaniu danych odnoszących się do fizycznych, fizjologicznych lub behawioralnych aspektów ludzkiego ciała. Technologia ta może być stosowana do celów takich jak identyfikacja i kategoryzacja ludzi (m.in. z myślą o przewidywaniu ich przyszłych zachowań) lub wykrywanie chwilowych bądź stałych stanów człowieka (m.in. stresu, zmęczenia, choroby lub intencji). Poza tradycyjnymi technikami biometrycznymi, do których należą m.in. odciski palców i rozpoznawanie twarzy, wyróżniamy takie techniki, jak analiza naciśnięć klawiszy lub myszki, dynamiki gestów, podpisu, funkcji głosowych i chodu” – wyjaśnili.
Według ekspertów, główny problem etyczny wiąże się z fazą rejestracji, czyli stworzeniem i przechowywaniem unikalnego szablonu biometrycznego identyfikującego konkretną osobę. „Tworzenie szablonów biometrycznych oznacza przekształcenie unikalnych cech fizycznych człowieka w dane cyfrowe, co prowadzi do datafikacji, czyli tendencji do tworzenia coraz większej ilości danych, a także polegania na algorytmach. Z uwagi na to, że cechy jednoznacznie identyfikujące daną osobę związane są z opisem części jej ciała, ich gromadzenie i wykorzystywanie narusza osobistą autonomię i godność człowieka” – napisali.
W raporcie zwrócono uwagę, że jeśli szablony są przechowywane to „każdy, kto w przyszłości wejdzie w ich posiadanie, ma możliwość śledzenia i rozpoznawania danej osoby w dowolnym miejscu na świecie i potencjalnie w każdym celu”. „Jednostka nie może się przed tym uchronić, ponieważ nie może zmienić swoich identyfikatorów biometrycznych. Uwzględniając również kwestie bezpieczeństwa gromadzenia i przechowywania danych, szablony biometryczne mają znaczny potencjał szkód. Prócz tego kwestie etyczne związane ze stosowaniem metod identyfikacji biometrycznej w przestrzeni publicznej mogą odnosić się do nadzoru nad ludźmi na dużą skalę” – stwierdzono.
Z kolei w przypadku kategoryzacji biometrycznej (np. przydział do grupy ryzyka w systemie bezpieczeństwa lotniska lub ocena kandydatów do pracy) problemy etyczne – jak czytamy – wiążą się z definicją kategorii, związanymi z nią założeniami i wnioskami lub reakcjami systemu prowadzącymi do dyskryminacji i stygmatyzacji jednostek. „Inne zagrożenia obejmują manipulacje i wykorzystywanie luk w zabezpieczeniach. Problemy etyczne mogą dotyczyć w szczególności konkretnego celu kategoryzacji, stopnia wrażliwości zebranych danych i wyciągniętych wniosków, dokładności systemu, nadzoru ludzkiego, potencjalnej nieodwracalności skutków wywołanych przez system, jakiegokolwiek przechowywania i dalszego przetwarzania danych” – wskazano.
W zaleceniach eksperci zaznaczyli, że projekt rozporządzenia ws. sztucznej inteligencji z 21 kwietnia to krok „we właściwym kierunku, ale wciąż nie uwzględnia różnych kwestii etycznych”. Ich zdaniem Parlament powinien rozpatrzyć m.in. proponowaną przez nich poprawkę dotyczącą zmiany definicji zawartych w art. 3. „Definicje +systemu rozpoznawania emocji+ i +systemu kategoryzacji biometrycznej+ powinny być oddzielone od pojęcia +danych biometrycznych+ w rozumieniu RODO i raczej opierać się na nowej definicji +danych opartych na biometryce+. Także definicja +systemu zdalnej identyfikacji biometrycznej w czasie rzeczywistym+ w odniesieniu do identyfikacji biometrycznej powinna być odrobinę zmodyfikowana. Należy wprowadzić dodatkową definicję +wnioskowania biometrycznego+” – ocenili.
Zdaniem Think Tanku PE zmianie powinien ulec tytuł II zawierający wykaz zakazanych praktyk związanych ze sztuczną inteligencją. „Listę zakazanych praktyk w art. 5 ust. 1 należy wzbogacić przynajmniej o całkowity lub kompleksowy zakaz nadzoru nad osobami fizycznymi w ich życiu prywatnym lub zawodowym oraz zakaz naruszania prywatności i integralności psychicznej” – napisali.
Jak dodali autorzy raportu, w projekcie należy też dodać tytuł IIa dotyczący „ograniczonych zastosowań sztucznej inteligencji”. „Powinien on dotyczyć +zdalnej identyfikacji biometrycznej w czasie rzeczywistym+ (lub nawet +innych form zdalnej identyfikacji w czasie rzeczywistym+) w sposób bardziej kompleksowy” – czytamy.
Źródło: EuroPAP News