Dlaczego każdy z nas może paść ofiarą dyskryminacji automatycznej

Podejmowanie decyzji o newralgicznych aspektach naszego codziennego życia przestaje być wyłącznie domeną ludzką.

Publikacja: 19.10.2021 05:00

dr Radosław L. Kwaśnicki, radca prawny, partner zarządzający w Kancelarii RKKW,

dr Radosław L. Kwaśnicki, radca prawny, partner zarządzający w Kancelarii RKKW,

Foto: materiały prasowe

Wiktoria Warszawska, młodszy asystent, Kancelaria RKKW – Kwaśnicki, Wróbel & Partnerzy.

Wiktoria Warszawska, młodszy asystent, Kancelaria RKKW – Kwaśnicki, Wróbel & Partnerzy.

materiały prasowe

Algorytmy towarzyszą nam w obszarach, takich jak służba zdrowia, procesy rekrutacyjne, marketing, bankowość. Technologie automatycznego rozpoznawania twarzy są wykorzystywane na coraz większą skalę, w tym przez organy ścigania. Nowe technologie stawiają przed nami wiele wyzwań. Jednym z bardziej naglących wyzwań jest dyskryminacja osób korzystających z nowych technologii przez sztuczną inteligencję. Coraz powszechniej spotykamy się bowiem z tzw. dyskryminacją automatyczną, czyli dyskryminującym traktowaniem pewnych grup osób w następstwie automatycznej analizy danych. Stworzenie algorytmów wolnych od tendencji dyskryminacyjnych okazuje się obecnie wyzwaniem nawet dla największych korporacji.

Skąd bierze się dyskryminacja?

Coraz więcej decyzji jest podejmowanych w oparciu o automatyczną analizę danych opartą na systemach AI. W jej efekcie może jednak dojść do dyskryminującego traktowania pewnych grup osób. Zasadniczym problemem wykorzystania algorytmów pozostaje bowiem fakt, że często umacniają one uprzedzenia, opierając się na historycznych wzorcach. Jeden z pierwszych głośnych przykładów dyskryminacji przez AI pochodzi jeszcze z lat 80. XX wieku, kiedy postanowiono zautomatyzować rekrutację do St. George's Hospital Medical School. Głównym założeniem było nie tyle usprawnienie procesu rekrutacji, co sprawienie, że będzie on wolny od ludzkich uprzedzeń. Efekty były jednak zgoła odmienne. Po kilku latach od wprowadzenia systemu rekrutacyjnego okazało się, że wprowadzony algorytm dyskryminował kobiety oraz osoby z „nieeuropejskimi" nazwiskami, odejmując im punkty w procesie rekrutacyjnym.

Kluczem transparentność

Nie bez powodu algorytmy AI bywają nazywane czarnymi skrzynkami. Procesy, które w nich zachodzą, są niezwykle złożone. Odtworzenie sposobu, w jaki algorytm stworzył określone wyniki, jest z kolei często po prostu niewykonalne. To właśnie brak transparentności mechanizmów AI wskazuje się jako jedno z podstawowych zagrożeń dla praw człowieka. W przestrzeni publicznej coraz częściej postuluje się, by tę transparentność wzmacniać lub budować. Niezależna grupa ekspertów wysokiego szczebla ds. sztucznej inteligencji, powołana przez Komisję Europejską w czerwcu 2018 r., wskazała, że to właśnie możliwość wyjaśnienia mechanizmów AI oraz ich przejrzystość stanowią jedne z postulowanych fundamentów dla osiągnięcia „godnej zaufania AI".

Kazus Amazona

Wykorzystanie algorytmów niesie za sobą duże ryzyko, choćby w systemach rekrutacyjnych. W 2018 r. Amazon rozwiązał opracowywany przez kilka lat projekt automatycznej rekrutacji, gdy okazało się, że system wykazuje dyskryminacyjne tendencje wobec kobiet. Pamiętajmy, że istotną rolę w takim systemie pełnią dane, w oparciu o które funkcjonuje algorytm. Jeśli ma on działać na podstawie danych z dotychczasowych procesów rekrutacyjnych prowadzonych w firmie, kluczowe będzie przeprowadzenie wcześniej audytu, czy na pewno dane te można uznać za neutralne (niedyskryminujące). W przypadku Amazona system, opierając się na danych z procesów rekrutacyjnych z ostatnich lat, zauważył, że więcej aplikujących do działów technologicznych to mężczyźni. Wobec tego algorytm „nauczył się" rozpoznawać, że będą oni zarazem kandydatami preferowanymi. Podobne tendencje może wykazać większość samouczących się algorytmów. Stąd ogromna odpowiedzialność spoczywa na osobach, które tworzą te algorytmy. Osoby te powinny dążyć do tego, by zapewnić, że wykorzystywane dane pozostaną maksymalnie neutralne i nie będą bazą dla dyskryminującego narzędzia.

Dlaczego algorytm dyskryminował?

Algorytmy trenowane na niereprezentatywnych zestawach informacji będą przejawiały trudności z identyfikacją osób spoza dominującej grupy. Jest to widoczne zwłaszcza na przykładzie narzędzi rozpoznawania twarzy. Badanie przeprowadzone w Massachusetts Institute of Technology wskazało, że skuteczność narzędzi rozpoznawania twarzy opartych na AI jest imponująca i sięga aż 99 proc. Niestety, dotyczyło to wyłącznie białych mężczyzn. Skuteczność ta spada bowiem w przypadku osób czarnoskórych, a pozostaje najniższa w przypadku czarnoskórych kobiet – gdzie osiąga 35 proc. W pracach nad poprawą skuteczności narzędzia kluczowe okazuje się jego szkolenie w oparciu o bardziej różnorodne wzorce.

Regulacja odpowiedzialności na poziomie wspólnotowym

Kwestia odpowiedzialności cywilnej za AI ma zostać uregulowana na poziomie wspólnotowym. 20 października 2020 r. Parlament Europejski przyjął rezolucję z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję (2020/2014(INL)). Jak zauważono w rezolucji: „wszystkie działania fizyczne czy wirtualne opierające się na systemach SI, urządzenia czy procesy, w których korzysta się z tych systemów, mogą zasadniczo być bezpośrednią lub pośrednią przyczyną szkody, a jednocześnie są one niemal zawsze wynikiem tego, że ktoś skonstruował lub wdrożył taki system albo ingerował w niego". Parlament zaznaczył przy tym, że nie jest konieczne nadawanie AI osobowości prawnej, lecz zgodnie z szeroko stosowanymi koncepcjami odpowiedzialności można uczynić odpowiedzialnymi osoby, które „tworzą, utrzymują lub kontrolują" ryzyko związane z AI.

Roszczenia dotkniętych dyskryminacją automatyczną

Osoba, która doświadczyła dyskryminacji automatycznej, nie musi czekać na nowe prawo unijne. Nie zapominajmy, że zgodnie z zasadami odpowiedzialności odszkodowawczej każdy, kto ze swojej winy wyrządził drugiemu szkodę, jest zobowiązany do jej naprawienia. Co prawda, na ten moment w Polsce nie ma praktyki orzeczniczej odnoszącej się do kwestii dyskryminacji w wyniku wykorzystania systemów AI, jednak należy potraktować to jako szansę. Wydaje się bowiem, że daje to możliwość kształtowania praktyki w tym zakresie od podstaw. Kryteria z rezolucji z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję mogłyby mieć tu charakter pomocniczy.

Pamiętajmy, że osobie dotkniętej dyskryminacją, oprócz roszczeń wynikających z odpowiedzialności odszkodowawczej na zasadach ogólnych, przysługują roszczenia choćby z zakresu prawa pracy oraz ochrony dóbr osobistych. Jeśli do dyskryminacji doszło podczas rekrutacji do pracy, osoba, która dyskryminacji doświadczyła, może oprzeć swoje roszczenie o art. 183d kodeksu pracy. Z kolei jednym z dóbr pozostających pod ochroną z mocy art. 23 kodeksu cywilnego jest cześć człowieka, której elementem wewnętrznym jest godność. Zgodnie zaś z wyrokiem Sądu Najwyższego z 11 kwietnia 2006 r. (sygn. akt: I PK 169/05): „Dyskryminacja jest nieuchronnie związana z naruszeniem godności drugiego człowieka, a poszanowanie tej godności jest nakazem nie tylko prawnym (art. 30 Konstytucji), lecz również moralnym". Oczekując więc na regulację odpowiedzialności cywilnej za AI na płaszczyźnie wspólnotowej, nie zapominajmy o mechanizmach ochronnych, jakie zapewnia prawo polskie.

Felietony
Wspólny manifest rynkowy
https://track.adform.net/adfserve/?bn=77855207;1x1inv=1;srctype=3;gdpr=${gdpr};gdpr_consent=${gdpr_consent_50};ord=[timestamp]
Felietony
Pora obudzić potencjał
Felietony
Kurs EUR/PLN na dłużej powinien pozostać w przedziale 4,25–4,40
Felietony
A jednak może się kręcić. I to jak!
Materiał Promocyjny
Cyfrowe narzędzia to podstawa działań przedsiębiorstwa, które chce być konkurencyjne
Felietony
Co i kiedy zmienia się w rozporządzeniu MAR?
Felietony
Dolar na fali, złoty w defensywie