Wiktoria Warszawska, młodszy asystent, Kancelaria RKKW – Kwaśnicki, Wróbel & Partnerzy.
Algorytmy towarzyszą nam w obszarach, takich jak służba zdrowia, procesy rekrutacyjne, marketing, bankowość. Technologie automatycznego rozpoznawania twarzy są wykorzystywane na coraz większą skalę, w tym przez organy ścigania. Nowe technologie stawiają przed nami wiele wyzwań. Jednym z bardziej naglących wyzwań jest dyskryminacja osób korzystających z nowych technologii przez sztuczną inteligencję. Coraz powszechniej spotykamy się bowiem z tzw. dyskryminacją automatyczną, czyli dyskryminującym traktowaniem pewnych grup osób w następstwie automatycznej analizy danych. Stworzenie algorytmów wolnych od tendencji dyskryminacyjnych okazuje się obecnie wyzwaniem nawet dla największych korporacji.
Skąd bierze się dyskryminacja?
Coraz więcej decyzji jest podejmowanych w oparciu o automatyczną analizę danych opartą na systemach AI. W jej efekcie może jednak dojść do dyskryminującego traktowania pewnych grup osób. Zasadniczym problemem wykorzystania algorytmów pozostaje bowiem fakt, że często umacniają one uprzedzenia, opierając się na historycznych wzorcach. Jeden z pierwszych głośnych przykładów dyskryminacji przez AI pochodzi jeszcze z lat 80. XX wieku, kiedy postanowiono zautomatyzować rekrutację do St. George's Hospital Medical School. Głównym założeniem było nie tyle usprawnienie procesu rekrutacji, co sprawienie, że będzie on wolny od ludzkich uprzedzeń. Efekty były jednak zgoła odmienne. Po kilku latach od wprowadzenia systemu rekrutacyjnego okazało się, że wprowadzony algorytm dyskryminował kobiety oraz osoby z „nieeuropejskimi" nazwiskami, odejmując im punkty w procesie rekrutacyjnym.
Kluczem transparentność
Nie bez powodu algorytmy AI bywają nazywane czarnymi skrzynkami. Procesy, które w nich zachodzą, są niezwykle złożone. Odtworzenie sposobu, w jaki algorytm stworzył określone wyniki, jest z kolei często po prostu niewykonalne. To właśnie brak transparentności mechanizmów AI wskazuje się jako jedno z podstawowych zagrożeń dla praw człowieka. W przestrzeni publicznej coraz częściej postuluje się, by tę transparentność wzmacniać lub budować. Niezależna grupa ekspertów wysokiego szczebla ds. sztucznej inteligencji, powołana przez Komisję Europejską w czerwcu 2018 r., wskazała, że to właśnie możliwość wyjaśnienia mechanizmów AI oraz ich przejrzystość stanowią jedne z postulowanych fundamentów dla osiągnięcia „godnej zaufania AI".
Kazus Amazona
Wykorzystanie algorytmów niesie za sobą duże ryzyko, choćby w systemach rekrutacyjnych. W 2018 r. Amazon rozwiązał opracowywany przez kilka lat projekt automatycznej rekrutacji, gdy okazało się, że system wykazuje dyskryminacyjne tendencje wobec kobiet. Pamiętajmy, że istotną rolę w takim systemie pełnią dane, w oparciu o które funkcjonuje algorytm. Jeśli ma on działać na podstawie danych z dotychczasowych procesów rekrutacyjnych prowadzonych w firmie, kluczowe będzie przeprowadzenie wcześniej audytu, czy na pewno dane te można uznać za neutralne (niedyskryminujące). W przypadku Amazona system, opierając się na danych z procesów rekrutacyjnych z ostatnich lat, zauważył, że więcej aplikujących do działów technologicznych to mężczyźni. Wobec tego algorytm „nauczył się" rozpoznawać, że będą oni zarazem kandydatami preferowanymi. Podobne tendencje może wykazać większość samouczących się algorytmów. Stąd ogromna odpowiedzialność spoczywa na osobach, które tworzą te algorytmy. Osoby te powinny dążyć do tego, by zapewnić, że wykorzystywane dane pozostaną maksymalnie neutralne i nie będą bazą dla dyskryminującego narzędzia.