Reklama

Sztuczna inteligencja staje się niebezpieczna

Przybywa niebezpiecznych zjawisk przejmowania kontroli i odpowiedzialności za nasze zachowania przez inteligentne algorytmy.
Sztuczna inteligencja staje się niebezpieczna

Foto: Adobestock

Fundacja Centrum Cyfrowe i Klub Jagielloński opracowały raport, w którym wskazują konkretne przykłady, m.in. system profilowania bezrobotnych bez możliwości odwołania się, który Fundacja Panoptykon doprowadziła do uznania za niekonstytucyjny. Algorytm dzielił wszystkie zarejestrowane osoby nieaktywne zawodowo na trzy grupy różniące się stopniem gotowości do podjęcia pracy i rodzajem pomocy, jaką otrzymają z urzędu pracy (w trakcie rozmowy z urzędnikiem wypowiedzi bezrobotnego dopasowywano do specjalnego klucza i punktowano, po czym przyznawano mu określony profil). Eksperci wskazują również przykład systemu przypisywania dzieci do żłobków z Wrocławia, o którym głośno zrobiło się w ub.r. Źle zaprogramowany algorytm sprawił, że do placówki nie dostały się wtedy dzieci, którym przysługiwało miejsce.

Wiosenna promocja -50% na Parkiet.com z NYT!

Wiosenna promocja dotyczy rocznej subskrypcji Parkiet.com w pakiecie z The New York Times.

Kliknij i poznaj warunki

Reklama
Reklama
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama