Sztuczna inteligencja staje się niebezpieczna

Przybywa niebezpiecznych zjawisk przejmowania kontroli i odpowiedzialności za nasze zachowania przez inteligentne algorytmy.

Publikacja: 11.12.2019 05:00

Sztuczna inteligencja staje się niebezpieczna

Foto: Adobestock

Fundacja Centrum Cyfrowe i Klub Jagielloński opracowały raport, w którym wskazują konkretne przykłady, m.in. system profilowania bezrobotnych bez możliwości odwołania się, który Fundacja Panoptykon doprowadziła do uznania za niekonstytucyjny. Algorytm dzielił wszystkie zarejestrowane osoby nieaktywne zawodowo na trzy grupy różniące się stopniem gotowości do podjęcia pracy i rodzajem pomocy, jaką otrzymają z urzędu pracy (w trakcie rozmowy z urzędnikiem wypowiedzi bezrobotnego dopasowywano do specjalnego klucza i punktowano, po czym przyznawano mu określony profil). Eksperci wskazują również przykład systemu przypisywania dzieci do żłobków z Wrocławia, o którym głośno zrobiło się w ub.r. Źle zaprogramowany algorytm sprawił, że do placówki nie dostały się wtedy dzieci, którym przysługiwało miejsce.

Tylko 149 zł za rok czytania.

Zyskaj pełen dostęp do analiz, raportów i komentarzy na Parkiet.com

Technologie
Medicalgorithmics: Medtech celuje w zysk
Materiał Promocyjny
Tech trendy to zmiana rynku pracy
Technologie
All In! Games: audytor odmawia wydania opinii. Co na to zarząd?
Technologie
Firmy robią zbyt mało, by stawić opór hakerom
Technologie
Atende zamieniło straty w zyski. Akcje drożeją
Materiał Promocyjny
Lenovo i Motorola dalej rosną na polskim rynku
Technologie
Polskie firmy ciągle nie mogą wyjść z dołka
Technologie
yarrl z dużą umową. Akcje drożeją