Sztuczna inteligencja staje się niebezpieczna

Przybywa niebezpiecznych zjawisk przejmowania kontroli i odpowiedzialności za nasze zachowania przez inteligentne algorytmy.

Publikacja: 11.12.2019 05:00

Sztuczna inteligencja staje się niebezpieczna

Foto: Adobestock

Fundacja Centrum Cyfrowe i Klub Jagielloński opracowały raport, w którym wskazują konkretne przykłady, m.in. system profilowania bezrobotnych bez możliwości odwołania się, który Fundacja Panoptykon doprowadziła do uznania za niekonstytucyjny. Algorytm dzielił wszystkie zarejestrowane osoby nieaktywne zawodowo na trzy grupy różniące się stopniem gotowości do podjęcia pracy i rodzajem pomocy, jaką otrzymają z urzędu pracy (w trakcie rozmowy z urzędnikiem wypowiedzi bezrobotnego dopasowywano do specjalnego klucza i punktowano, po czym przyznawano mu określony profil). Eksperci wskazują również przykład systemu przypisywania dzieci do żłobków z Wrocławia, o którym głośno zrobiło się w ub.r. Źle zaprogramowany algorytm sprawił, że do placówki nie dostały się wtedy dzieci, którym przysługiwało miejsce.

Skorzystaj z promocji i czytaj dalej!

Zyskaj pełen dostęp do analiz, raportów i komentarzy na Parkiet.com

Technologie
Prawnik dzieci Zygmunta Solorza o sporze o sukcesję: do ugody wystarczy dobra wola
Technologie
Start-upy bez pieniędzy. „Panuje lęk przed ryzykiem”
Technologie
Czy grozi nam cybernetyczna kapitulacja?
Technologie
Minecraft nie wystarczył. Półrocze kin pod kreską
Technologie
Jakie wyniki Orange Polska w II kwartale? Pierwsze prognozy
Technologie
Które sieci komórkowe wybierali polscy użytkownicy? Zwycięzca jest jeden