Reklama
Rozwiń
Reklama

AI na cenzurowanym

Rozwój sztucznej inteligencji może wyhamować. USA mają już wytyczne dla firm z branży, ważą się losy powołania globalnego regulatora ds. tej technologii.
AI na cenzurowanym

Foto: Adobe Stock

W środę w Buckinghamshire w W. Brytanii rusza szczyt AI. Udział wezmą w nim członkowie grupy G7 oraz przedstawiciele UE. Inicjatywie przewodzi brytyjski premier Rishi Sunak, który ostrzega, iż sztuczna inteligencja „niesie ze sobą nowe niebezpieczeństwa i lęki”, których „łagodzenie musi stać się globalnym priorytetem”.

Jeszcze przed startem szczytu opracowano zarys 11-punktowego kodeksu, który ma promować tworzenie bezpiecznych algorytmów i godnej zaufania AI. Zawiera on jednak dobrowolne wytyczne dla firm z tego sektora. Mimo to koncerny z tego sektora wcale jednak nie bronią się przed odpowiedzialnością za technologię, którą tworzą. Giganci przyznają, że ryzyko jest duże. Świadczy zresztą o tym fakt, że OpenAI, twórca ChatGPT, powołał tzw. zespół gotowości. Ma on być swoistym bezpiecznikiem – ma śledzić, oceniać, prognozować i chronić przed zagrożeniami związanymi ze sztuczną inteligencją. Jego zadaniem jest „zapobieganie katastrofalnemu ryzyku”, jakie może wywołać sztuczna inteligencja. A to, jak wskazuje OpenAI w komunikacie, może mieć nawet charakter „chemiczny, biologiczny czy nuklearny”. Co ciekawe, na czele zespołu stanął Polak – Aleksander Mądry (profesor Massachusetts Institute of Technology).

Wiosenna promocja -50% na Parkiet.com z NYT!

Wiosenna promocja dotyczy rocznej subskrypcji Parkiet.com w pakiecie z The New York Times.

Kliknij i poznaj warunki

Reklama
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama