Robodoradztwo a odpowiedzialność za błędne rekomendacje

Coraz większy postęp technologiczny wymusza zmiany w sferze prawnej. Dotyczy to również prawnych aspektów zastosowania sztucznej inteligencji (AI) czy uczenia maszynowego (machine learning). W przypadku rynku kapitałowego wykorzystanie tych technologii pozwala na rozwój robodoradztwa.

Publikacja: 09.06.2020 05:00

Joanna Róg-Dyrda, Prof. Marek Wierzbowski i Partnerzy

Joanna Róg-Dyrda, Prof. Marek Wierzbowski i Partnerzy

prof. Marek Wierzbowski, partner w kancelarii Prof. Wierzbowski i Partnerzy

prof. Marek Wierzbowski, partner w kancelarii Prof. Wierzbowski i Partnerzy

materiały prasowe

Zastosowanie tego modelu doradztwa inwestycyjnego ma znacznie obniżyć koszty świadczenia usługi, a przez to ją upowszechnić wśród klientów m.in. domów maklerskich.

Robodoradztwo rozumiane jako generowanie zindywidualizowanych rekomendacji dotyczących transakcji instrumentami finansowymi kwalifikowane jest jako usługa doradztwa inwestycyjnego. Wiąże się więc z koniecznością uzyskania zezwolenia na świadczenie usług maklerskich. Jak dotąd brak było szerszych regulacji lub stanowisk dotyczących wykorzystania sztucznej inteligencji w tym obszarze. Wynika to po części z tego, że jest to usługa stosunkowo nowa, a po części z modelu funkcjonowania doradztwa inwestycyjnego w Polsce. Nawet jeśli przy świadczeniu usługi doradztwa inwestycyjnego wykorzystuje się w jakiś sposób nowe technologie, to w praktyce rola AI czy machine learning jest niewielka. Klienci są zainteresowani prostymi produktami, zaś udział AI wymaga „nakarmienia" systemu danymi. Przy prostych produktach i nieskomplikowanych zachowaniach takich brakuje. Ale to może się zmienić w dość niedalekiej przyszłości – podmioty działające na rynku fintech oferują coraz to nowsze rozwiązania, na które decydują się domy maklerskie. Konkurencja wśród firm inwestycyjnych wymaga zaś rozszerzenia oferty. Wreszcie klienci zaczynają interesować się także nowszymi i bardziej skomplikowanymi produktami (ETF-y etc.). Wychodząc naprzeciw tym potrzebom, UKNF opublikował projekt stanowiska dotyczącego robodoradztwa, który skierowano do konsultacji. Sam projekt należy ocenić pozytywnie – odnosi się w jasny sposób do dotychczasowych regulacji (m.in. ustawy o obrocie i rozporządzenia 2017/565), wcześniejszych stanowisk UKNF (np. tzw. stanowiska chmurowego) i zawiera praktyczne rozwiązania dotyczące potencjalnych stanów faktycznych i rozwiązań, jakie powinny być brane pod uwagę w związku z rozwojem robodoradztwa.

Publikacja projektu stanowiska UKNF zbiegła się przy okazji z opublikowaniem projektu rozporządzenia unijnego dotyczącego odpowiedzialności za szkody powstałe z wykorzystaniem systemów AI. Unijna propozycja legislacyjna dotyczy co prawda odpowiedzialności cywilnej (a przecież domy maklerskie odpowiadają przed KNF na zasadach odpowiedzialności administracyjnej), ale pokazuje, jakie wyzwania mogą stać przed osobami wdrażającymi robodoradztwo w danym podmiocie i na co będzie trzeba zwrócić uwagę, dokonując analiz związanych z rozwojem tej usługi. Może się bowiem okazać, że wraz z rozbudową systemu, zaangażowaniem bardziej skomplikowanych algorytmów poziom zaangażowania AI w świadczenie usługi będzie tak daleki, że nowe regulacje znajdą zastosowanie.

Zarówno prawo polskie, jak i przepisy unijne nie różnicują sytuacji klientów w zależności od tego, czy rekomendacji udziela im pracownik domu maklerskiego, czy jest ona generowana przez algorytm. W każdym z tych przypadków jest to doradztwo inwestycyjne (jeśli rekomendacja jest zindywidualizowana), za ewentualne szkody związane z nieprawidłowym świadczeniem usług odpowiada zaś firma inwestycyjna. Na takim stanowisku stał i stoi UKNF. Jednocześnie UKNF w projektowanym stanowisku wyraźnie wskazał szereg obszarów, w których na firmie inwestycyjnej spoczywają szczególne obowiązki, kładąc silny nacisk na udział komórki compliance w proces kształtowania i wdrażania usługi robodoradztwa. Wydaje się, że jednym z takich obszarów jest zabezpieczenie prawne odpowiedzialności za szkody, które mogą powstać w związku z wykorzystaniem AI, zwłaszcza w sytuacji, w której w warstwie technologicznej mamy do czynienia z outsourcingiem.

Wspomniane wyżej projektowane rozporządzenie odnosi się do odpowiedzialności za szkody poczynione w związku z wdrożeniem systemów AI. Dotyczy wszelkich szkód lub uszczerbków (zarówno w odniesieniu do zdrowia i życia, jak i własności) i rozróżnia systemy, których wykorzystanie wiąże się z wyższym ryzykiem (np. drony czy automatyczne pojazdy), a co za tym idzie z szerszą odpowiedzialnością oraz pozostałe przypadki wykorzystywania systemów AI. Wprowadza wreszcie pewną siatkę pojęciową. W projekcie przyjęto m.in. definicję wdrażającego (deployer), który zasadniczo ma ponosić odpowiedzialność za szkody wynikające z wdrożenia AI. Ma to być podmiot, który decyduje o wykorzystaniu AI, sprawuje kontrolę nad AI i czerpie korzyści z wykorzystania AI.

Przy takiej definicji można założyć, że w przyszłości firma inwestycyjna wykorzystująca zaawansowane rozwiązania AI do świadczenia usługi robodoradztwa będzie uznana za wdrażającego w rozumieniu projektowanych przepisów. A zatem firma inwestycyjna będzie odpowiadać za szkody wywołane użyciem AI także na zasadach określonych w przyszłych regulacjach. Oznacza to, że w przypadku powstania szkody wynikającej z użycia AI przy świadczeniu usługi robodoradztwa rozszerzone mogą zostać podstawy odpowiedzialności – oprócz dotychczasowych regulacji wejdą w grę także podstawy odpowiedzialności wynikające z projektowanego rozporządzenia. Wiąże się to zatem z potencjalnie szerszą ochroną klienta (klient korzystający z usługi robodoradztwa będzie mógł powołać się na przepisy rozporządzenia o odpowiedzialności w przeciwieństwie do klienta, który będzie korzystał z nazwijmy to „tradycyjnych" metod doradztwa).

Sam zakres odpowiedzialności będzie jednak uzależniony od tego, jaki jest zakres wykorzystania AI przy świadczeniu usługi robodoradztwa. Na ten moment w praktyce przy świadczeniu usług doradztwa inwestycyjnego zaangażowanie skomplikowanych algorytmów jest niewielkie. Zdecydowanie szerzej AI wykorzystywana jest choćby w branży ubezpieczeniowej. W stanowisku UKNF, wychodząc niejako w przyszłość, wyraźnie rozróżniono jednak dwa modele świadczenia usługi – pierwszy opiera się na pełnym zautomatyzowaniu usługi, która jest świadczona w pełni bez kontaktu z pracownikiem domu maklerskiego, a drugi opiera się na automatyzacji przygotowania (wygenerowania) rekomendacji, która następnie jest przekazywana pracownikowi, który przekazuje ją dalej klientowi. Naturalnie w tym pierwszym modelu będzie istniało szersze wykorzystanie AI, a zatem potencjalnie w szerszym zakresie możliwość powstania szkody spowodowanej jej działaniem. Natomiast w drugim modelu dotyczyć to będzie tylko tej części, w której generowana jest rekomendacja. Jeżeli zatem to pracownik nieprawidłowo przekaże ją klientowi, to wyłączona będzie odpowiedzialność za działanie AI.

Na ten moment rozporządzenie unijne jest jedynie propozycją legislacyjną, zaś stanowisko UKNF przykładem, kiedy organ reaguje na przyszłość, tworząc ramy dla rozwoju danego produktu. Oba dokumenty pokazują jednak kierunek rozwoju regulacji dotyczących użycia AI i z tego względu nie mogą być pominięte przy pracach nad wdrożeniem AI w obszarze robodoradztwa. Zabezpieczenie prawne odpowiedzialności (w tym choćby wykupienie choćby rozszerzonego ubezpieczenia) pozwoli w przyszłości na szybsze dostosowanie się do wprowadzanych rozwiązań. Jest to wyzwanie zarówno dla zarządów, jak i prawników firm inwestycyjnych.

Felietony
Kryptowaluty w natarciu
Felietony
Emisje bez prospektu
Felietony
30 lat z WIG20
Felietony
Co czeka rynek venture capital w Polsce?
Felietony
Dwie strony medalu
Felietony
Rozważając błędy młodości. I błędy w ogóle