Prognozowanie rynku akcji

Aktualizacja: 06.02.2017 03:01 Publikacja: 07.12.1999 09:50

Sieci neuronowe

Poniższy tekst prezentuje wyniki kontynuacji badań opisanych w artykule z 19.02.1999 (Parkiet 35/1203)na temat konstruowania systemu neuronowego, służącego do generowania prognoz dla rynku akcji. Tam też Czytelnik może znaleźć więcej szczegółowych informacji.

Obecnie pragniemy skoncentrować się na rezultatach osiągniętych w wyniku pewnych zmian, jakie zostały wprowadzone do systemu w ciągu minionych 8 miesięcy. Znaczna część istotnych dla jego funkcjonowania założeń jest aktualna (wielkość wyjściowa - prognozowana, wyprzedzenie i horyzont czasowy prognoz, część wejść, użycie wielu sieci neuronowych).Zmiany dotyczą przede wszyst-kim tworzenia wielkości wejściowych, a zostały podyktowane m.in. następującymi względami:1) dążeniem do rozszerzenia systemu o nowe walory i indeksy2) chęcią zwiększenia precyzji prognoz3) brakiem możliwości rozwiązania pewnych problemów (o których niżej) dotychczasowymi metodami.Tendencja wymieniona w punkcie 2 przypomina nieco wyścig fizyków do uzyskiwania temperatur coraz bliższych absolutnemu zeru. Każdy ułamek stopnia okupiony bywa długotrwałymi badaniami i testami. Przyspieszenie tego procesu wymaga niekiedy radykalnej zmiany podejścia do problemu.Dane wejścioweNeuronowe systemy prognostyczne dla rynków finansowych otrzymują zwykle wiele danych technicz-nych, fundamentalnych lub makroekonomicznych (w zależności od rodzaju analiz), na podstawie których wyciągają wnioski dotyczące przyszłego zachowania rynku. Pełnią one zatem rolę analityka. Przy takim podejściu do konstruowania sieci zachodzi konieczność rozwiązania dwóch podstawowych problemów:1) wyboru konkretnych wielkości wejściowych dla sieci,2) określenia parametrów dla przyjętych już wielkości (np. długości średnich, parametry MACD, ROC itp.).Trudności rosną jeszcze, gdy korzysta się z danych nie związanych bezpośrednio z rynkiem akcji, np. kursów walut, cen niektórych surowców czy danych makroekonomicznych.Niestety, nie istnieje jedno właściwe podejście do tych zagadnień, co wynika choćby z faktu, że parametry optymalizacji różnią się (i to czasem dość znacznie) dla poszczególnych walorów, podczas gdy system neuronowy musi być na tyle elastyczny, by objąć cały rynek. W praktyce wszystko sprowadza się do tworzenia wielu konfiguracji wejść i ich testowania pod kątem zgodności prognoz z rzeczywistym, interesującym nas wyjściem, którego znajomość ma nam pomóc w podejmowaniu decyzji inwestycyjnych.Jakość sygnałówW tego typu systemach główny nacisk został położony na zadanie predykcji. W trakcie obserwacji rodzimego rynku akcji doszliśmy do wniosku, że bardzo istotnym czynnikiem wpływającym na jakość sygnałów kupna i sprzedaży jest eliminacja fałszywych sygnałów, które pojawiają się przeważnie w trendach bocznych. Naszą pracę skoncentrowaliśmy na pozbyciu się tych sygnałów. W znacznym stopniu zdołaliśmy to uczynić, jednak musieliśmy się zgodzić na nieco późniejsze zajmowanie pozycji na rynku. Mimo to okazało się, że takie sygnały są o wiele bardziej wartościowe i pewne. Rola sieci sprowadza się więc do określenia, czy bieżący dołek (szczyt) stanowił moment przesilenia rynku przed uformowaniem się średnioterminowego trendu. Musi to być oczywiście wykonane odpowiednio szybko (na początku kształtowania się trendu). Powyższe zadanie łączy w sobie zarówno predykcje, jak i identyfikacje.Inspiracją dla naszych badań stały się tzw. sieci autoasocjacyjne. Idea ich działania polega na tym, że sieć otrzymuje na wejściach przebieg czasowy, który traktowany jest jak zniekształcona przez szum rzeczywista wielkość wyjściowa, czyli tzw. wzorzec.W tym miejscu należy zastrzec, że istnieje zasadnicza różnica pomiędzy typowymi sieciami, których zadaniem jest filtrowanie autoasocjacyjne (redukcja szumów), a sieciami skonstruowanymi przez nas. Otóż w naszym przypadku podawane na wej-ścia sieci wartości nie powstają w wyniku nałożenia na "czysty" wzorzec zakłóceń w postaci szumów. Otrzymujemy je w sposób zupełnie niezależny od rzeczywistego przebiegu prognozowanego wyjścia. Ponadto w naszym przypadku, oprócz filtrowania, mamy do czynienia z predykcją, gdyż istnieje przesunięcie czasowe wielkości wyjściowej. Uznaliśmy jednak, że sama idea jest na tyle interesująca, iż warto pójść w tym kierunku.Rzecz jasna, podanie na wejścia sieci prawdziwej wielkości wyjściowej nie jest możliwe, gdyż nie pozwala na to niezbędne wyprzedzenie czasowe prognoz. Zresztą prognozowanie w takiej sytuacji byłoby zbędne, gdyż i bez tego czasochłonnego procesu dysponowalibyśmy odpowiednio wcześnie wszystkimi interesującymi nas danymi. Skoro jednak chęć prognozowania nas nie opuszcza, to należy skupić się na poszukiwaniach przebiegu czasowego, zbudowanego z bieżących (a więc dostępnych bez żadnych opóźnień) danych, który to przebieg byłby zbliżony w jak najwyższym stopniu do interesującego nas wyjścia. Wtedy mógłby on być (w przybliżeniu wynikającym z poczynionych uprzednio zastrzeżeń) traktowany przez system neuronowy jak wzorzec zniekształcony szumami. Skonstruowanie takiego przebiegu jest zagadnieniem kluczowym dla dalszych prac nad sieciami służącymi głównie do filtrowania szumów. Sieć taka charakteryzuje się m.in. tym, że ma tyle samo wejść, ile wyjść. Wektor wejściowy jest traktowany jako wzorzec "zaszumiony". Wektorem wyjściowym, czyli nauczycielem sieci jest natomiast "czysty", a zatem pozbawiony szumu wzorzec. Trening (proces nauczania) sieci jest po prostu próbą oczyszczenia wektora wejściowego z szumu.Przypominamy, że interesujący nas horyzont czasowy prognoz to kilkanaście sesji. W związku z tym jako wielkości wyjściowej używamy impetu średniej arytmetycznej SK-15 kursu, z kilkunastosesyjnym wyprzedzeniem czasowym. O niektórych zaletach tej wielkości pisaliśmy w poprzednim artykule. Na tym etapie prac okazało się, że ma ona jeszcze jedną istotną z naszego punktu widzenia cechę: możliwe jest znalezienie dla niej przebiegu, który może być uważany za zakłócony szumem wzorzec. Korelacja tego przebiegu z rzeczywistym wyjściem w całym dostępnym okresie (ponad 1650 sesji dla indeksu WIG) wynosi ok. 0,86. Jest więc bardzo wysoka jeszcze przed poddaniem jej filtracji (redukcji szumu) przez zespół sieci neuronowych. Natomiast odsetek błędów w znaku (sesji, na których znak uzyskanego przebiegu różni się od znaku wyjścia rzeczywistego) to ok. 20 procent.W wyniku filtracji przez zespół sieci parametry te zmieniają się następująco: korelacja prognozy z wyj-ściem (badana dla danych wejściowych obejmujących ok. 500 ostatnich sesji, których sieci nie były uprzednio uczone) sięga 0,91, odsetek błędów w znaku spada zaś do 8-9 procent. Dla porównania przypomnijmy, że odpowiednie wyniki otrzymane przy zastosowaniu poprzedniej wersji systemu neuronowego to 0,871 (korelacja) i 12,7 procent (odsetek błędów w znaku). Trzeba sobie uzmysłowić, że spadek liczby błędów w znaku z 12,7 proc., do 8 proc., oznacza ich redukcję niemal o 40 proc., a zgodność znaków jest podstawowym warunkiem podejmowania prawidłowych decyzji.Wykres 1 przedstawia przebieg "zaszumionego" wzorca przed filtracją na tle rzeczywistego wyjścia. Wykres 2 ukazuje ten sam przebieg po redukcji szumu przez system neuronowy.Konstrukcja portfelaNiestety, nie udało nam się do tej pory stworzyć sieci dokonujących selekcji najlepszych sygnałów (np. na zasadzie rankingu). Postanowiliśmy jednak zbadać, jak zachowywałby się portfel, wykorzystujący wszystkie wygenerowane przez sieci sygnały (bez żadnej subiektywnej selekcji).Przeprowadziliśmy kilka różnych testów, zakładając wysokość prowizji maklerskiej na poziomie 0,5 proc.W pierwszym teście sprawdziliśmy zachowanie portfela, w którym wszystkie sieciowe sygnały są wykorzystywane przez całą długość ich trwania. Ograniczyliśmy maksymalny udział jednego waloru w portfelu do 20 proc. Po pierwszym sygnale za 20 proc. środków kupujemy akcje wskazanej spółki. Tak dzieje się aż do pojawienia się szóstego sygnału. Wówczas znajdujemy się w sytuacji, kiedy brakuje już środków na zakup kolejnych walorów. Aby jednak skorzystać z nowego sygnału, redukujemy w równym stopniu udział wszystkich spółek tworzących do tej pory portfel na rzecz nowych akcji. W momencie przebudowy portfela wszystkie spółki mają w nim równy udział.Drugi test przeprowadziliśmy tak jak pierwszy, ograniczając jedynie liczbę branych pod uwagę spółek. W kolejnych wariantach rozpatrywaliśmy odpowiednio: dwadzieścia, trzydzieści, czterdzieści i sześćdziesiąt spółek mających największy udział w WIG-u. Tylko te spółki mogły tworzyć portfel, a inne sygnały były ignorowane, co umożliwiło eliminacje spółek najmniejszych, pozbawionych często odpowiedniej płynności.Należy zwrócić uwagę, że przy konstrukcji portfela, odpowiadającej dwóm pierwszym testom, może on zawierać bardzo wiele różnych walorów, a koszty prowizji są znaczne (każdy sygnał kupna i sprzedaży powoduje transakcje na wszystkich spółkach z portfela). Aby uniknąć powyższych niedogodności w teście trzecim, ograniczyliśmy maksymalną liczbę sygnałów tworzących portfel do: pięciu, dziesięciu, piętnastu i dwudziestu. Rozpatrzmy wariant z maksymalną liczbą 10 walorów w portfelu. W takim przypadku po pojawieniu się pierwszego sygnału kupujemy odpowiednie akcje za 10 proc. wartości portfela. Po drugim sygnale 20 proc. stanowią akcje. Tak dzieje się aż do wygenerowania 11. sygnału. Po jego pojawieniu się likwidujemy pozycję na spółce, będącej najdłużej w portfelu, na rzecz najnowszej spółki wskazanej przez sieci neuronowe. Przy kolejnych sygnałach postępujemy analogicznie.Zwroty z zainwestowanego kapitału za pierwsze trzy kwartały 1999 roku dla wszystkich testów i wariantów przedstawione zostały w tabeli. Przy stopach zwrotu za cały analizowany okres przedstawiliśmy dwie wielkości: pierwsza to procent składany, a druga suma zwrotów z wszystkich miesięcy. Ta druga miara eliminuje wpływ początkowego okresu na cały zwrot. Wszystkie miesiące mają taki sam wpływ na cały wynik, w przeciwieństwie do metody procentu składanego.

Ryszard Łukoś

Zbigniew Łukoś

Autorzy są analitykami

w Beskidzkim Domu Maklerskim

Gospodarka
Podatek Belki zostaje, ale wkracza OKI. Nowe oszczędności bez podatku
Gospodarka
Estonia i Polska technologicznymi liderami naszego regionu
Gospodarka
Piotr Bielski, Santander BM: Mocny złoty przybliża nas do obniżek stóp
Gospodarka
Donald Tusk o umowie z Mercosurem: Sprzeciwiamy się. UE reaguje
Gospodarka
Embarga i sankcje w osiąganiu celów politycznych
Gospodarka
Polska-Austria: Biało-Czerwoni grają o pierwsze punkty na Euro 2024