Obecnie dyskusja o handlu wysokiej częstotliwości dotyczy oszczędności zaledwie 3,2 nanosekundy. Aby to zwizualizować, w ciągu jednej nanosekundy najszybszy możliwy sygnał, którym jest światło w próżni, może przebyć jedynie trzydzieści centymetrów. To sprawia, że handel wysokiej częstotliwości jest niezwykle wrażliwy na długość kabli łączących serwery z systemami giełd oraz lokalizację wież transmitujących sygnały między centrami danych.

Najnowsza kontrowersja dotyczy zawiłego technicznego manewru, w którym brokerzy wysokiej częstotliwości zapychają frankfurcką giełdę Eurex bezużytecznymi danymi. Za działaniem tym kryje się odkryta niedawno prawidłowość. Okazało się, że dzięki utrzymaniu odpowiedniej temperatury połączeń z giełdą można reagować ułamkowo szybciej na informacje poruszające rynkami. Francuska firma handlowa Mosaic Finance złożyła skargę do Eurex i europejskich regulatorów, twierdząc, że grupa firm zajmujących się handlem wysokiej częstotliwości wykorzystała tę praktykę do zgarnięcia setek milionów dolarów. Według ustaleń przedstawionych przez Mosaic Finance, ultraszybkie strategie zyskują nielegalną przewagę poprzez wysyłanie z góry przygotowanych zniekształconych fragmentów danych, które mogą omijać narzędzie analizy, a następnie uzupełniają swoje oferty, aby wygrać kilka nanosekund przewagi w kolejności zleceń. Brokerzy rzekomo wysyłają miliony zleceń na sekundę, przekraczając limit Eurex wynoszący trzydzieści tysięcy na sekundę, co daje im przewagę konkurencyjną.

Eurex stanowczo odrzuca te oskarżenia, uzasadniając, że to decyzja sądu administracyjnego, który orzekł, że Mosaic nie ma podstaw do zmuszenia niemieckiego nadzoru do interwencji. Mosaic następnie złożył skargę do Europejskiego Urzędu Nadzoru Giełd i Papierów Wartościowych. Wówczas Eurex w odpowiedzi stwierdził, że najnowsze oskarżenia podniesione przez jedną firmę nie mają żadnej merytorycznej podstawy. Na razie niemiecka giełda w kwietniu planuje zastąpić limity pakietów Ethernet w wyniku modernizacji infrastruktury monitorowania kolokacji.

Obecna sytuacja to kolejny rozdział w trwającym od dekad starciu między ultraszybkimi firmami handlowymi, które prowadzą nieustanny wyścig o minimalne przewagi w szybkości. Pierwotnie handel wysokiej częstotliwości budował swoją przewagę na kolokacji, czyli umieszczaniu serwerów możliwie blisko systemów giełdy. Drugim etapem było przejście z włókien optycznych na transmisję mikrofalową. Okazało się, że mikrofale poruszające się w powietrzu doświadczają mniej niż 1 proc. redukcji prędkości w porównaniu do światła przemieszczającego się w próżni. Stanowiło to znaczącą zmianę, bo konwencjonalne włókna optyczne pracują ponad 30 proc. wolniej. Trzecią technologią są zaawansowane algorytmy, czyli automatyczne systemy handlowe reagujące w czasie rzeczywistym.Warto podkreślić, że gra idzie o wielkie pieniądze, bo skala zysków w tym biznesie jest ogromna. Virtu Financial, czyli jedna z największych firm wykorzystujących handel wysokiej częstotliwości w swoim biznesie, tylko w 2024 r. osiągnęła przychody na poziomie 2,8 mld dolarów. Wiązało się z handlem ponad 11 tysiącami aktywów, na 25 różnych platformach obrotu i realizacją 5 milionów transakcji dziennie. Przy tej okazji trzeba pamiętać o drugim ryzyku systemowym, jakie niesie handel wysokiej częstotliwości. Najgłośniejszym wydarzeniem w tym przypadku był „flash crash”. Na giełdach amerykańskich 6 maja 2010 r. indeks Dow Jones Industrial Average spadł w kilka minut o prawie 1000 punktów (około 9 proc.), by do końca sesji odzyskać większość strat.

Spór o „3,2 nanosekundy” pokazuje, jak daleko zaszedł wyścig o szybkość w finansach i przypomina najważniejsze przesłanie książki Michaela Lewisa „Flash Boys”. W sytuacji, gdy przewaga mierzona jest w miliardowych częściach sekundy, granica między uczciwą optymalizacją a potencjalnym manipulowaniem rynkiem staje się niezwykle cienka. Lewis w swojej publikacji z 2014 r. opisał, jak firmy HFT wykorzystują mikrosekundowe przewagi do wyprzedzania zleceń zwykłych inwestorów, co oznaczało, że rynek był przeciwko drobnym uczestnikom. Dzisiejsza kontrowersja wokół „utrzymywania temperatury połączeń” to kolejna odsłona tej samej historii – technologia i rynek ponownie wyprzedziły regulacje. Dlatego tak ważna w tej sytuacji staje się rola regulatora. Czy wysyłanie bezużytecznych danych w celu utrzymania temperatury połączeń to legalna strategia optymalizacji, czy jednak forma manipulacji rynkiem, którą Lewis opisywał dekadę temu? Obecna sytuacja to kolejny przykład tego, jak wielką wagę ma budowanie uczciwego i transparentnego rynku dla wszystkich inwestorów, nie tylko dla tych z najszybszymi połączeniami.