Coraz częściej spotykamy się z informacjami prasowymi czy doniesieniami agencyjnymi na temat pracujących na rynkach finansowych robotów, które wnikliwie analizują zarówno wszystko to, co dzieje się na samych parkietach, jak również wokół nich – a więc w poszczególnych spółkach czy wręcz całych gospodarkach.
Problem tkwi jednak w tym, że najczęściej słyszymy o nich przy okazji dramatycznych wydarzeń związanych z większymi lub mniejszymi krachami na giełdach.
Analizując potencjalne przyczyny dynamicznych przecen, winnych szuka się właśnie wśród robotów, czy też ściślej mówiąc – programów komputerowych zajmujących się składaniem zleceń. Tymczasem jedną z najważniejszych przyczyn pojawiających się wokół tego tematu nieporozumień jest sama definicja tego pojęcia. Okazuje się bowiem, że uczestnicy prowadzonych dyskusji często mają na myśli różne rodzaje programów, o różnorodnych zastosowaniach.
Mówiąc o automatyzacji handlu czy handlu algorytmicznym, bardzo często myślimy o programach, które na bieżąco pobierają dane rynkowe (najczęściej ceny różnych instrumentów finansowych), przetwarzają je zgodnie z pewną zaszytą w ich wnętrzu logiką, generują na podstawie precyzyjnie określonych reguł decyzyjnych sygnały inwestycyjne oraz składają odpowiednie zlecenia na rachunku brokerskim. Jednak zarówno pierwotne zastosowania, jak i klasyczna definicja handlu algorytmicznego, odnosiły się do prostszych programów, których głównym zadaniem była tylko i wyłącznie optymalna realizacja na rynku dużych zleceń (poprzez podział na mniejsze). Oczywiście tego typu programy w pierwszej kolejności stosowały duże firmy inwestycyjne – przede wszystkim fundusze inwestycyjne, które wprowadzając zmiany w składzie swoich znacznych portfeli, często napotykały problem polegający na powodowaniu istotnych zmian cen rynkowych kupowanych lub sprzedawanych aktywów. Wdrożenie takich rozwiązań było możliwe w latach 90. przede wszystkim dzięki rozwojowi technologii systemów giełdowych, a także upowszechnieniu się handlu elektronicznego umożliwiającego składanie zleceń za pośrednictwem komputerów i Internetu.
Dalszy rozwój technologiczny w końcu lat 90. doprowadził do ukształtowania się nowej, zdecentralizowanej struktury rynków finansowych, którą obserwujemy dziś w Europie Zachodniej czy Stanach Zjednoczonych. Obok tradycyjnych rynków giełdowych i terminowych intensywnie zaczął się wtedy rozwijać segment rynków pozagiełdowych (OTC), w postaci tzw. sieci ECN (Electronic Communication Network), umożliwiających wymianę aktywów z pominięciem giełd, bezpośrednio pomiędzy zainteresowanymi stronami, oraz tzw. Dark Pools, czyli platform kojarzących zlecenia inwestorów na podobnej zasadzie jak ECN, z tym że z zachowaniem pełnej anonimowości uczestników obrotu. Taka struktura rynku finansowego, w którym te same lub podobne aktywa (np. instrumenty pochodne) można dziś kupować lub sprzedawać na co najmniej kilku rynkach jednocześnie, otworzyła przed tradingiem algortymicznym nowe perspektywy. Oprócz dotychczasowych możliwości dzielenia dużych zleceń na mniejsze automaty transakcyjne mogły teraz dodatkowo przekazywać je do kilku platform naraz. Jednocześnie pojawiły się nowe szanse zarabiania pieniędzy związane z istnieniem naturalnych różnic w wycenie tych samych lub wysoko skorelowanych ze sobą aktywów na różnych rynkach. Stąd też szybko pojawiły się nowe instytucje – przede wszystkim fundusze hedge, które wyspecjalizowały się w wykorzystywaniu technik arbitrażu i nowe szanse zaczęły przekuwać na realne zyski.