Wiara w technologię kontra zdrowy rozsądek
Rozpoczynając samodzielne inwestowanie na rynkach finansowych trzeba zdać sobie sprawę, że znaczna część rynkowych przeciwników to komputery.
Obecnie najsilniejsze maszyny obliczeniowe zaprzęgnięte są do pracy przy niemal każdym elemencie podejmowania decyzji inwestycyjnej. Komputery skutecznie pomagają w budowaniu strategii i modeli ekonomicznych. Skutkiem tego mamy rozbudowaną (na razie głównie na Zachodzie) branżę informatycznego wsparcia podejmowania decyzji inwestycyjnych. W tej grupie znajdziemy pasjonatów, którzy samodzielnie piszą skrypty do popularnych programów analizy technicznej (MetaStock, Tradestation, czy rodzimego Amibrokera).
Zadaniem skryptów jest generowanie na bazie zadanych warunków sygnałów kupna i sprzedaży. Jeśli program posiada odpowiednie funkcje, sygnały te mogą być od razu zamieniane na zlecenia wysyłane na rynek. Oprócz samotnych konstruktorów w tej grupie mieszczą się olbrzymie ośrodki badawcze, skupiające sławy matematyki i fizyki (łącznie z laureatami nagrody Nobla), których zadaniem jest budowanie skomplikowanych modeli rynkowych wyciskających z najnowszych cudów techniki siódme poty.
Inwestowanie przy użyciu modeli matematycznych ma tylu zwolenników, ilu przeciwników
Mariaż komputerów i rynków finansowych zaczął się w latach 70-tych XX wieku. Na początku opierał się głównie na sposobach przekazywania zleceń na parkiet. W tamtych czasach komputery nie były zbyt popularne z racji swoich gabarytów i raczej marnych możliwości. Stan ten zaczął się zmieniać w końcówce lat 70-tych, a przybrał na sile w latach 80-tych XX wieku, gdy królowały już komputery oparte na półprzewodnikach. Wtedy zaczęto je zaprzęgać nie tylko do obsługi zleceń, czy też, nieco później, do faktycznego kojarzenia zleceń i zawierania transakcji, ale również do opracowywania metod, które miały wspierać podejmowanie decyzji inwestycyjnych i przynosić zyski.
W roku 1978 rozpoczął działalność James Simons, król grupy inwestorów umownie zwanych „ąuants”. Nazwa pochodzi od słowa quantitative, czyli ilościowy i w uproszczeniu określa grupę analityków, posługujących się analizami ilościowymi danych rynkowych przy podejmowaniu decyzji inwestycyjnych. W tej grupie mieszczą się zarówno ci, którzy posługują się metodami statystycznymi, jak i ci, którzy badają szeregi zmiennych i zależności między nimi za pomocą skomplikowanych modeli matematycznych. Dość powiedzieć, że Simons rekrutuje sobie pracowników (choć nie tylko on, bo w taki sposób działa wiele podmiotów) wśród matematyków, fizyków, czy inżynierów, którzy nie mają bladego pojęcia, na jakiej zasadzie działają rynki finansowe. Ich zadaniem jest obrabianie milionów danych i wyłapywanie prawidłowości.
50 proc. nawet taki odsetek wszystkich zleceń na Euronext jest dzisiaj generowany automatycznie przez komputery
Rozwój komputerów to także usilne prace nad implementacją marzenia współczesnego człowieka o zbudowaniu sztucznej inteligencji. Maszyna myśląca, sama miałaby podejmować decyzję na bazie błyskawicznego dostosowywania się do warunków tynkowych. Część analityków poszła w kierunku sieci neuronowych, których zadaniem jest uczenie się zachowań zadanych przez człowieka zmiennych oraz budowanie prognoz. Tu jednym z bardziej znanych osobistości jest Ray Kurzweil, ekscentryk codziennie zażywający ponad 150 witamin i suplementów diety, przekonany, że z czasem człowiek będzie mógł żyć wiecznie. On i jego koledzy doszli do wniosku, że nie ma sensu narzucać algorytmów maszynie. Niech ona sama znajdzie prawidłowości na rynkach. Efektem jest powstanie np. funduszy HG Trading, które operują jednocześnie na 1500 parach akcji i zawierają dziennie po 2 tysiące transakcji.
Szukanie korelacji i zależności między różnymi instrumentami jednak nie wystarcza. W celu poszerzenia bazy danych, jakie może przetwarzać komputer, rozbudowano metody przetwarzania danych tekstowych. Trwają prace nad programami czytającymi wiadomości prasowe czy analizującymi… prognozy pogody.
Zanim jednak „quants” i inni na poważnie rozwiną skrzydła muszą pojawić się pomocne im narzędzia. Przychodzi czas na pojęcie handlu programowanego (program trading) czyli rzucanych na rynek jednocześnie wielu zleceń na wiele instrumentów (koszyk zleceń). Takie grupy zleceń często były generowane przez komputery. W latach 80-tych korzystano z tego głównie przy arbitrażu między rynkami akcji, a rynkiem instrumentów pochodnych na indeksy akcyjne. Nowojorska giełda NYSE definiuje program trading, jako kosz zleceń dotyczących minimum 15 spółek z indeksu S&P500 lub kosz zleceń dotyczących indeksu S&P500, których wartość w sumie przekracza 1 min dolarów.
Dynamiczny rozwój zleceń wspieranych przez komputery stał się w pewnym momencie problemem. W 1987 r. system giełdy nowojorskiej był w stanie przetworzyć 95 zleceń na sekundę (obecnie jest to 700 razy więcej, a planuje się wkrótce podwoić drożność systemu). W tym też roku miał miejsce największy w historii jednodniowy spadek wartości indeksu DI JA. W poniedziałek (który później nazwano czarnym poniedziałkiem) 19 października średnia przemysłowa Dow Jones straciła 22,6 procent. Za jeden z głównych czynników, który stal za tym spadkiem, uznano właśnie zlecenia w ramach program trading, które reagowały na zmiany na rynku terminowym. Rynek terminowy, jako szybszy, pierwszy przyjmuje impulsy, a w tym wypadku były to tylko impulsy negatywne z rynku kasowego (doszło do swoistego zapętlenia informacji).
Po tym wydarzeniu program trading chciano przyciąć, by już więcej nie wywoływać takich fluktuacji. W tym celu wprowadzono hamulce, czyli zawieszenie możliwości składania zleceń w ramach program trading przy większych zmianach indeksu DJIA. Na początku listopada ubiegłego roku, już po doświadczeniach letniej przeceny związanej z załamaniem rynku kredytów subprime, hamulce zostały wycofane, jako narzędzia nie spełniające pokładanych w nich nadziei. Obecnie, w sytuacji większych wahań (a właściwie większych spadków), giełda zawiesza handel na godzinę, dwie, lub do końca dnia.
Amaranth to fundusz hedgingpwy, który w ciągu zaledwie jednego tygodnia stracił5 mld USD na pozycjach związanych z gazem ziemnym. Strata miesięczna we wrześniu , 2006 r. wyniosła 55 proc. Także i W tym wypadku problemem okazało się zmarginalizowanie czynnika płynności. Pozycja funduszu na rynku gazüubyła .tak duża, że nie mógł jej szybko zamknąć. W efekcie cały portfel został przejęty przez bank J.P. Morgan i fundusz Citadel Investment Group LLC. Obecnie przeciwko zarządzającym Amaranth, a w szczególności Brianowi Hunterowi (głównemu autorowi metody, na bazie której działa fundusz) wytoczone zostały ciężkie działa: seria procesów dotyczących manipulacji kursem gazu ziemnego
Król w kłopotach
Ślepa wiara w technologię przyniosła rozczarowanie matematycznemu guru James Simons, król „quants”, ma słaby początek roku. Jego fundusz Medalion, w latach 1989-2006, osiągał średnią stopę zwrotu wynoszącą 38,5 proc. (stopa netto, a więc po odliczeniu wszelkich opłat). Od 1999 r. nie odnotował kwartału o ujemnej stopie zwrotu. Mało tego -w trakcie trzech pierwszych kwartałów ubiegłego roku przekroczyła ona 50 procent. Mowa o okresie, pamiętnego załamania na rynkach związanego z kredytami hipotecznymi wysokiego ryzyka – subprime. Pierwszy kwartał bieżącego roku nie był już tak dobre. Jego fundusz Renaissance Institutional Equities Fund na koniec marca 2008 r. wykazał spadek wartości względem szczytu z maja ubiegłego roku o 12 procent.
John Thain, szef nowojorskiej giełdy, uważa, że powszechność zleceń generowanych przez komputery może prowadzić do powtórki sytuacji z czarnego poniedziałku. Według Thaina, obecnie trzecia część wszystkich zleceń napływających na NYSE jest składana automatycznie przez komputery, a za dwa lata będą one odpowiadały za połowę wszystkich zleceń spływających na rynek. Szacuje się, że na Euronext już teraz blisko 50 proc. zleceń jest generowana przez komputery.
Modele matematyczne
Prace na sztuczną inteligencją, postępująca digitalizacja obrotu… Czy to wszystko zmierza do wyrugowania człowieka z rynku? Szybkość kalkulacji z pewnością jest po stronie komputerów. Liczba wariantów, jakie mogą w ciągu sekundy przetworzyć maszyny, jest zdecydowanie większa od możliwości ludzkiego mózgu. Może to prowadzić do wniosku, że powoli zbliżamy się do futurystycznej wizji, w której maszyny robią wszystko za człowieka, podczas gdy ten sobie odpoczywa (od czego skoro nie pracuje?). Wizja o tyle kusząca, co wątpliwa.
Dynamiczny rozwój zleceń wspieranych przez komputery coraz
częściej jest dla inwestorów problemem, niż rzeczywistym wsparciem
Postępujący proces mechanizacji inwestycji na rynkach finansowych ma w tle potrzebę obiektywizacji podejmowanych decyzji, a więc nadzieję na zbudowanie modelu idealnego, który będzie skuteczny w każdych warunkach i przyniesie ponadprzeciętną stopę zwrotu. Poszukiwania Świętego Graala trwają setki lat. Teraz przeniosły się również na rynki finansowe. Wielu szuka czegoś, co zapewni stały sukces, klucza do zrozumienia chaosu świata, a przynajmniej istoty zmian na rynkach finansowych. Paradoksalnie, już na starcie takie poszukiwania nie mają większego sensu. Owszem, można oczekiwać, że budowany model będzie przez jakiś czas spełniać swoje zadanie. Rzeczywistość, także ta rynkowa, jest jednak dynamiczna i zmienna. Zmieniają się jej cechy. Pewne czynniki stają się ważniejsze, a inne tracą na znaczeniu. Proces ten jest płynny, a więc i trudny do uchwycenia.
Wreszcie musimy zdać sobie sprawę, że model idealny nie może istnieć, bo nie da się w pełni odwzorować rzeczywistości. Zresztą, nawet gdyby założyć czysto teoretycznie, że istnieje możliwość pojawienia się modelu idealnego, albo mocno do tego ideału zbliżonego, to należałoby z czasem oczekiwać pogorszenia jego wyników.
W pewnym momencie, przy odpowiedniej skali, nasze decyzje miałyby coraz większy wpływ na ceny rynkowe, a w konsekwencji model miałby wpływ na dane wejściowe, co przy jego budowaniu nie miało miejsca. W efekcie zmalałaby jego skuteczność. Jak uczy historia (głośne upadki funduszy LTCM i Amaranth, czy ostatnie straty związane z zapaścią na rynku nieruchomości), spadek skuteczności nie jest procesem łagodnym, ale zwykle prowadzi do błyskawicznego bankructwa nawet najlepszych modeli. Tu powodem jest zachwianie racjonalności w podejmowanym ryzyku. Wiara w model skłania do ignorowania jego słabszych wyników, co sprawia, że kolejne słabsze wyniki grzebią fundusz.
Wynik walki człowieka z maszyną nie jest więc wcale przesądzony. Komputery będą powszechne, ale raczej nie ma co liczyć, że znajdą nam cudowną metodę. Tu nadal pozostanie wiele miejsca na subiektywizm i ludzką intuicję.
Kamil Jaros, Forbes
Komentarze
Skomentuj