„AI-boom” to bardzo duża teza inwestycyjna, w którą zaangażowane są już niebotyczne pieniądze. Budowanie gigantycznych, prądożernych centrów danych tam, gdzie tylko jest to możliwe - a w wielu miejscach, w których możliwe to nie jest lub zwyczajnie nie ma sensu (np. w kosmosie) - nie jest jedynie próbą subsydiowania sektora hardware’owego i budowlanego przez spółki technologiczne.
Problem z tą tezą jest obecnie taki, że w założeniu ma ona wyglądać jak kolumna, a najlepiej „lejek”, a przypomina klepsydrę - co mam przez to na myśli?
Hossa AI to bardzo długi łańcuch wartości, zaczynający się od spółek wydobywczych, a następnie przechodzący przez sektor energetyczny i budowlany. Kolejno łańcuch biegnie przez producentów półprzewodników, pamięci i serwerów, by ostatecznie stworzyć wartość na samym szczycie dzięki spółkom z obszaru AI, software’u oraz chmury. W miarę jak wspinamy się po tym łańcuchu, produkty i usługi stają się bardziej niszowe, specjalistyczne, często abstrakcyjne, ale również - wysokomarżowe.
To, na czym dziś zarabiają spółki powiązane z AI (jeśli zarabiają), to nie końcowa faza tezy inwestycyjnej. Dziś spółki te zarabiają na optymalizacji już istniejących procesów oraz udostępnianiu rozwiązań/mocy obliczeniowej na potrzeby trenowania lub działania modeli AI.
Nie, sedno tezy wzrostowej to analogia do historii wzrostu Microsoftu czy Google’a, które zbudowały swoje imperia na łatwo skalowalnej i wysoko marżowej działalności. Spadek kosztów mocy obliczeniowej oraz przesyłu danych umożliwiłby tworzenie coraz bardziej zaawansowanych modeli i agentów AI, modeli i agentów, których tworzenie i używanie dziś jest albo niemożliwe, albo skrajnie nierentowne. Te, kontynuując łańcuch wartości, mogłyby generować coraz wyższe marże. To z czasem oznacza, że będziemy mogli zaobserwować największe w historii dźwignie operacyjne, co będzie pozwalać na generowanie trudnych do wyobrażenia wzrostów. Jaki jest z tym problem?
O gigantycznych centrach danych można powiedzieć wiele rzeczy, ale nie są one ani wysoko marżowe, ani łatwo skalowalne. Obecne plany ekspansji to wciąż przybliżona prognoza tego, ile mocy obliczeniowej będzie potrzeba do osiągnięcia wystarczającego efektu skali - a nie jasna deklaracja czy cel, do którego można dążyć w przewidywalny sposób.
Poza np. dostępnością energii czy cenami surowców coraz większym widmem stają się koszty amortyzacji i deprecjacji. Platformy i oprogramowanie, na których „big tech” opierał swoje modele biznesowe do tej pory, nie wymagały konserwacji, nie zużywały się, a ich ewentualna modernizacja wymagała jedynie zespołu inżynierów. Przy CAPEX-ie, który wielkością przyćmiewa program Apollo, problem utraty wartości środków trwałych z pozycji marginalnej z czasem może stać się krytyczną wrażliwością całego modelu biznesowego.
„Klepsydry” czy „lejki” i ich kształt odnoszą się do rentowności poszczególnych warstw łańcucha wartości. Nigdy nie dostaniemy „fantastycznie” rentownych usług i rozwiązań opartych o AI, jeśli środkowy segment nie znajdzie sposobu na monetyzowanie swojej działalności. O ile laboratoria takie jak OpenAI czy Anthropic wciąż mogą cieszyć się niemal nieograniczonym finansowaniem ogromnych strat, jakie przynoszą, a duże spółki takie jak Microsoft czy Google mają działalność podstawową, której zysk mogą kanalizować na potrzeby CAPEX-u, to słabość całego ekosystemu objawia się na przykładzie mniejszych spółek, takich jak Oracle czy CoreWeave.
Kamil Szczepański
Analityk Rynków Finansowych XTB