Moc obliczeniowa jest dziś najważniejszym zasobem świata. To ona determinuje tempo rozwoju i adaptacji AI, wysokie wyceny Big Techów oraz obecny, a co ważniejsze, przyszły poziom produktywności. Najbardziej namacalnym przykładem tego paradygmatu jest Nvidia. Kapitalizacja sięgająca 5 bilionów dolarów, osiągnięta w tempie bez precedensu w historii rynku publicznego, umacnia przekonanie, że paradygmat ten pozostanie z nami na długo, a jego skala oraz kluczowe trendy będą się intensyfikować. Nic więc dziwnego, że kapitał już dziś próbuje wyprzedzić rzeczywistość, wskazując następcę.

Rolę tę coraz częściej przypisuje się technologii kwantowej, co znajduje odzwierciedlenie w absurdalnych poziomach wycen oraz skrajnej zmienności spółek typu pure-play, mimo odpływów kapitału z sektora w końcówce roku. Kapitalizacje rzędu kilku miliardów dolarów, zestawiane z kilkubilionową wyceną NVIDII, tworzą wrażenie ogromnej asymetrii i obietnicy zysków rzędu tysiąckrotności w razie realizacji analogicznego scenariusza. Powszechne niezrozumienie tej technologii sprzyja narracji o „komputerze na sterydach”, maszynie wykonującej znane dziś procesy w niewyobrażalnym tempie. W rzeczywistości komputer kwantowy nie jest jednak uniwersalnym źródłem mocy obliczeniowej i nigdy nie był projektowany jako następca klasycznego compute’u. W przeciwieństwie do architektur CPU i GPU, opartych na trwałej pamięci, komputery kwantowe operują na ulotnych stanach kwantowych, bez możliwości pracy na dużych zbiorach danych. Obietnica ich wykorzystania bezpośrednio w treningu algorytmów ma w dużej mierze charakter narracyjny. Skala danych, na której działają systemy AI, nie mieści się w tym paradygmacie, a nawet najbardziej zaawansowane maszyny kwantowe, operujące na dziesiątkach czy setkach kubitów, nadają się co najwyżej do wąskich demonstracji eksperymentalnych. Fundamentem treningu i inferencji sieci neuronowych pozostaje masowe mnożenie dużych, gęstych macierzy, typ obliczeń, z którym znakomicie radzą sobie GPU dzięki równoległości. Nie istnieje dziś algorytm kwantowy oferujący fundamentalne przyspieszenie tej operacji dla struktur danych wykorzystywanych w praktycznych modelach AI.

Jeżeli więc zakładem pozostaje szeroka adaptacja AI, a komputery kwantowe nie otwierają drogi do uchwycenia nawet fragmentu tej przyszłości, pojawia się pytanie, gdzie należy jej szukać. Jednym z najbardziej obiecujących kierunków wydają się komputery fotoniczne. Fundamentem współczesnych workloadów AI pozostaje mnożenie macierzy, którego koszt w klasycznych architekturach GPU rośnie wielomianowo. Obliczenie dwóch gęstych macierzy n×n wymaga wyznaczenia n2 elementów, z których każdy jest sumą n iloczynów, co prowadzi do złożoności rzędu O(n3). Komputery kwantowe nie zmieniają tej zależności, pozostając w tej samej klasie obliczeń. Obietnica fotoniki polega natomiast na zmianie medium obliczeń, a nie algorytmu. Wykorzystując światło do realizacji operacji liniowych, architektury fotoniczne mogą wykonywać kluczowe transformacje fizycznie, a nie sekwencyjnie, dzięki czemu czas ich wykonania skaluje się łagodniej niż w klasycznym compute’cie. Na dziś pozostaje to jednak przede wszystkim obietnicą, największym wyzwaniem są bowiem koszt i opóźnienie konwersji między światem cyfrowym a analogowym, które w praktyce niwelują część zysków. Przyszłość nie należy do rozwiązań najpiękniejszych, lecz do tych, które najskuteczniej usuwają wąskie gardła ujawniające się w skali współczesnych obciążeń obliczeniowych.