Akcje części spółek będących dostawcami dla koncernu Alphabet (Google) mocno rosły podczas wtorkowej sesji. Papiery koreańskiej spółki IsuPetasys Co. (dostawcy wielowarstwowych płytek dla Alphabetu) skoczyły aż o 18 proc., a akcje tajwańskiej spółki MediaTek Inc. wzrosły o prawie 5 proc. Alphabet zyskiwał ponad 4 proc. w handlu przedsesyjnym w Nowym Jorku, a Nvidia traciła ponad 3,5 proc. Inwestorzy reagowali w ten sposób na doniesienia portalu The Information mówiące, że Meta Platforms prowadzi rozmowy w sprawie wykorzystania chipów Google – znanych jako jednostki przetwarzania tensorowego (TPU) – w centrach danych w 2027 roku. Meta może również wynająć chipy od działu chmury Google już w przyszłym roku. Inwestorzy potraktowali te doniesienia jako sygnał tego, że chipy TPU mogą stać się poważną konkurencją dla produktów Nvidii.
Czym są chipy tensorowe (TPU)?
Alphabet zawarł już wcześniej umowę na dostawę nawet miliona swoich chipów TPU dla spółki Anthropic. Owe chipy tensorowe (po raz pierwszy opracowane ponad 10 lat temu specjalnie do zadań związanych ze sztuczną inteligencją) zyskują na popularności jako sposób na trenowanie i uruchamianie złożonych modeli AI. Ich atrakcyjność jako alternatywy wzrosła w momencie, gdy firmy na całym świecie martwią się nadmierną zależnością od produktów Nvidii, która zdominowała rynek jednostek przetwarzania grafiki (GPU). Chipy GPU powstały po to, by przyspieszać renderowanie grafiki ( głównie w grach wideo i innych aplikacjach efektów wizualnych), ale okazały się idealnie nadawać również do trenowania modeli AI, ponieważ potrafią obsługiwać ogromne ilości danych i obliczeń. TPU są natomiast chipami zaprojektowanymi do określonych aplikacji. Znalazły one zastosowanie jako akceleratory do zadań AI i uczenia maszynowego we własnych aplikacjach Google, a ponieważ Google i jego jednostka DeepMind rozwijają najnowocześniejsze modele AI, koncern może wykorzystywać badania nad tymi modelami dla ulepszania projektów chipów.
- Jeśli jest to właściwa aplikacja, to mogą one zapewnić znacznie lepszą wydajność w przeliczeniu na dolara w porównaniu z GPU. Zużywają też znacznie mniej energii i wytwarzają mniej ciepła niż GPU. Są bardziej energooszczędne i mają mniejszy ślad środowiskowy – właśnie to sprawia, że są pożądanym rozwiązaniem. Zastosowania są nieco bardziej ograniczone niż w przypadku GPU – nie są tak uniwersalne – ale dla konkretnej aplikacji mogą oferować nawet 1,4-krotnie lepszą wydajność w przeliczeniu na dolara, co stanowi bardzo znaczną oszczędność dla klienta, który rozważa użycie GPU zamiast TPU – stwierdził anonimowy były pracownik Google Cloude w rozmowie z portalem AlphaSense.
„Prawdopodobne wykorzystanie przez Metę TPU Google (które już są używane przez Anthropic) pokazuje, że zewnętrzni dostawcy dużych modeli językowych w najbliższym czasie będą prawdopodobnie korzystać z Google jako dodatkowego dostawcy akceleratorów do inferencji. Szacujemy, że nakłady inwestycyjne Mety w wysokości co najmniej 100 mld USD w 2026 r. oznaczają, że w przyszłym roku wyda ona co najmniej 40–50 mld USD na moce obliczeniowe do inferencji” - oceniają analitycy Bloomberg Intelligence.