Nowy układ B300 firmy Nvidia generuje obecnie większość przychodów firmy z AI, podczas gdy starszy układ H100 spadł poniżej 10 proc. Analiza obejmuje układy firm Nvidia, Google, Amazon, AMD i Huawei.
Firma Epoch AI opublikowała kompleksową bazę danych dotyczącą sprzedaży układów AI, w której szacuje, że ten sprzęt łącznie zużywa ponad 10 gigawatów energii – mniej więcej dwa razy tyle, ile Nowy Jork. Dane te opierają się na raportach finansowych i szacunkach analityków, ponieważ dokładne dane dotyczące sprzedaży często nie są ujawniane bezpośrednio. Zbiór danych jest dostępny bezpłatnie i ma na celu zapewnienie transparentności w zakresie mocy obliczeniowej i zużycia energii.
Rozkład globalnej mocy obliczeniowej AI
• Nvidia kontroluje ok. 65 proc. i pozostaje podstawą szkolenia AI, jednocześnie przejmując coraz większy udział w we wnioskowaniu, w miarę jak przechodzi z H100/H200 do B200/B300.
• Google kontroluje ok. 15 proc., a TPU v7 szybko się rozwija, ale ta moc obliczeniowa jest w dużej mierze wewnętrzna i nie stanowi szerokiej konkurencji na otwartym rynku.
• Amazon kontroluje ok. 10 proc. poprzez Trainium i Inferentia, które są wykorzystywane głównie do kontrolowanego kosztowo wnioskowania i obrony marży AWS, a nie do zastępowania procesorów graficznych ogólnego przeznaczenia.