Toen Nvidia in mei zijn verkoopvoorspelling bekendmaakte, werd de marktwaarde van het bedrijf geschat op meer dan 1 biljoen dollar. Momenteel blijft de kapitalisatie van Nvidia op dit niveau, en de aandelen zijn sinds het begin van het jaar met 200% gestegen. Weinig mensen weten echter dat deze groei te danken is aan een chip: een computercomponent. Het gaat specifiek om de H100, de nieuwste grafische verwerkingseenheid, ontworpen voor datacenters. Maar wat maakt deze chip zo bijzonder?
Wat is de H100 precies? De H100 is een grafische processor, vergelijkbaar met die in pc’s, maar in tegenstelling tot traditionele grafische chips, die zorgen voor realistische beelden en hoge prestaties in 4K-resolutie, zoals de bekende GeForce-kaarten, is de H100 niet ontworpen om afbeeldingen te genereren. In plaats daarvan is deze chip geoptimaliseerd voor het verwerken van enorme hoeveelheden gegevens met een hoge snelheid.
Nvidia, opgericht in 1993, was een pionier op deze markt en investeert al bijna twintig jaar in technologieën voor dergelijke taken. Onder leiding van CEO en medeoprichter Jen-Hsun Huang, geloofde het bedrijf toen al dat het de moeite waard was om in parallelle verwerkingstechnologieën te investeren, zodat Nvidia-chips op een dag waardevol zouden worden buiten de gamingwereld.
Tegenwoordig is Jen-Hsun Huang miljardair, met een geschat vermogen van ongeveer 38 miljard dollar, terwijl Nvidia een marktwaarde van 1,06 biljoen dollar heeft. Slechts enkele bedrijven ter wereld hebben een waarde van meer dan 1 biljoen dollar, waaronder Amazon ($1,3 biljoen), Alphabet ($1,56 biljoen), Saudi Aramco ($2 biljoen), Microsoft ($2,52 biljoen) en Apple ($2,94 biljoen).
Wat maakt de Nvidia H100 zo uniek? Generatieve AI-platforms, zoals ChatGPT, werken op een onconventionele manier. Ze maken gebruik van machine learning om specifieke taken te leren, zoals tekstvertaling of het schrijven van code. Dit leerproces gaat gepaard met veel fouten, en enorme hoeveelheden data zijn nodig om AI de juiste training te geven. Hoe meer data beschikbaar is, hoe beter AI taken kan uitvoeren. Dit leren door vallen en opstaan vereist echter een enorme rekenkracht.
Dit is waar de H100-chip van pas komt. Deze nieuwste Nvidia-chip is vier keer sneller dan zijn voorganger, de A100, bij het trainen van algoritmen, zoals grote taalmodellen (LLM). OpenAI, de makers van ChatGPT, gebruiken bijvoorbeeld de A100-chip in hun platform. Voor bedrijven die hun LLM’s willen trainen, zijn chips die de hoogste prestaties leveren van onschatbare waarde.
Nvidia heeft voorlopig weinig concurrentie Als bedrijf gespecialiseerd in grafische chips heeft Nvidia op dit moment weinig sterke concurrenten. Twintig jaar geleden realiseerde het bedrijf zich dat de meerdere dataverwerkingskernen van hun grafische processors, oorspronkelijk ontwikkeld voor games, ook voor andere toepassingen konden worden gebruikt. Hierdoor konden de grafische chips fungeren als versnellers voor niet-gamingtoepassingen, zoals AI.
Nvidia besloot destijds dat het de moeite waard was om deze richting in te slaan, ook al waren er nog weinig andere toepassingen voor grafische chips dan beeldverwerking. Vandaag, nu generatieve AI steeds meer aandacht krijgt, passen de processors van Nvidia perfect bij de behoeften van deze technologie.
De positie van Nvidia in dit segment is zo sterk dat het bedrijf ongeveer 80% van de AI-acceleratormarkt beheerst, met datacenters die worden beheerd door Amazon AWS, Google Cloud en Microsoft Azure. Hoewel deze techgiganten de cloudinfrastructuur leveren, zijn het de chips van Nvidia die zorgen voor de hoge prestaties van hun machines.
Andere chipfabrikanten, met name AMD en Intel, werken aan soortgelijke oplossingen. Voorlopig is het echter Nvidia, met de H100-chip aan kop, die de grootste indruk maakt op de markt en wiens processors het meest gewild zijn bij AI-bedrijven. Zelfs Elon Musk heeft dit jaar ongeveer 10.000 van deze systemen gekocht om AI-ontwikkelingen te ondersteunen, zonder specifieke plannen. Hij zei dat alle grote spelers het doen, dus heeft hij ook de nodige processors besteld. Inmiddels weten we dat Twitter naar verluidt ook aan zijn eigen AI-project werkt.
Kunnen startups ook H100-systemen bestellen?
Ja, iedereen kan deelnemen aan de AI-race, maar ze moeten wel diepe zakken hebben. AI-processors zijn namelijk erg duur. Losse H100-kaarten kunnen bij detailhandelaren meer dan $10.000 per stuk kosten. Dit geeft een goed beeld van de hardwarekosten die bedrijven moeten maken om hun eigen AI-projecten te ondersteunen.
AMD probeert de achterstand in te halen
Andere chipmakers zien duidelijk wat er op de markt gebeurt. De aandelenkoers van Nvidia blijft stijgen, met reden: de datacenterdivisie van het bedrijf zag de omzet in 2022 met 41% toenemen (tot $15 miljard), en de huidige verkoopprognoses liggen veel hoger dan Wall Street-analisten hadden verwacht.
Intel heeft Xeon-processors die complexere taken aankunnen dan die van Nvidia, maar het probleem is hun relatief lage prestaties. Nvidia’s chips, zoals die uit de GeForce-lijn, zijn veel sneller in het verwerken van gegevens die nodig zijn voor AI-training.
Daarnaast kampt Intel met een probleem doordat de vraag naar grafische chips voor datacenters momenteel sneller groeit dan naar centrale verwerkingseenheden (CPU’s) – de typische processors waarin Intel traditioneel sterk was. Vandaag de dag worden de meeste laptops nog steeds aangedreven door Intel Core-processors.
AMD, de op een na grootste fabrikant van grafische chips, presenteerde in juni dit jaar de Instinct-lijn. De Instinct MI300X-chip van AMD zou uitstekend geschikt zijn voor het verwerken van generatieve AI-taken. Toch gaf Lisa Su, de CEO van AMD, tijdens de lancering van deze processors aan dat AMD nog veel meer te bieden heeft en zich nog in een vroeg stadium bevindt. De aandelen van AMD hebben dit jaar ook een sterke winst behaald, met een stijging van 70-75%.
Voorlopig blijft Nvidia echter de marktleider, wat weerspiegeld wordt in de grote vraag naar zowel de A100- als de H100-systemen, evenals in de stijgende aandelenkoers.