0

ChatGPT is niets. Nvidia H100 zal betere AI trainen

Toen Nvidia in mei zijn verkoopvoorspelling bekendmaakte, schatte het zijn marktwaarde op ruim $1 biljoen. Momenteel blijft de kapitalisatie van het bedrijf op dit niveau en hebben de aandelen sinds het begin van het jaar een winst van 200% gegenereerd. Weinig mensen weten echter dat de reden voor dit succes een chip is: een computeronderdeel. Concreet gaat het om de H100, de nieuwste grafische verwerkingseenheid gericht op datacenters. Wat is er de moeite waard om erover te weten?

ChatGPT is niets. Nvidia H100 zal betere AI trainen

Wat is de H100 eigenlijk? Dit is een grafische processor, vergelijkbaar met die in pc’s. Dit is echter geen typische grafische chip die realistische visuele ervaringen en hoge prestaties in 4K-resolutie biedt, zoals de populaire GeForce grafische kaarten. In tegenstelling tot zijn computertegenhangers is de H100 niet afgesteld en geoptimaliseerd om afbeeldingen te genereren, maar om gegevens (enorme hoeveelheden gegevens) op hoge snelheid te verwerken.

Nvidia, een bedrijf dat al sinds 1993 bestaat, was een pionier op deze markt. Het investeert al zo’n twintig jaar in technologie voor precies dit soort taken. De specialisten van het bedrijf, onder leiding van CEO en mede-oprichter Jen-Hsun Huang, waren toen al van mening dat het de moeite waard was om te investeren in technologische oplossingen voor parallel werk. Dit was bedoeld om de chips van Nvidia op een dag waardevol te maken voor niet-gamingtoepassingen.

Tegenwoordig is Jen-Hsun Huang een miljardair wiens fortuin wordt geschat op ongeveer 38 miljard dollar, en Nvidia heeft een marktkapitalisatie van 1,06 biljoen dollar. Laten we hieraan toevoegen dat er niet veel bedrijven zijn met een kapitalisatie van meer dan 1 biljoen dollar – momenteel zijn het alleen Amazon ($1,3 biljoen), Alphabet ($1,56 biljoen), Saudi Aramco ($2,0 biljoen), Microsoft ($2,52 biljoen) en Apple (2,94 biljoen dollar).

De Nvidia H100 is een unieke chip op de markt. Maar waarom?

Generatieve kunstmatige-intelligentieplatforms, zoals het populaire ChatGPT, werken op een nogal ongebruikelijke manier. Ze gebruiken machine learning om specifieke taken te leren uitvoeren, zoals het vertalen van teksten of het schrijven van programmeercode.

Dit leren neemt echter een nogal primitieve vorm aan: om een bepaalde vaardigheid onder de knie te krijgen, maakt kunstmatige intelligentie eerst veel fouten. Er moeten enorme databases met materialen en gegevens aan de algoritmen worden verstrekt, zodat de AI passende training op een bepaald gebied kan krijgen. Hoe meer data we aanleveren, hoe beter de kunstmatige intelligentie later individuele taken aankan. Het is leren met vallen en opstaan, maar in tegenstelling tot mensen moet AI nog veel meer van dit soort fouten maken.

ChatGPT is niets. Nvidia H100 zal betere AI trainen

Voordat kunstmatige intelligentie bedreven wordt in het maken van rapportsamenvattingen of het schrijven van scripts voor YouTube-video’s, moet het eerst miljarden pogingen ondernemen. In de praktijk vertaalt dit zich in enorme hoeveelheden rekenkracht.

En dit is waar de H100 in het spel komt. De nieuwste Nvidia-chip is vier keer sneller dan zijn voorganger (A100) in trainingsalgoritmen, de zogenaamde grote taalmodellen (LLM). Laten we hieraan toevoegen dat OpenAI, de makers van ChatGPT, de A100 gebruiken in hun platform.

Voor bedrijven die racen om hun LLM’s op te leiden om specifieke taken voor gebruikers uit te voeren, zijn systemen die de hoogste prestaties leveren goud waard.

Nvidia heeft nog geen sterke concurrentie

Nvidia heeft als bedrijf gespecialiseerd in grafische chips voorlopig geen sterke concurrenten. Het bedrijf realiseerde zich zo’n twintig jaar geleden dat zijn processors, die realistische beelden bieden in videogames en meerdere dataverwerkingskernen hebben, herwerkt konden worden. En ze konden zodanig worden aangepast dat de grafische chips versnellers worden voor andere toepassingen dan games.

Nvidia besloot dat het de moeite waard was om in deze richting te gaan toen er niet veel andere toepassingen voor grafische chips waren dan beeldverwerking en -generatie. En nu veel bedrijven zich richten op generatieve kunstmatige intelligentie, passen Nvidia-processors perfect bij deze behoeften en toepassingen.

De positie van het bedrijf van Jen-Hsun Huang is in dit segment zo sterk dat Nvidia ongeveer 80 procent van de acceleratormarkt in AI-datacenters beheerd door Amazon AWS, Google Cloud en Microsoft Azure in handen heeft. Techgiganten zorgen voor cloudinfrastructuur, maar de chips van Nvidia zijn verantwoordelijk voor de hoge prestaties van individuele machines.

Andere chipmakers, met name AMD en Intel, werken aan soortgelijke oplossingen. Voorlopig is het echter Nvidia, met de H100 voorop, die de grootste indruk op de markt maakt en zijn processors het meest gewild zijn bij AI-bedrijven. Zelfs Elon Musk kocht er dit jaar ongeveer 10.000 systemen om AI te ondersteunen, en hij deed het zonder specifieke plannen – hij zei dat alle grote spelers het doen, dus bestelde hij ook geschikte processors. Nu weten we dat Twitter naar verluidt ook aan zijn eigen AI werkt.

Kunnen startups ook H100-systemen bestellen? Ja, iedereen kan de AI-race uitproberen, maar ze moeten wel veel geld hebben. Processoren voor kunstmatige intelligentie zijn erg duur. Individuele H100-spaanplaten kunnen bij detailhandelaren meer dan $10.000 kosten per stuk. Hierdoor krijg je een goed beeld van hoeveel een bedrijf aan hardware moet uitgeven om zijn eigen AI-initiatieven na te streven.

ChatGPT is niets. Nvidia H100 zal betere AI trainen

AMD wil een inhaalslag maken

Andere chipmakers zien duidelijk wat er op de markt gebeurt. Er is een reden voor de bullish aandelen van Nvidia: de datacenterdivisie van het bedrijf zag de omzet met 41 procent groeien in 2022 (tot $15 miljard), en de huidige verkoopvoorspellingen zijn veel hoger dan Wall Street-analisten voorspelden.

Intel heeft Xeon-processors die complexere taken aankunnen dan die van Nvidia, maar het probleem zijn hun relatief lage prestaties. De processors van de GeForce-fabrikant zijn veel sneller in het verwerken van gegevens die worden gebruikt voor AI-training.

Intel heeft ook een probleem omdat de vraag naar grafische chips voor datacenters momenteel sneller groeit dan naar centrale verwerkingseenheden – typische processors – die van oudsher de sterke kant van het bedrijf waren. Zelfs vandaag de dag beschikt de overgrote meerderheid van de laptops over Intel Core-processoren.

AMD, op zijn beurt, de op één na grootste fabrikant van grafische chips, voerde in juni van dit jaar een beursuitvoering van de Instinct-lijn. De chip van het bedrijf, Instinct MI300X, zou uitstekend zijn in het verwerken van generatieve kunstmatige intelligentietaken. Lisa Su, het hoofd van AMD, zei tijdens de première van deze processors dat AMD nog veel te laten zien heeft en zich nog in een heel vroeg stadium bevindt. AMD-aandelen genereren dit jaar ook hoge winsten, op het niveau van 70-75%.

Voorlopig is Nvidia echter de leider, wat de interesse vanuit de markt weerspiegelt – zowel de A100- als de H100-systemen, evenals de aandelenkoers.

admin

Leave a Reply

Your email address will not be published. Required fields are marked *