0

Hoe je in 2025 de AI-trein kunt nemen op een duurzame manier

We moeten ons bewust zijn van de oorsprong van onze energie en elektriciteit, en actief werken aan het creëren van schone en duurzame energie. Deze stap zou volgens mij de basisgedachte moeten zijn als het gaat om AI en de transformatie van datacenters. Daarnaast speelt de algehele efficiëntie een cruciale rol: van het onderhoud van de apparatuur die in het datacenter wordt gebruikt tot hoe en in welke mate deze wordt ingezet en gekoeld.

Hoe je in 2025 de AI-trein kunt nemen op een duurzame manier

Een voorbeeld uit Finland: LUMI

Laten we kijken naar een inspirerend voorbeeld uit Finland: LUMI, de op zeven na krachtigste supercomputer ter wereld en de derde in Europa. Het energieverbruik van LUMI wordt volledig gedekt door waterkracht. Bovendien draagt de restwarmte van LUMI bij aan ongeveer 20% van de stadsverwarming in de nabijgelegen stad Kajaani. Dit vermindert de jaarlijkse CO₂-voetafdruk van de stad met maar liefst 12.400 ton, wat gelijk staat aan de uitstoot van bijna 4.000 personenauto’s.

Het ambitieuze doel van AMD

AMD heeft een ambitieus doel: 30×25. Dit programma streeft ernaar om tussen 2020 en 2025 de energie-efficiëntie van AMD-processoren en -versnellers voor servers die worden gebruikt voor HPC (High-Performance Computing) en AI-training dertig keer te verbeteren. Dit komt neer op een reductie van 97% in het energieverbruik per berekening. Als alle AI- en HPC-serverknooppunten wereldwijd soortgelijke verbeteringen zouden behalen, zou dit in 2025 miljarden kilowattuur aan elektriciteit besparen.

De uitdaging voor eindgebruikers

Naast technologische vooruitgang spelen financiële beperkingen een grote rol. Hoeveel prestaties zijn werkelijk nodig? Hoeveel stroom kan men zich veroorloven, zowel technisch als economisch? Het moderniseren van een datacenter wordt algemeen aanbevolen, omdat nieuwe technologieën veel efficiënter zijn en betere prestaties leveren per eenheid energie dan oudere systemen.

Maar zodra men naar de details kijkt, worden de complexiteit en de noodzakelijke afwegingen duidelijk. Als u kiest voor hogere prestaties, neemt het stroomverbruik toe; kunt u dat budget aan? Of als het stroomverbruik hetzelfde blijft maar de prestaties verbeteren, zoals bij AMD Zen5-producten, is dat dan economisch rendabel voor uw bedrijf? Wat zijn de concessies tussen prestaties en energieverbruik? Kunnen gebruikers langer wachten op resultaten als dat nodig is?

Ruimte- en stroombeperkingen

Het is belangrijk te begrijpen dat AI geen standaardoplossing kent, zowel qua hardware als software. Dit maakt het uitdagend, maar ook boeiend. AI kan worden uitgevoerd op CPU’s, GPU’s en andere accelerators, afhankelijk van de specifieke eisen. Dit alles brengt bijkomende factoren met zich mee, zoals talenten en vaardigheden, dataspecificiteit, risicobereidheid en fysieke beperkingen in datacenters, zoals ruimte- of stroomtekorten.

Hoe je in 2025 de AI-trein kunt nemen op een duurzame manier

Modernisering en efficiëntie

Veel klanten kampen met dagelijkse uitdagingen in hun datacenters, zoals beperkte ruimte of stroomcapaciteit. Modernisering is essentieel om de totale eigendomskosten (TCO) te verlagen. Met AMD EPYC-processoren kunnen we bijvoorbeeld het aantal servers dat nodig is voor een bepaald prestatieniveau drastisch verminderen, terwijl operationele (OPEX) en kapitaalkosten (CAPEX) en het energieverbruik dalen. Hierdoor wordt niet alleen de huidige werklast efficiënter beheerd, maar komen ook middelen vrij voor toekomstige AI-implementaties en opschaling van rekenkracht.

Kortom, het moderniseren van datacenters en het omarmen van duurzame energie zijn cruciaal voor de toekomst van AI en de bijbehorende technologische ontwikkelingen.

Onze aanpak van deze uitdagingen

Wij zetten ons in om de beste hardware te leveren voor uw workloads en werken nauw samen met ons ecosysteem om ervoor te zorgen dat de software die u gebruikt optimaal presteert. Op applicatie- en softwareniveau raden we aan om onze ZenDNN-bibliotheken te bekijken, die natuurlijke taalverwerking en computer vision-mogelijkheden bieden op AMD EPYC-processors. Daarnaast is er onze ROCm-softwarestack voor accelerators, waarmee significante vooruitgang kan worden geboekt in AI-toepassingen.

Met de recent uitgebrachte ROCm 6.3 kunnen ontwikkelaars profiteren van verbeterde inferentieprestaties voor Large Language Models (LLM), waardoor organisaties AI-toepassingen op schaal kunnen ondersteunen. Wij blijven de grenzen van prestaties en optimalisatie verleggen om onze klanten de beste resultaten te bieden.

Het belang van het ecosysteem

Hoewel onze producten van groot belang zijn, is het ecosysteem essentieel. Via onze AI-ecosysteempartnerschappen ondersteunen we klanten en partners bij het versnellen van AI-acceptatie met end-to-end AI-oplossingen, inclusief hardware en software. Wij zijn een van de oprichters van de PyTorch Foundation en werken samen met partners zoals Hugging Face, Microsoft, OpenAI, Meta, Cohere en xAI om AI-ontwikkelaars wereldwijd te ondersteunen.

AMD heeft ook strategische overnames gedaan in de AI-sector, waaronder:

  • Silo.AI, het grootste particuliere AI-lab in Europa.
  • ZT Systems, een toonaangevende leverancier van AI-infrastructuur voor hyperscalers.
  • Nod.ai, dat open-source AI-softwaremogelijkheden biedt.

Hoe je in 2025 de AI-trein kunt nemen op een duurzame manier

Vooruitblik op het komende jaar

In 2025 blijven we ons ecosysteem uitbreiden en introduceren we nieuwe technologieën en producten. Een van de hoogtepunten is de AMD Instinct MI350-accelerator, die we in juni 2024 hebben aangekondigd en naar verwachting in de tweede helft van 2025 beschikbaar zal zijn. Deze accelerators zullen een belangrijke rol spelen in het ondersteunen van partners en klanten bij hun HPC- en AI-reizen.

Met onze voortdurende innovaties in hardware, software en strategische samenwerkingen zetten we ons in om AI toegankelijker, efficiënter en krachtiger te maken voor iedereen.

admin

Leave a Reply

Your email address will not be published. Required fields are marked *