Aujourd’hui, le traitement des workloads IA repose très largement sur des GPU de Nvidia, c’est par exemple le cas de ChatGPT qui s’accaparerait les ressources de plus de 30 000 GPU (source : Trendforce). Google, Microsoft, AWS et la majorité des fournisseurs Cloud sont aussi des grands consommateurs de GPU Nvidia, et à environ 30 000$ en moyenne le GPU H100 et près de 70 000$ le B200, l’addition est salée. Selon le rapport du cabinet Jon Peddie Research, Nvidia pesait 88 % des GPU livrés dans le monde au...
Il vous reste 96% de l'article à lire
Vous devez posséder un compte pour poursuivre la lecture
Vous avez déjà un compte?
Commentaire