OVH ne veut pas faire de la figuration face à l'artillerie lourde en matière d'infrastructures des géants AWS, Microsoft ou encore Google Cloud pour supporter les workloads IA. Le fournisseur roubaisien a ainsi annoncé l'arrivée de serveurs dédiés bare metal s’embarquant des accélérateurs GPU Nvidia L40S pour répondre à des besoins comme l’apprentissage machine, l’apprentissage profond ou le déploiement de modèles LLM. Baptisées HGR-AI-2, ces instances seront disponibles avant la fin du mois de juin 2024. Selon OVHcloud, celles-ci « tireront profit de la puissance du L40S, lequel bénéficie de la quatrième génération de Tensor Cores et des Transformer Engine FP8 pour offrir aux charges de travail liées à l’IA de solides performances tant en entraînement qu’en inférence ». Ces serveurs HGR-AI-2 seront disponibles sur commande courant mars en Europe, au Canada, aux Etats-Unis et en Asie.
Pour répondre aux enjeux de traitements des tâches graphiques particulièrement gourmandes en ressources de calcul (rendu 3D, vidéo, inférence de données...), la firme complète également sa gamme de serveurs bare metal Scale avec trois dernières offres équipées en accélérateur GPU Nvidia L4. Celles-ci apporteront selon OVH « des ressources de calcul efficaces notamment en rapport avec le graphisme, la simulation ou encore les domaines de la science et ou de l’analytique des données ». Ces instances seront lancées plus tard dans l'année en Europe, mais aussi au Canada et aux Etats-Unis ainsi qu'en Asie.
Un outillage IA complet
Enfin, pour compléter ses offres serveurs A100 de Nvidia, OVH lance des instances H100 PCIe équipées jusqu'à 4 systèmes DGX H100 auxquelles viennent se greffer « d’importantes capacités de mémoire et du stockage local haute-performance », indique le groupe sans davantage de précision pour le moment. Disponibles immédiatement, les instances Nvidia H100 PCIe rejoignent l’offre A100 existante avant l’arrivée d'options supplémentaires basées sur les GPU pour datacenter L40S, L4 et A10 toujours de Nvidia. Ces instances H100 PCIe sont disponibles à présent dans la gamme Public Cloud d'OVH à partir de 2,8 €/h. Quant aux instances GPU L40S, L4 et A10 qui seront disponibles avant fin juin 2024, elles seront aussi dans la gamme Public Cloud au tarif d'1,4 €/h pour les instances L40S et 0,75 €/h pour les L4.
En parallèle, le fournisseur indique avoir également développé un jeu complet d’outils serverless avec AI Notebooks, AI Training et AI Deploy pour aider les entreprises à jouer avec les données et entraîner les modèles avant leur mise en production. Les solutions managées AI Solutions basées sur les instances H100 PCIe sont disponibles maintenant à partir de 3,1 €/h.
Commentaire