Une mise à jour majeure, c’est ainsi que présente Nvidia, la dernière version (2.1) de la suite AI Enterprise. Elle regroupe un ensemble de solutions d'IA complètes. Cela comprend un logiciel pour nettoyer les données, les préparer, effectuer la formation des réseaux de neurones, convertir le modèle en une forme plus efficace pour l'inférence et le déployer sur un serveur d'inférence. Parmi les évolutions, il y a le support des cas d’utilisation avancée de la datascience, via Rapids, une suite de bibliothèques logicielles open source et d’API, fonctionnant sur CUDA-X AI. Rapids exécute les pipelines de datascience entièrement sur les GPU. Nvidia explique que Rapids réduit fortement le temps d’entraînement des modèles d’IA en passant de plusieurs jours à quelques minutes.
Autre élément dans le besace d’AI Enterprise, le support de TAO Toolkit, un cadre de low code/no code affinant les modèles d’IA et de ML pré-entraînés avec des données personnalisées. L’objectif est de créer des services de reconnaissance d’image, de traitement du langage naturel et de la voix, plus précis. La version 22.05 de TAO Toolkit propose des fonctionnalités supplémentaires comme l'intégration des API REST, l'importation des poids synaptiques pré-entraînés, l'intégration de TensorBoard et de d’autres modèles éprouvés.
Extension sur le cloud hybride et certification Domino Data Lab
Dans une optique de cloud hybride et multicloud, Nvidia ajoute la prise en charge d’OpenShift de Red Hat sur la partie cloud public dans la dernière itération d’AI Enterprise. Elle vient compléter le support existant d’OpenShift en version bare metal et sur des environnements vSphere de VMware. A noter que la suite adresse également les dernières VM de Microsoft Azure NVads A10 v5 series. Il s’agit des premières instances vGPU Nvidia proposées dans un cloud public. Elles autorisent « un partage fractionné des GPU » plus accessible, précise la société. Par exemple, les clients peuvent utiliser des tailles de GPU flexibles allant d'un sixième d'un GPU A10 jusqu'à deux complets.
Enfin, la dernière mise à jour concerne Domino Data Lab, dont la plateforme MLOps a été certifiée pour AI Enterprise. Avec cette certification, Nvidia estime que la solution contribue à atténuer les risques sur les déploiements et garantit une fiabilité et de hautes performances des MLOps. En utilisant les deux plates-formes ensemble, « les entreprises bénéficient de l'orchestration des workloads, d'une infrastructure en self-service et d'une collaboration accrue, ainsi que d'une mise à l'échelle aux coûts maîtrisés sur des instances de cloud public », a déclaré Nvidia. Finissons par le lab LaunchPad, un service donnant un accès immédiat à AI Enterprise dans un environnement d'essai pré-configuré. Ces laboratoires comprennent l'entraînement multinode pour la classification d'images sur VMware vSphere avec Tanzu, la possibilité de déployer un modèle XGBoost de détection des fraudes à l'aide de Nvidia Triton, etc.