Les applications IA couplées aux big data réclament d’importantes performances de calcul (les CPU plutôt pour les phases d’inférence et les GPU pour l’accélération des algorithmes et les réseaux de neurones). Dans ce contexte, les fournisseurs comme Intel, Nvidia, Huawei ou encore AMD proposent des processeurs qui accélèrent les applications IA, et donc pour ce faire, ils câblent au cœur de leurs puces un certain nombre d’instructions. C’est par exemple le cas d’Intel avec sa seconde génération de processeurs Xeon (Cascade Lake) dotés d’instructions VNNI (Vector neural network instructions) proposées par la technologie Deep Learning Boost d’Intel. Idem pour la 10e génération de processeurs Core pour les laptops, annoncée le mois dernier, qui embarque ce jeu d’instructions Deep Learning Boost. En parallèle, Intel propose des ASIC dédiés à l’IA comme le Nervana Neural Network Processor sur lequel Facebook travaille en partenariat avec le fondeur pour ses serveurs. Lors de l’événement récent Hot Chips 2019 à Palo Alto, Intel a donné plus de détails sur les deux processeurs de sa gamme Nervana, le NNP-I, du deep learning pour les grands datacenters et NNP-T pour la formation de modèles de deep learning à grande échelle.
De son côté, Derek Bouius, responsable produits chez AMD, indique étudier les ASIC dédiés pour des meilleures performances et capacités énergétiques. En attendant, AMD prend en charge les versions actuelles de deux des frameworks ML les plus populaires : PyTorch et TensorFlow, la plupart du code étant disponible dans les upstream repositories. De même, la gamme actuelle Radeon Instinct profite d’optimisations s’agissant des opérations en précision mixte particulièrement adaptées pour l’apprentissage machine sur les workloads d’entrainement. Ces GPU se destinent à différents marchés et notamment le HPC, la virtualisation ou encore le cloud gaming.
Des GPU de Nvidia aux TPU de Google
Nvidia, le pionnier du calcul intensif accéléré par GPU, a pris très tôt en compte l’accélération des algorithmes de deep learning dans ses GPU. Aujourd’hui, la santé, les voitures connectées, les jeux vidéo, le calcul intensif, les villes intelligentes, etc., sont autant de domaines ciblés par le fondeur. Nvidia commercialise même un kit de développement IA GPU, (https://www.lemondeinformatique.fr/actualites/lire-NVIDIA-devoile-un-kit-de-developpement-ia-gpu-a-99$-74698.html), le Jetson Nano Developer qui intègre entre autres les frameworks IA TensorFlow, PyTorch, Caffe, Keras et MXNet. De même, selon Stéphane Quentin, responsable de la communication en France, Nvidia supporte tous les frameworks IA avec une prise en charge dans les cœurs de calcul Tensor tant sur l’architecture Volta que Turing. Citons également Qualcomm qui agit sur l’IA (notamment sur la partie photo) depuis les terminaux mobiles avec les Snapdragon 665, 730 et 730G ou encore IBM et ses Power9 qui prennent en charge les traitements intensifs en deep learning via un certain nombre de frameworks. N’oublions pas les TPU (Tensor Processing Unit) de Google, des puces conçues spécialement pour le framework TensorFlow. Rappelons que le TPU de Google a été l'une des clés du succès de l'intelligence artificielle AlphaGo pour vaincre les meilleurs joueurs humains de GO du monde. Dans la même philosophie, Google a créé des Edges TPU, en inférence également, pour les systèmes embarqués. Le fabricant coréen LG, par exemple, les exploite dans ses dalles d’écran pour effectuer du contrôle qualité. L’Edge est aussi une priorité pour Microsoft qui mise sur les FPGA pour l’apprentissage automatique. Pour Bernard Ourghanlian, le FPGA est versatile et est très efficient en termes d’énergie par rapport à un GPU. Enfin, le géant chinois Alibaba a annoncé, lors de la conférence annuelle d'Alibaba Cloud Apsara Computing qui se tient actuellement à Hangzhou en Chine, la NPU Hanguang 800, une puce IA actuellement utilisée en chez Alibaba dans la recherche de produits et la traduction automatique pour ses sites e-commerce, les recommandations personnalisées, la publicité et les services clients intelligents. Un autre chinois, Huawei pousse sa plateforme Ascend 910 IA avec des accélérateurs Da Vinci (NPU) travaillant avec des nœuds x86 ou ARM. L’architecture Da Vinci a été conçue pour concurrencer les accélérateurs IA Nvidia Tesla (GPU) au sein de la solution DGX (avec des nœuds Intel Xeon), qui sont aujourd’hui plébiscités pour les traitements IA en local.
Commentaire