Les prochaines générations de puces Intel pourront traiter des charges de travail d’intelligence artificielle, domaine sur lequel le fondeur a décidé de miser. Pour l'instant, la production de ces puces ou de ces coprocesseurs reste une spécialité en marge de la ligne de produits globale. Mais au fil du temps, Intel pourrait adapter et intégrer des jeux d’instruction spécifiques à l’IA dans ses puces serveurs, ses puces pour l’IoT, et peut-être même ses puces pour PC. Les fonctionnalités IA peuvent trouver des applications dans les serveurs, les drones, les robots et les véhicules autonomes.
Et Intel mise activement sur ces domaines pour diversifier une activité minée par le déclin du marché du PC (265 unités en 2016 contre 288 en 2015 selon le Gartner). Actuellement, le secteur de l’IA est dominé par les GPU de Nvidia ou par les puces personnalisées d’entreprises comme Google. Pour accélérer son implantation sur ce marché, Intel veut proposer une série de puces alternatives non GPU également conçues pour le deep-learning. Car Intel, qui a loupé le train du marché mobile accaparé par ARM et ses affidés, ne veut pas subir la même déconvenue dans l’IA.
Des Xeon Phi faute de GPU puissant
Malgré le rachat de Chips and Technologies en 1997 puis de Real3D en 1999, Intel n'a toujours pas de GPU puissant pour affronter ce marché. L’entreprise espère aujourd’hui que ses puces alternatives combleront l'écart actuel. La société pense qu’elle peut se passer d’un GPU et elle ne veut pas mettre tous ses œufs dans le même panier, comme l’a fait Nvidia. Intel développe un composant surpuissant dédié à l'IA issu de la famille Xeon Phi, nom de code Knights Mill reposant en partie sur les travaux issus du projet Larrabee, qui cible précisément le calcul intensif. Selon Jason Waxman, vice-président corporate du Data Center Group d’Intel, « la future puce sera quatre fois plus rapide dans les tâches de deep-learning que l'actuelle puce Xeon Phi, nom de code Knights Landing ». Parmi les maigres détails livrés par Intel, le fondeur a précisé que Knights Mill serait livré l'année prochaine. Le calendrier choisi par le fondeur donne une idée de la stratégie adoptée par Intel pour accélérer son entrée dans le marché de l’intelligence artificielle. Il s’est passé quatre ans entre la sortie des deux processeurs Xeon Phi précédents.
Par rapport à d'autres puces développées par Intel, Knights Mill affiche plusieurs caractéristiques uniques. Contrairement aux puces haute-performance qui se concentrent sur des calculs précis, Knights Mill sera capable de combiner plusieurs calculs à virgule flottante, rapides et de bas niveau, pour fournir ses résultats. Ces calculs plongent au cœur du deep-learning, et si certains d’entre eux, comme l'identification d'une image, ne sont pas d’emblée assez précis, ils s’affineront à mesure que le modèle d'apprentissage sera amélioré.
Une acquisition clef : Nervana Systems
Au cours du premier semestre 2017, Intel livrera également le premier processeur exploitant les algorithmes deep-learning de Nervana Systems, une autre acquisition récente du fondeur. La puce sera principalement axée sur l’apprentissage, et plus précisément la création de modèles informatiques pour le deep-learning. Le circuit pourrait également servir à l'inférence, un processus qui permet d’améliorer les modèles d'apprentissage en profondeur grâce à des entrées de données supplémentaires. La puce Nervana sera principalement destinée aux serveurs. Dans un premier temps, Intel livrera sa puce sous forme de carte pour port PCI-Express standard. « Mais plus tard, le hardware sera intégré plus près du processeur », a annoncé Naveen Rao, vice-président et directeur général des solutions d'intelligence artificielle chez Intel et fondateur de Nervana Systems.
Les deux nouvelles puces complèteront la série de puces IA que l’on trouve déjà dans le portefeuille d'Intel. Le fondeur a récemment acquis Movidius, un fabricant de puces spécialisées dans la vision, qui équipent notamment les Google Glass. Les puces Movidius pourraient trouver des applications dans les objets portables, les drones et les robots destinés à la reconnaissance d'objets ou encore des systèmes de mesure complexes. Intel commercialise également des puces FPGA (field programmable gate arrays), qui peuvent être reprogrammées pour effectuer des tâches spécifiques. Le fondeur veut intégrer ces puces dans des serveurs, des véhicules autonomes, des robots et des drones. L'année prochaine, l’entreprise a déjà prévu de lancer son Deep Learning Inference Accelerator, une puce FPGA destinée à concurrencer des puces d'inférence comme la Tensor Processing Unit de Google.
Ne pas rater le virage de l'IA
La volonté d'Intel d’aller très vite est motivée par l’intérêt croissant suscité par les technologies IA émergentes. Beaucoup de données numériques proviennent de capteurs, et l'IA pourrait permettre d’organiser et de donner un sens à ces données. De grandes entreprises comme Google, Facebook et Amazon déploient des logiciels et du hardware dans cet objectif. Parmi les applications d’intelligence artificielle, on peut citer Cortana. Les algorithmes de l’assistant numérique personnel de Microsoft exploitent des puces FPGA pour faire de la reconnaissance d’image et vocale. Mais, l'efficacité de ces systèmes dépend fortement de la pile logicielle utilisée pour les modèles de deep-learning. Intel va se servir la pile logicielle provenant de l’acquisition de Nervana pour son framework de programmation parallèle axé sur le deep-learning.
Le framework open source viendra concurrencer des solutions déjà bien installées comme Caffe, Torch, TensorFlow de Google, et CNTK (Cognitive Toolkit) de Microsoft. À la question de savoir si cette variété de puces IA ne va pas créer la confusion, Jason Waxman répond : « Plus il y en aura, mieux ce sera ». Intel veut que les clients disposent du maximum d'alternatives. « Certaines puces sont plus adaptées à des tâches spécifiques que d’autres. Par exemple, les puces FPGA sont plus performantes pour des tâches à inférence unique comme la reconnaissance de chats ou de chiens sur des photos », a expliqué Jason Waxman.
Rallier tous les acteurs de l'IA
« Il est important pour Intel de mettre rapidement un pied dans le marché de l’IA », a déclaré pour sa part Jim McGregor, analyste principal chez Tirias Research. « En inondant ce marché de l’intelligence artificielle avec une série de puces très différentes, le fondeur peut tester le système qui a le plus de chance de réussir », a-t-il ajouté. « C'est une bonne chose qu’Intel arrive sur ce secteur avec des solutions multiples, mais il ne gagne rien par rapport à ses concurrents », a également expliqué l’analyste. Il y a des risques. « Intel a racheté Nervana Systems pour mettre la main sur sa pile logicielle, mais toute tentative de verrouiller les clients avec ces outils ne sera pas acceptée par l'industrie », a encore déclaré Jim McGregor. Les outils de Nervana sont open source, mais ils sont conçus pour les puces d'Intel. Or, des frameworks concurrents comme Caffe, sont de plus en plus populaires.
« C'est une stratégie discutable. Intel a tenté la même chose depuis une dizaine d'années, et a essayé d’entraîner tout le monde derrière lui », a déclaré l’analyste. Mais le deep-learning n’en est qu’à ses débuts. Il faudra encore beaucoup de temps pour perfectionner les techniques de calcul du deep-learning et de nouveaux matériels, par exemple les ordinateurs quantiques et les puces neuronales, pourraient changer la donne. « La question de savoir comment apprendre se pose toujours », a conclu Jim McGregor.