La puce prototype Eyeriss 168 coeurs du MIT sera capable de puiser dans la mémoire du processeur pour reconnaître instantanément des visages, des objets et même des sons. Le processeur pourra équiper des smartphones, des voitures autonomes, des robots, des drones et d’autres appareils. Néanmoins, Eyeriss n’est pas unique en son genre : plusieurs fondeurs développent actuellement des processeurs aux capacités similaires, l’idée étant de permettre aux appareils embarqués ou mobiles de faire un plus grand nombre de choses sans intervention humaine. C’est le cas notamment de Qualcomm qui conçoit des processeurs capables d’apprendre à mieux connaitre les utilisateurs de terminaux mobiles et d’anticiper certaines actions. C’est le cas également de Nvidia. L’entreprise californienne a déjà conçu un ordinateur autour de sa puce Tegra qui permet aux véhicules autonomes de reconnaître la signalétique routière et les panneaux de signalisation. Intel et des entreprises de premier plan comme Movidius cherchent également à développer des capacités d’intelligence artificielle pour les appareils mobiles.
Comme l’ont montré les systèmes de deep-learning développés par Microsoft, Facebook et Google, les ordinateurs peuvent être entrainés à reconnaître des images, des visages et des sons. Par définition le deep learning (aussi appelé deep structured learning, hierarchical learning ou apprentissage profond) « est un ensemble de méthodes d'apprentissage automatique tentant de modéliser avec un haut niveau d’abstraction des données grâce à des architectures articulées de différentes transformations non linéaires ». En général, les systèmes deep-learning ont également besoin de réseaux neuronaux complexes et de ressources informatiques très conséquentes avec des milliers de serveurs et des GPU puissantes et très gourmandes en énergie. Mais le MIT affirme que ses processeurs auront besoin de beaucoup moins de ressources, et qu’ils seront 10 fois moins gourmands en énergie qu'une puce graphique mobile.
Des calculs en local et non pas déportés
Au point que Eyeriss pourra équiper des dispositifs portables, des smartphones et des robots fonctionnant sur batterie et qu’ils pourront ainsi exploiter les capacités d’intelligence artificielle du processeur développé par le MIT. Autre avantage : Eyeriss effectuera la plupart des calculs en local, directement sur le dispositif. Le WiFi ou les connexions cellulaires ne sont donc pas nécessaire puisque le processeur n’aura pas à aller chercher des ressources dans des services cloud ou des images sur des serveurs distants pour fonctionner. Lors du dernier CES de Las Vegas, les voitures autonomes montrées par Nvidia avaient besoin d’aller chercher des données sur des serveurs distants pour identifier les obstacles ou les objets qu’elles rencontraient sur leur trajet. Avec la puce du MIT, les voitures autonomes disposeront de capacités de reconnaissance embarquées, ce qui pourrait s’avérer très utile dans des régions éloignées où les connexions cellulaires ne sont pas disponibles ou de mauvaise qualité.
Chaque cœur de la puce Eyeriss dispose de sa propre banque de mémoire. Le système du MIT a pris le contre-pied de la mémoire centralisée des GPU et des CPU qui alimentent aujourd’hui les systèmes d'apprentissage deep-learning. La puce Eyeriss essaye aussi de réduire les redondances de traitement en répartissant efficacement les tâches entre les 168 noyaux. Le circuit peut être adapté à différents types de réseaux neuronaux, et la compression permet de préserver un bon niveau de bande passante. La puce a été utilisée dans une démonstration de reconnaissance d'image lors de l'ISSCC (International Solid-State Circuits Conference) qui s’est tenue mercredi à San Francisco. Les chercheurs n’ont pas dit si ces puces seraient intégrées dans de futurs dispositifs.