L'informatique quantique est présentée comme une architecture de calcul transformatrice capable de résoudre des problèmes d'optimisation difficiles et de rendre l'IA plus rapide et plus efficace. Mais les ordinateurs quantiques ne peuvent pas encore être mis à l'échelle au point de surpasser les ordinateurs classiques, et la perspective d’avoir un écosystème complet de plateformes, de langages de programmation et d'applications est encore plus lointaine. Entre-temps, une autre technologie est sur le point de faire une différence beaucoup plus immédiate : l'informatique neuromorphique. Cette dernière cherche à redéfinir la manière dont les puces informatiques sont construites en s'inspirant du cerveau humain. Par exemple, nos neurones gèrent à la fois le traitement et le stockage de la mémoire, alors que dans les ordinateurs traditionnels, les deux sont séparés. L'envoi de données dans les deux sens prend du temps et de l'énergie. En outre, les neurones ne se déclenchent qu'en cas de besoin, ce qui réduit encore la consommation d'énergie. « L'informatique neuromorphique offre des capacités de calcul parallèle massives qui dépassent de loin l'architecture GPU traditionnelle », a expliqué Lian Jye Su, analyste chez Omdia. « De plus, elle est plus performante en termes de consommation d'énergie et d'efficacité ». Selon le Gartner, l'informatique neuromorphique est l'une des technologies qui a le plus de chance de perturber divers marchés en tant que « facilitateur critique », mais il faudra encore trois à six ans avant d’en apercevoir l’impact.
Cependant, Intel vient de franchir une étape importante dans ce domaine. En effet, l’entreprise a annoncé aujourd'hui le déploiement, dans les laboratoires nationaux de Sandia, du plus grand système neuromorphique au monde. L'ordinateur, connu sous le nom de code Hala Point, repose sur le processeur Loihi 2 et prend en charge jusqu'à 20 quadrillions d'opérations par seconde avec une efficacité supérieure à 15 billions d'opérations à 8 bits par seconde et par watt, le tout dans un serveur de la taille d'un four à micro-ondes. Il prend en charge jusqu'à 1,15 milliard de neurones et 128 milliards de synapses, soit à peu près le niveau du cerveau d'un hibou. Selon Intel, il s'agit du premier système neuromorphique à grande échelle qui surpasse l'efficacité et les performances des architectures basées sur le CPU et le GPU pour les charges de travail d'IA en temps réel. Selon le fournisseur, les systèmes basés sur Loihi peuvent effectuer des inférences d'IA et résoudre des problèmes d'optimisation 50 fois plus rapidement que les architectures CPU et GPU, tout en consommant 100 fois moins d'énergie.
Le serveur Hala Point exploite des puces Loihi 2 et prend en charge jusqu'à 20 quadrillions d'opérations par seconde avec une efficacité supérieure à 15 billions d'opérations à 8 bits par seconde et par watt. (Crédit Intel)
Selon Mike Davies, directeur du Neuromorphic Computing Lab d'Intel, la technologie est disponible dès maintenant, gratuitement, pour les entreprises qui souhaitent tester son potentiel. Pour commencer, elles doivent d'abord rejoindre la communauté de recherche neuromorphique d'Intel, qui compte parmi ses membres GE, Hitachi, Airbus, Accenture, Logitech, ainsi que de nombreux organismes de recherche et universités - plus de 200 participants à l'heure où nous écrivons ces lignes. « Il y a une liste d'attente, mais la participation ne coûte rien », a indiqué M. Davies. « La seule condition est d’accepter de partager ses résultats et ses conclusions afin que nous puissions continuer à améliorer le matériel », a-t-il poursuivi. L'adhésion comprend l'accès gratuit aux ressources informatiques neuromorphiques basées dans le cloud et, si le projet est suffisamment intéressant, l'accès gratuit au matériel sur site. « Pour l'instant, il n'y a qu'un seul Hala Point, et c’est Sandia qui en dispose », a-t-il expliqué. « Mais nous en construisons d'autres. Et il existe d'autres systèmes qui ne sont pas aussi grands. Nous donnons des comptes sur le cloud virtuel d'Intel, et ils se connectent et accèdent aux systèmes à distance », a-t-il ajouté. « Intel a pu construire un ordinateur neuromorphique pratique et utilisable en s'en tenant à la technologie de fabrication traditionnelle et aux circuits numériques », a-t-il poursuivi. Certaines approches alternatives, telles que les circuits analogiques, sont plus difficiles à construire. Mais le processeur Loihi 2 utilise de nombreux principes de base de l'informatique neuromorphique, notamment la combinaison de la mémoire et du traitement. « Nous adoptons vraiment toutes les caractéristiques architecturales qui existent dans le cerveau », a encore expliqué M. Davies.
Le système peut même continuer à apprendre en temps réel. « C'est que font en permanence les cerveaux humains. Les systèmes d'IA traditionnels s'entraînent sur un ensemble de données particulier et ne changent plus une fois qu'ils ont été formés. Dans Loihi 2, en revanche, les communications entre les neurones sont configurables, ce qui signifie qu'elles peuvent changer au fil du temps ». Le fonctionnement est le suivant : un modèle d'IA est formé par des moyens traditionnels puis chargé dans l'ordinateur neuromorphique. Chaque puce ne contient qu'une partie du modèle complet. Ensuite, quand le modèle est utilisé pour analyser, par exemple, un flux vidéo, la puce a déjà les paramètres ou poids du modèle en mémoire, de sorte qu'elle traite les choses rapidement, et seulement si elle en a besoin. « Si un pixel change, ou si une région de l'image change d'une image à l'autre, nous ne recalculons pas toute l'image », a indiqué M. Davies. Ce dernier admet que la formation initiale se fait ailleurs. Et si l'ordinateur neuromorphique peut mettre à jour des poids spécifiques au fil du temps, il ne réapprend pas l'ensemble du réseau à partir de zéro.
Une technologie encore immature
« Cette approche est particulièrement utile pour l'informatique edge et pour le traitement des flux vidéo, audio ou des signaux sans fil », a-t-il encore déclaré. Mais elle pourrait également trouver sa place dans les centres de données et les applications de calcul à haute performance. « La meilleure catégorie de charges de travail que nous ayons trouvée et qui fonctionne très bien est la résolution de problèmes d'optimisation », a expliqué M. Davies. « Par exemple, trouver le chemin le plus court sur une carte ou un graphique. L'ordonnancement, la logistique, tout ça fonctionne très bien sur l'architecture. Le fait que ces cas d’usage se recoupent avec ceux de l'informatique quantique a été une surprise », a-t-il reconnu. « Mais nous avons aujourd'hui un système d'un milliard de neurones qui fonctionne, au lieu de quelques qubits ».
Intel n'est pas le seul acteur dans ce domaine. Selon M. Su d'Omdia, quelques fournisseurs, dont IBM, ont développé des puces neuromorphiques pour le calcul de l'IA dans le cloud, tandis que des entreprises comme BrainChip et Prophesee commencent à proposer des puces neuromorphiques pour les terminaux et les applications edge. « Il existe cependant plusieurs obstacles majeurs à l'adoption de cette technologie », a-t-il ajouté. « Tout d'abord, l'informatique neuromorphique est basée sur des pointes événementielles, ce qui nécessite un changement complet des langages de programmation. Il y a aussi très peu de modèles d'IA basés sur des événements », a encore déclaré M. Su. « Pour l'instant, la plupart d'entre eux sont basés sur des réseaux neuronaux conventionnels conçus pour une architecture informatique traditionnelle. Enfin, ces nouveaux langages de programmation et architectures informatiques ne sont pas compatibles avec les technologies existantes », a-t-il poursuivi. « À l’heure actuelle, la technologie est trop immature. De plus, elle n'est pas rétrocompatible avec l'architecture existante. En même temps, l'écosystème des développeurs et des logiciels est encore très restreint, du fait du manque d'outils et du choix de modèles ».