Question 1 : Qu’est-ce que l’Edge Computing, et pourquoi les entreprises ont-elles besoin d'évoluer à l’Edge ?
Jérôme Brusq : L’Edge est une notion technologique relativement nouvelle. Elle est apparue dans le sillage du Cloud Computing à un moment où les entreprises ont centralisé leurs services dans de grands datacenters. Avec son approche décentralisée et distribuée, l’Edge Computing offre aux entreprises et autres organisations un moyen plus rapide et plus efficace de traiter les données en déployant les applications,au plus près de l’endroit où les données sont générées et/ou consommées.
Salim Khodri : Les utilisateurs peuvent ainsi bénéficier d'applications où l'intelligence est poussée à l'edge via le machine learning permettant de développer des capacités analytiques pour traiter des données en temps réel au plus proche de la source et ainsi générer de nouveaux services et usages optimisant les chaînes de décisions.
Jérôme Brusq : Cette technologie est aujourd’hui en plein essor, si bien que Gartner estime à 55 milliards le nombre d’appareils utilisables en périphérie -ou Edge- dans le monde. On parle ici de capteurs IoT, d'équipements réseaux ou encore de robots d’usine. Le marché est donc florissant et devrait continuer à croître puisque les experts prévoient 150 milliards de ces mêmes objets dans le monde d’ici 2025, de quoi toucher la quasi-totalité des secteurs d’activité.
Question 2 : Concrètement, comment les entreprises peuvent-elles tirer parti de ces flots de données massifs ? Pour quels cas d’usages ?
Jérôme Brusq : L’Edge Computing peut s’avérer pertinent dans de nombreuses situations. Par exemple, lorsque l'environnement a une connectivité limitée (avion, bateau, usine, …) , il n’est pas possible d’utiliser un Cloud central et les applications doivent fonctionner localement et de manière autonome . Le traitement à la périphérie permet de remédier à ce problème.
De même, l’Edge Computing permet de réduire la latence du traitement de l’information, car les données n’ont pas besoin de traverser un vaste réseau pour atteindre un Data Center ou un serveur cloud distant.
Salim Khodri : Cette réduction de la latence est particulièrement importante dans les domaines des services financiers ou de l’industrie manufacturière, du retail, de l’énergie ou encore de l’automobile. Les secteurs impactés sont donc très variés mais tous ont un besoin commun : l’analyse de données générées à la source pour améliorer les processus opérationnels, les rendements et générer des revenus.
Pour aller plus loin, je vais prendre l’exemple des contrôles qualité dans l’industrie. Avec l’Edge, on va pouvoir déployer des applications qui vont traiter des données en temps réel au sein des usines dans les chaînes de production. Avec des capteurs vidéo, les techniciens vont être en mesure détecter rapidement des défauts de fabrication et par la suite mettre en place de la maintenance prédictive pour anticiper des dysfonctionnements en temps réel. Mais je pourrais en citer bien d’autres : gestion des accès par le biais de la reconnaissance faciale, détection de situation dangereuse comme les incendies, bâtiments et villes connectés, ou encore dans la santé avec la mise en place de modéles AI/ML pour l’aide aux diagnostics médicaux.
Nous avons par exemple dans les hôpitaux de Boston aux États-Unis entraîné un modèle ML (Machine Learning) déployé dans des conteneurs sur Red Hat OpenShift permettant à partir des radiographies thoraciques des patients atteints du Covid de faire un diagnostic sur un risque de pneumonie avec une précision proche des 100%.
Cette intelligence poussée en périphérie, dans les hôpitaux, améliore à la fois l'expérience des patients car ils obtiennent un diagnostic plus rapide et celle des médecins, en revenant vers les patients au plus tôt.
Question 3 : Quels sont les principaux défis pour implémenter une infrastructure moderne à l’Edge ?
Jérôme Brusq : La sélection, la configuration, le déploiement et la maintenance d’une infrastructure IT à un emplacement donné ont toujours comporté des difficultés. Les personnes responsables de sites d’Edge Computing sont cependant confrontées à des défis supplémentaires. Tout d’abord la complexité des environnements car il faut adresser des sites qui ont une connectivité réseau parfois intermittente ou nécessitant un encombrement matériel minimal comme les bateaux, les avions ou les sous-marins.
Salim Khodri : Il faut également être capable de gérer des milliers d’appareils, capteurs et serveurs à distance et donc de garantir la scalabilité des matériels et logiciels bien souvent hétérogènes. En somme, assurer l’interopérabilité de façon à fournir une infrastructure consistante aux développeurs mais aussi aux équipes techniques.
En parallèle, la confidentialité et la sécurité n'ont jamais eu autant d'importance et demandent une attention toute particulière.
Question 4 : Quelle est la vision de Red Hat sur l’Edge Computing ?
Salim Khodri: Chez Red Hat, nous prônons la stratégie « Open Hybrid Cloud ». A travers notre portfolio, nous permettons à nos clients de développer des applications et de les déployer où ils le souhaitent : que ce soit sur un Cloud public, on-premise dans leurs datacenters, ou encore à l’Edge. L’Edge fait donc partie intégrante de cette stratégie et pour répondre aux éventuelles contraintes de cette technologie, nous travaillons pour fournir des solutions non seulement sécurisées mais nécessitant le minimum d’empreinte matérielle. Nous souhaitons aussi un maximum d’automatisation et d’optimisation vis-à-vis du déploiement et de la gestion des applications à grande échelle.
De plus, notre modèle se base sur le modèle Open Source. Grâce à cette approche, et l’ouverture des solutions et protocoles, il permet d’intégrer un écosystème de partenaires et de communautés et ainsi répondre au besoin d’interopérabilité nécessaire pour l’Edge. Au contraire, utiliser des logiciels fermés et propriétaires serait un frein à l’innovation.
Question 5 : Quelles sont les solutions proposées par Red Hat pour répondre aux besoins des entreprises à l’Edge ?
Jérôme Brusq : Nous n’avons pas de solutions spécifiques et dédiées à l’Edge, mais nos produits existants se sont adaptés à ces environnement et répondent parfaitement aux contraintes liées à cette technologie. On retrouve par exemple l’OS Red Hat Enterprise Linux (RHEL) for Edge, construit pour répondre aux déploiements en périphérie avec de petites empreintes matérielles, qui intègre un système de mise à jour optimisé et qui gagne en autonomie en étant par exemple capable d’effectuer un retour arrière en cas de problème. Nous avons également notre plateforme de conteneurs Openshift Container Platform, qui intègre Kubernetes. Cette plateforme se décline avec des déploiements minimalistes, que ce soit sur un seul nœud (Single node Openshift) ou en mode compact (3 nodes) qui s’adapte parfaitement aux spécificités de l’Edge.
En complément d’Openshift, on utilisera Red Hat Advanced Cluster Management (RHACM) pour gérer les déploiements de ces clusters et les applications hébergées dans ceux ci, ainsi que Red Hat Advanced Cluster Security (RHACS) pour garantir une sécurité maximale.
Toujours en complément d’Openshift, Je pense aussi à Red Hat Data Science qui offre aux développeurs (data scientists) la possibilité de créer et tester des modèles d'apprentissage/applications intelligentes basé sur le Machine Learning et l’intelligence artificielle (AI/ML)
En parallèle, notre offre Ansible Automation Platform (AAP) permet d’automatiser des serveurs et des équipements, du datacenter jusqu'à l’edge, grâce au moteur d’automatisation Ansible qui est un standard aujourd’hui.
Il faut bien comprendre que nos solutions sont agnostiques et utilisables à la fois sur le Cloud public, dans des datacenters ou à l’Edge, … Une même application peut donc être déployée à n'importe quel endroit, ce qui simplifie grandement le travail des développeurs.