Jusqu’ici, l’implication du hardware dans le deep learning s’est limitée aux serveurs cloud, pour la formation comme pour l’exécution des tâches. Désormais, le système tend à s’adapter davantage au deep learning, en raison des enjeux que celui-ci représente. Cette évolution s’observe notamment chez les processeurs NVIDIA, ou encore dans les Bitcoins. Ces technologies mènent vers un hardware plus spécifique, plus à même d’accompagner les performances des systèmes d’apprentissage et de l’intelligence artificielle. De nouvelles structures dédiées au machine learning se généraliseront en 2018. Les réseaux accusatifs générateurs (GAN) constituent une nouvelle architecture de machine learning particulièrement intéressante. Ces réseaux fonctionnent selon deux modes complémentaires : le premier consiste à produire des échantillons de données « naturels » à partir de données réelles, et le second consiste à distinguer les données réelles des imitations. Les deux modèles, respectivement appelés « génératif » et « discriminant », apprennent ainsi l’un de l’autre.
Le succès actuel de cette nouvelle architecture, malgré sa difficulté, est dû au fait qu’elle nécessite aujourd’hui moins de paramètres. Ce qui accroît son efficacité dans les différentes tâches qui lui sont confiées : génération ou création d’images et de retouches d’images à haute résolution et de vidéos, synthèse texte et image, etc. Elle a également la capacité de s’entraîner avec un volume de données réduit et de fournir des prédictions sur les données manquantes. Cependant, les GAN présentent des risques, notamment lorsque l'un des réseaux a assez appris pour se passer de l’apprentissage d’un réseau concurrent. Un défi qui pourrait être relevé en 2018.
Relever le défi de la gouvernance des données
L’innovation en matière de machine learning et de deep learning est encore en décalage par rapport à l’usage réel des outils en entreprise. Les collaborateurs ont des difficultés à mettre en pratique au quotidien les innovations récentes. Il est aisé de déceler le caractère automatisé d’une conversation avec un « bot » dédié au service après-vente. 2018 devrait changer la donne : l’intensification du machine learning et son extension à un plus grand champ d’applications permettra aux bots d’acquérir une capacité de conversation proche des interactions humaines. Plus encore : les bibliothèques de données permettront une meilleure compréhension sémantique des échanges, améliorant leur efficacité.
Lorsque l'on parle de machine learning, on pense nécessairement aux données et aux nouvelles réglementations qui y sont liées. Le RGPD illustre parfaitement la préoccupation des gouvernements pour la sécurité des données. Aux entreprises, il revient donc d’évaluer les risques et de faciliter la traçabilité du parcours des données pour s’assurer d’être en conformité avec la législation. Il peut être efficace de retracer le cycle de vie des données, en inscrivant celui-ci sur un support centralisé et accessible. Il doit comporter un inventaire des données existantes, des personnes qui y accèdent et y ont régulièrement recours, ainsi que des modes de traitement de la donnée. Il sera plus simple d’identifier les pratiques qui impliquent la manipulation de données et celles qui présentent des risques.
Commentaire