Cognitive Toolkit (CNTK )de Microsoft, l’une des nombreuses plates-formes utilisées dans le cadre de projets d'apprentissage machine, a été mise à jour. Notamment utilisée pour piloter les services Cortana de Microsoft et la traduction de Skype, CNTK accomplit - selon Microsoft - des tâches de reconnaissance vocale avec une précision de plus de 90%. Afin d’optimiser ses outils de développement GPU pour le CNTK, Nvidia s’est d'ailleurs pour l'occasion associé à Microsoft.
Les deux entreprises ont ainsi développé une série d'algorithmes deep learning et de bibliothèques qui peuvent accélérer l’accomplissement de certaines tâches par le biais du Cognitive Toolkit, en particulier le traitement des images et la reconnaissance vocale par les GPU. Les outils deep learnig comme le CNTK sont assimilables à des sandbox dans lesquelles les développeurs peuvent créer un modèle qui permettra aux ordinateurs de résoudre un problème particulier. L'objectif ultime est de construire un modèle bien entrainé qui peut effectuer une tâche spécifique avec précision, par exemple, trier des données médicales pour faciliter le diagnostic d’une maladie.
Des bibliothèques de deep learning optimisées
Sur ces systèmes basés sur des données entrantes, les chercheurs perfectionnent continuellement leurs modèles et affinent leurs paramètres. L’une des modifications apportée au nouveau toolkit optimise les connexions de réseau neuronal afin d’améliorer les capacités d’intelligence artificielle et permet au modèle de se mettre à l’échelle quand le système fait travailler un plus grand nombre de GPU et de serveurs. L’apprentissage des modèles informatiques peut durer plusieurs jours et nécessite une très grande puissance de calcul. Chez Google et Facebook, les tâches de deep learning sont réalisées par des GPU, mais Microsoft offre à certains clients la possibilité de tester ce type de service dans son cloud Azure. À noter que la nouvelle version du CNTK tournera plus rapidement dans les services cloud Azure Serie N de Microsoft dont les GPU sont basés sur les anciennes architectures Kepler et Maxwell de Nvidia.
La nouvelle version du CNTK pourra être achetée pour un usage sur site avec le supercalculateur DGX de Nvidia, qui coûte 129 000 dollars HT. Ce supercalculateur intègre huit GPU Tesla P100 basés sur la dernière architecture Pascal du fabricant. « Nvidia et Microsoft ont travaillé en étroite collaboration pour optimiser les bibliothèques deep learning de son GPU que l’on trouvera dans la prochaine version du CNTK », a déclaré Ian Buck, vice-président des systèmes haute-performance de Nvidia. Les GPU de Nvidia fonctionnent déjà sur le CNTK avec les bibliothèques existantes, mais la mise à jour va grandement booster la performance. « Avec un système intégrant huit GPU, les temps d’apprentissage deep-learning seront 7,4 fois plus rapides », a affirmé Ian Buck, qui n’a pas voulu donner de détails sur la date de sortie de la nouvelle version.
Concurrencé par Google et son Tensor Processing Unit
Nvidia a surtout contribué à l’amélioration d’outils comme CUDNN, sur lequel sont basés les bibliothèques et les algorithmes des GPU dédiées au deep learning. CUDNN est la technologie sous-jacente de CUDA, le framework de programmation parallèle de Nvidia. Mais il en existe d'autres comme Tensor de Google, ou Theano, ou encore un open source, Caffe, qui excelle dans la reconnaissance d'images. Des entreprises comme Intel et IBM ont adapté ces frameworks à leur matériel. Les GPU de Nvidia prennent déjà en charge la plupart des frameworks « d'apprentissage approfondi », mais le CNTK détient désormais l’avantage. Quant à Google, le géant de la recherche a sorti sa propre puce optimisée pour cet usage, dénommée Tensor Processing Unit. Google peut se permettre de développer son propre hardware parce qu'il utilise cette technologie à grande échelle, ce qui n’est cependant pas à la portée des petites entreprises. Mais, des services cloud comme Azure leur permettent d’accéder à ce genre de capacités.