Aujourd’hui, pratiquement tous les domaines de l'industrie technologique sont concernés par l'intelligence artificielle (IA) : elle a un impact sur les applications, les outils de développement, les plates-formes IT, les systèmes de gestion de bases de données, les middlewares, les outils de gestion et de surveillance. Soit à peu près tous les secteurs de l’IT. L’IA est même utilisée pour améliorer l'IA. À quels changements peut-on s’attendre en 2020 dans les usages, les outils, les techniques, les plates-formes et les normes de l'IA ? Voici quelques prévisions.
L'accélération de l'IA par GPU, toujours dominante
Les accélérateurs matériels d’intelligence artificielle sont devenus un facteur de différenciation incontournable dans le secteur high tech. Même si les technologies matérielles concurrentes - CPU, FPGA et unités de traitement des réseaux neuronaux - gagnent du terrain dans les applications Edge, les GPU resteront dans la course du fait de leur rôle essentiel dans les environnements d'applications cloud-to-edge, comme les véhicules autonomes et les chaînes d'approvisionnement industrielles. Les offres de Nvidia basées sur les GPU, leaders sur le marché, devraient croître et être adoptées en 2020 et au-delà. Cependant, au cours de la prochaine décennie, d’autres technologies non-GPU - CPU, ASIC, FPGA et unités de traitement des réseaux neuronaux - gagneront en performance, seront plus abordables en terme de coût et plus intéressantes en terme d'efficacité énergétique pour diverses applications Edge. Chaque année, Nvidia devrait susciter plus de concurrence.
Les benchmarks d’IA, une nouvelle arme de compétitivité
À mesure que le marché de l'IA s’affirme et que les plates-formes de calcul se battent pour être reconnues comme les plus rapides, les plus évolutives et les moins coûteuses pour traiter les charges de travail d’intelligence artificielle, les benchmarks de l'industrie devraient jouer un rôle toujours plus important. L’an dernier, les benchmarks MLPerf se sont imposés comme la référence en terme de compétitivité, car tous les acteurs, de Nvidia à Google, se sont vantés de performances supérieures sur ces tests. En 2020, les benchmarks d’IA seront un élément primordial de la stratégie de mise sur le marché et ce segment ne fera que se banaliser avec le temps. Dans les 10 ans à venir, les résultats des benchmarks MLPerf figureront dans les stratégies de positionnement des fournisseurs de solutions, partout où des capacités de haute performance basées sur l'IA sont essentielles.
Course en tête pour deux frameworks de modélisation favoris
Les frameworks de modélisation de l'IA sont indispensables aux spécialistes des données pour construire et entraîner leurs graphs de calcul. En 2020, la majorité des data scientists utiliseront probablement dans la plupart de leurs projets un mix de TensorFlow et de PyTorch, et ces deux frameworks figureront sans doute dans la plupart de leurs plans de travail. Au cours de la décennie, les différences entre ces frameworks devraient s’atténuer à mesure que les data scientists et autres utilisateurs de données accorderont plus d'importance à la parité des caractéristiques qu'à la forte différenciation fonctionnelle. De même, un plus grand nombre de fournisseurs d'outils d'IA devraient proposer des plates-formes de modélisation indépendantes du framework, ce qui pourrait donner un nouveau souffle aux anciens frameworks qui risquent de disparaître. L'adoption par l'industrie de plusieurs couches d'abstraction - comme Keras et ONNX - qui permettront à un modèle construit dans le front-end d'un framework d'être exécuté dans le back-end de tout autre framework supporté, devrait accélérer l’offre de plateformes de modélisation IA ouvertes. D'ici la fin de la décennie, personne, ou presque, ne se demandera plus quel outil de modélisation front-end a été utilisé pour construire et entraîner le modèle d'apprentissage machine. Quel que soit l’outil utilisé pour construire l’IA, le pipeline de données de bout en bout formatera, compilera, contiendra et servira automatiquement cette IA pour une exécution optimale, du cloud à la périphérie.
L'IA en mode SaaS réduit la demande de data scientists
Depuis l’an dernier, l’offre d'apprentissage machine en tant que service de fournisseurs comme AWS, Microsoft, Google, IBM et d'autres s’est affirmée. À mesure que la tendance prend de l’ampleur, de plus en plus d'utilisateurs professionnels devraient s'appuyer sur ces fournisseurs de cloud pour répondre à une plus grande partie de leurs besoins en matière d'IA, ce qui leur permettra de se passer d’équipes de data scientists en interne. D'ici la fin de l’année 2020, les fournisseurs de SaaS deviendront les principaux pourvoyeurs de traitement du langage naturel, d'analyse prédictive et d'autres applications d'IA, mais aussi de services de plateforme et d'outils devops. Les entreprises qui continueront à soutenir des initiatives d'IA en interne automatiseront davantage les rôles de data scientists, si bien qu’elles n’auront pas besoin d'embaucher de nouveaux modélisateurs en apprentissage machine, ingénieurs de données et postes auxiliaires. Au cours de la décennie, la plupart des data scientists seront recrutés principalement par les fournisseurs de SaaS et autres fournisseurs de cloud.
Une expérimentation en continu du monde réel pour l'IA d'entreprise
Chaque initiative de transformation digitale de l'entreprise repose sur l’usage de modèles d'apprentissage les mieux adaptés. Cette approche nécessite une expérimentation en situation réelle où les processus basés sur l'IA testent des modèles alternatifs d'apprentissage machine et choisissent automatiquement ceux qui permettent d'atteindre le résultat souhaité. D'ici la fin de l’année 2020, la plupart des entreprises mettront en œuvre des expérimentations en situation réelle dans tous les processus d'entreprise, aussi bien les processus en contact avec les clients que ceux en back-end. À mesure que les entreprises se tourneront vers les fournisseurs de cloud pour leurs outils d’IA, des fonctionnalités comme celles lancées récemment par AWS - studios d'itération de modèles, outils de suivi d'expériences multi-modèles et tableaux de bord de suivi de modèles - deviendront la norme dans tous les environnements d'applications professionnelles 24/7 basés sur l'IA. Au cours de la décennie, les capacités d'automatisation et devops basées sur l'IA donneront naissance à une meilleure pratique universelle d'optimisation des processus métiers basés sur l'IA.
Le travail de modélisation des développeurs d'IA automatisé par l’IA
Les réseaux de neurones sont au cœur de l'IA moderne. En 2020, les plans de travail des data scientists d'entreprise commenceront à intégrer une nouvelle méthodologie basée sur l'IA. Appelée « recherche d'architecture neuronale », elle est destinée à automatiser la construction et l'optimisation des réseaux neuronaux en fonction des objectifs. À mesure de son adoption et de son amélioration, la recherche d'architecture neuronale stimulera la productivité des data scientists, les aidera à prendre des décisions pour construire leurs modèles sur la base d’algorithmes d'apprentissage machine établis, comme la régression linéaire et les algorithmes de forêts d’arbres décisionnels aléatoires, ou sur n'importe quels algorithmes de réseaux neuronaux les plus récents et les plus avancés. Au cours de la décennie, cette approche et d'autres approches apparentées permettront de faire du développement de l’IA en continu, soutenu par un pipeline d'automatisation de bout en bout.
Fin de l’approche pratique avec les UI conversationnelles pilotées par l'IA
La compréhension du langage naturel basée sur l'IA est devenue incroyablement précise, au point que sur leurs mobiles et autres appareils, les gens passent rapidement en mode mains libres. À mesure de l’adoption des UI conversationnelles, les utilisateurs généreront plus de texte en entrées vocales. D'ici la fin de l’année 2020, les assistants vocaux basés sur l'IA et intégrés dans des appareils de toutes sortes génèreront toujours plus de textes, de tweets et autres entrées verbales. Pendant toute la décennie à venir, les assistants vocaux et l'interface utilisateur conversationnelle deviendront une fonctionnalité standard des produits dans tous les segments de l'économie mondiale. Les claviers, les pavés numériques, et même les interfaces tactiles seront de moins en moins utilisés.
Une transparence de bout en bout de l'IA réglementée
L'IA devient un facteur de risque de plus en plus important dans les applications d'entreprise. Alors que celles-ci sont confrontées à une recrudescence de poursuites judiciaires en matière de préjugés socio-économiques, de violations de la vie privée et autres effets regrettables des applications d'IA, les responsables juridiques exigeront un traçage total des modèles d'apprentissage machine pour savoir comment ils ont été construits, entraînés et gérés, et comment ils sont utilisés dans les applications d'entreprise. D'ici la fin de l’année 2020, les responsables juridiques de la plupart des entreprises demanderont à leurs équipes de data scientists d’enregistrer automatiquement chaque étape du processus d'apprentissage machine et d’expliquer en langage clair et simple l'inférence automatique induite par chaque modèle. Au cours de la décennie à venir, la transparence des projets d'IA sera déterminante pour l’obtention de financements.
Enfin, l’on peut supposer sans risque que, dans les années à venir, les demandes de réglementation des capacités basées sur l'IA pour tous les produits - en particulier ceux qui utilisent des informations personnelles identifiables - se multiplieront. Outre l'importance croissante accordée à la transparence dans le développement de l'IA, il est trop tôt pour dire quel sera l'impact de ces futures régulations sur l'évolution des plateformes, outils et technologies sous-jacents. Mais il semble probable que ces initiatives réglementaires ne feront que s'intensifier dans les années à venir, quel que soit le vainqueur de l'élection présidentielle américaine de novembre prochain.