L’intelligence artificielle devrait améliorer les capacités des travailleurs humains et non les remplacer, estiment respectivement Virginia Rometty, CEO d’IBM, et Satya Nadella, CEO de Microsoft. Lors d’un panel de discussion sur le Forum économique mondial (WEF 2017), qui se tient en ce moment à Davos, en Suisse (du 17 au 20 janvier), les dirigeants des deux entreprises ont exprimé clairement leur point de vue sur le rôle de ces technologies faisant notamment appel à l'apprentissage machine. Quelques heures plus tôt, Virginia Rometty avait présenté trois principes éthiques pour un développement responsable de l’IA, un peu à la manière des trois lois de la robotique de l’auteur de science fiction Isaac Asimov. Exposées de façon plus vague et avec moins d’emphase que ces dernières, les principes d’IBM visent néanmoins à limiter les dégâts que pourrait causer la mise en oeuvre des technologies d’intelligence artificielle.
Le premier principe exposé est le but visé. « Ce ne sera pas l’homme ou la machine : notre but est d’augmenter [NDLR, les capacités de l'utilisateur] et d’être au service de ce que font les humains », a d’abord indiqué Virginia Rometty. Deuxième principe, la transparence : « Si quelqu’un utilise un système, il faut lui dire qu’il s’agit d’intelligence artificielle et lui indiquer comment l'outil a été entraîné », a-t-elle poursuivi. « A-t-il été entraîné par des experts ? Quelles sont les données qui ont été utilisées pour le faire ? L’humain doit garder le contrôle de ces systèmes ». Le troisième principe est d’assurer que les humains ont les compétences pour travailler avec les nouvelles technologies cognitives. « Il est probable que certaines tâches seront remplacées, mais la plupart d’entre nous travaillerons avec ces systèmes », a ajouté la CEO.
De droite à gauche, Satya Nadella, CEO de Microsoft, Ron Gutman, CEO d'HealthTap, Joichi Ito, directeur MIT Media Lab et Virginia Rometty, CEO d'IBM. (crédit : Tech Events)
Des entreprises telles qu’IBM doivent s’assurer que les systèmes d’IA ne sont pas les seuls à être formés, mais que les utilisateurs le sont aussi. « Les compétences dont on a besoin dans ce monde ne sont pas toutes des compétences de haut niveau », a expliqué Virginia Rometty en encourageant les entreprises à travailler avec les écoles. « Fournissez-leur un programme pertinent, un mentorat et assurez-vous qu’elles enseignent ce sur quoi vous recrutez », a-t-elle insisté.
Jusqu'où s'étend la responsabilité humaine reste une question ouverte
Le CEO de Microsoft est sur la même ligne. « C’est notre responsabilité de faire que l’intelligence artificielle augmente l’ingéniosité et les possibilités humaines », a-t-il indiqué à son tour. Toutefois, savoir jusqu’où s’étend la responsabilité humaine dans cette industrie reste une question ouverte. « C’est l’un des défis les plus difficiles », a reconnu Satya Nadella. « Comment prendre en compte la responsabilité sur des décisions que prennent des algorithmes dans un monde où les algorithmes ne sont pas écrits par vous, mais qu'ils fonctionnent par apprentissage ».
Le CEO de Microsoft est d’accord sur la nécessité d'être transparent sur la façon dont le système a été entraîné et sur les données qui ont servi à le faire. Dans le cas contraire, « à quelle boîte noire allez-vous vous fier ? Quel est le cadre juridique et éthique capable de gouverner la boîte noire ? Qui en est responsable ? ». C’est un terrain sur lequel l’industrie informatique doit travailler, a ajouté Virginia Rometty. « C’est notre responsabilité, en tant que leaders produisant ces technologies, de guider leur entrée dans le monde d’une manière sûre », a-t-elle souligné à Davos. Elle présente le consortium « Partnership on AI », créé en septembre par IBM et Microsoft avec Amazon, Google et Facebook, comme un exemple de la façon dont l’industrie IT prend les devants dans ce domaine.
Plusieurs secteurs d'activité ont commencé à se préoccuper des bouleversements que l'IA va entraîner dans leurs rangs. En France, par exemple, dans le secteur de la banque de détail, la mise en place par certains établissements d'applications faisant appel à des technologies d'apprentissage machine (notamment Watson d'IBM) a récemment conduit le syndicat national bancaire à s'exprimer sur le sujet. Le SNB estime qu'il faut lancer d'importants plans de formation pour pouvoir à terme transformer les conseillers clientèle en experts. Par ailleurs, sur le terrain de la robotique, les juristes de l'Union européenne planchent en ce moment sur l'intérêt de conférer aux robots un statut de « personne électronique » pour mieux établir les responsabilités et régler les différends.