Dans un communiqué conjoint publié hier par l'Autorité européenne des marchés financiers, l'Autorité bancaire européenne et l'Autorité européenne des assurances et des pensions professionnelles, la nouvelle enquête doit déterminer si, au regard des « opportunités et défis » associés au big data, il est nécessaire de prendre de nouvelles mesures réglementaires ou de surveillance. En particulier, l’enquête va s’intéresser à l'utilisation, par les institutions financières, des données personnelles des consommateurs à des fins de profilage ou pour identifier des modes de consommation afin de promouvoir des offres ciblées. Ces activités « soulèvent des questions sur le comportement et les obligations globales que l’on peut attendre des entreprises », a indiqué le groupe.
Cette enquête parachèvera des travaux initiés plus tôt cette année par le comité mixte sur l’usage des algorithmes, qui seront poursuivis en 2016. L'objectif est d'évaluer « le phénomène croissant de substitution des algorithmes à l’interaction humaine entre consommateurs et institutions financières pour délivrer des conseils ou d'autres formes de recommandations », et en particulier d’en estimer les risques et les avantages, d’étudier la nécessité d'une réglementation ou de considérer d'autres actions. Les résultats de cette enquête sur les algorithmes seront inclus au document de travail à paraître cet automne, les recommandations politiques étant attendues pour 2016.
La transparence des algorithmes est une illusion
Plus tôt cette année, le Bureau de la protection des consommateurs, un organe de la Federal Trade Commission américaine, a assigné à son nouveau bureau de recherche et d'investigation technologique la mission de vérifier, entre autres choses, la transparence des algorithmes. « Aujourd’hui déjà, il est clair pour la plupart d’entre nous que notre banquier est un robot, et ce serait peut être bien de savoir si ces institutions fonctionnent de façon uniforme en vertu de règles équitables et transparentes », a déclaré Christian Sandvig, professeur à la School of Information de l'Université du Michigan. Cependant, cette équité et cette transparence sont loin d'être garanties. « Le risque de substituer l’homme par un algorithme pour le conseil financier et bancaire est sérieux. Le problème, c’est d’être sûr que ces robots agissent de la bonne façon », a déclaré Christian Sandvig. « Les algorithmes d'apprentissage automatique alimentés par les données big data produisent souvent des résultats inattendus, et leur fonctionnement peut même échapper à ceux qui les ont conçus ».
« Par exemple, l’estimation de la solvabilité d’un client pour une demande de crédit, une procédure quasi universellement acceptée comme un standard du système financier, a été en partie développée pour rendre plus opaque des décisions financières discriminatoires », a encore déclaré le professeur de la School of Information de l'Université du Michigan. « À une époque plus ancienne, avant d’accorder un prêt hypothécaire, les banquiers embauchaient des détectives privés pour savoir si leur client potentiel était ou non homosexuel ou communiste », a-t-il ajouté. « L’enquête financière de solvabilité sert en partie à masquer un processus secret ». Les algorithmes de recommandation pourraient aussi se parer « d’une fausse objectivité », a-t-il mis en garde. « La société doit se donner les moyens d’évaluer systématiquement l’impact de ces systèmes algorithmiques », a déclaré Christian Sandvig. « Cette initiative est une première étape, mais le chemin est encore long ».