Alors que des entreprises comme Microsoft et Nvidia misent à fond sur la puissance des algorithmes de machine learning de dernière génération, certains régulateurs redoutent ce que cela pourrait signifier pour nos réseaux de communication déjà très sollicités. C'est le cas de la présidente de la Commission fédérale des communications des États-Unis, qui vient de proposer une enquête sur ce que l’IA pourrait signifier pour un nombre encore plus grand d'appels et de textes non sollicités. La FCC votera l'adoption d'une action à plusieurs niveaux en novembre. La présidente Rosencworcel, qui siège à la Commission depuis 2012 et en assure la direction depuis sa confirmation fin 2021, est particulièrement préoccupée par la manière dont les outils d’IA – qui se sont multipliés ces derniers mois – pourraient affecter les personnes âgées.
Le communiqué de presse initial de la FCC énumère quatre objectifs principaux : déterminer si les technologies d'IA relèvent de la compétence de la Commission via le Telephone Consumer Protection Act de 1991, si et quand les futures technologies d'IA pourraient faire de même, comment l’IA a un impact sur les cadres réglementaires existants et si la FCC devrait envisager des moyens de vérifier l'authenticité de la voix et du texte d'IA générés automatiquement à partir de « sources de confiance ». Ce dernier point semble être celui qui risque de poser le plus de problèmes. Le texte généré automatiquement et les algorithmes de voix naturelle sont déjà des outils assez faciles à utiliser, même s'ils ne sont pas aussi rapides que nécessaire pour les échanges en temps réel dans le cadre d'un appel téléphonique. Si l'on ajoute à cela des datacenters que l’on pourrait qualifier de « big iron », qu'ils soient entièrement créés dans le but de traiter des appels et des textes en masse ou simplement loués à des sociétés telles qu'Amazon et Microsoft, on obtient la recette d'un désastre.
Utiliser l’IA pour lutter contre les spams et les arnaques
Remplacer les centres d'appel à personnel humain du monde entier, dans des pays comme l'Inde et le Cambodge qui en comptent beaucoup, par des systèmes d'IA entièrement automatisés pourrait augmenter de manière exponentielle le volume et l'efficacité des escroqueries, qui sont déjà envoyées des centaines de milliards de fois chaque année. Bien qu'il existe des filtres et des blocages, on estime que des milliards de dollars sont perdus chaque année dans des escroqueries rien qu'aux États-Unis, dont beaucoup ciblent spécifiquement les personnes âgées.
Le brief de la FCC mentionne que la technologie de l'IA pourrait également être utilisée pour lutter contre les spammeurs et les escroqueries, probablement avec une sorte de système d'analyse en temps réel alertant les utilisateurs qu'ils sont en train de parler à un ordinateur. Mais les détails de cette question, ainsi que l'évolution potentielle de la menace posée par les outils d'IA, devront attendre la session de la Commission du 15 novembre.