C'est un grand combat certes, mais loin d'être perdu d'avance. Afin de lutter contre la désinformation et la manipulation d'images, video et autres flux audio, Microsoft apporte sa pierre à l'édifice en annonçant l'arrivée de plusieurs technologies.
Avec Video Authenticator, la firme de Redmond propose un outil d'analyse aussi bien de photos que de videos permettant d'attribuer un score de confiance ou pourcentage de chance que ces medias soit artificiellement manipulés. « Dans le cas d'une vidéo, il peut fournir ce pourcentage en temps réel sur chaque image pendant la lecture de la vidéo. Il fonctionne en détectant la limite de fusion des éléments deepfake et subtils de décoloration ou de niveaux de gris qui pourraient ne pas être détectables par l'œil humain », ont expliqué dans un billet de blog Tom Burt, vice-président corporate de la sécurité et de la confiance client et Eric Horvitz, directeur scientifique. Video Authenticator a été créé en utilisant le dataset public en provenance de Face Forensic++ et a été testé sur le Deepfake Detection Challenge Dataset centré sur la détection de deepfake. Cette technologie a été mise au point par l'équipe Research de Microsoft, en coordination avec l'équipe Responsible AI de Microsoft ainsi que son équipe AETHER (Ethics and Effects in Engineering and Research).
Hach numérique et certificats pour authentifier un contenu
Une technologie complémentaire a également été annoncée par l'éditeur qui est en mesure de détecter à la fois le contenu manipulé, et garantir aux utilisateurs que les médias qu'ils regardent sont authentiques. Cette dernière est articulée autour de deux composants : « Le premier est un outil intégré à Microsoft Azure qui permet à un producteur de contenu d'ajouter des hachs numériques et des certificats à un élément de contenu. Les hachages et les certificats vivent ensuite avec le contenu sous forme de métadonnées partout où il se déplace en ligne. Le second est un lecteur - qui peut exister en tant qu'extension de navigateur ou sous d'autres formes - qui vérifie les certificats et fait correspondre les hachs, permettant aux gens de savoir avec une grande précision que le contenu est authentique et qu'il n'a pas été modifié, et fournir aussi des détails sur son origine ».
En parallèle du lancement de ces outils, Microsoft annonce rejoindre plusieurs initiatives. Tout d'abord en nouant un partenariat avec l'AI Foundation, et permettre via son programme Reality Defender 2020 de mettre Video Authenticator à disposition des organisations pour mieux les guider à travers les limites et les considérations éthiques inhérentes à toute technologie de détection deepfake. « Nous nous sommes associés à un consortium d’entreprises médiatiques, dont la BBC, CBC / Radio-Canada et le New York Times sur Project Origin, qui testera notre technologie d’authenticité et contribuera à la faire progresser en tant que norme pouvant être largement adoptée », précise également Microsoft. Un accord avec l'Université de Washington, Sensity et USA Today a aussi été conclu pour étoffer la littérature média et aider les individus à mieux distinguer la désinformation et gérer les risques liés aussi bien au deepfakes qu'aux cheap fakes.