- Covage lève 156 M€. L’opérateur d’infrastructure de gros sur le marché de la fibre optique poursuit son plan d’investissement afin de couvrir l’intégralité des entreprises du territoire national dans ce domaine. Le français réalise une levée de fonds de 156 millions d’euros « pour connecter 100 % des entreprises à la fibre ». Fin 2023, il devrait avoir raccordé 40 métropoles supplémentaires à la fibre, renforçant ainsi la position d'Altitude - auquel il appartient depuis 2021 - en tant que 3ème opérateur d’infrastructure télécom en France. Concernant les fonds, il s’agit d’un crédit moyen terme et une ligne de liquidité mise en place par NORD/LB, banque allemande déjà partenaire du groupe.
- Reims expérimente l’IA de Thales. StreetPress révèle que, depuis 2021, le maire de Reims effectue des tests de vidéo surveillance alimentée par l’IA. L’outil « Savari », conçu par le géant français Thales a été intégré aux caméras de surveillance de l’agglomération et utilisé par la police municipale, pour une expérimentation d’un an indique le média. C’est Arnaud Robinet, maire de la ville depuis 2014, qui aurait décidé de cette collaboration. Derrière cette installation, les objectifs sont multiples : repérer automatiquement des regroupements ou des intrusions, et identifier des armes ou des véhicules. Les habitants de la ville n’ont cependant pas été mis au courant de ces expérimentations et il semble que la ville s’appuie sur le flou juridique qui tourne autour de la vidéosurveillance algorithmique.
- Google génère de la musique depuis un texte avec MusicLM. L’IA s’immisce depuis quelques années dans nos usages du numérique. Google, loin d’être le dernier en la matière, a ainsi développé un modèle générant de la musique haute-fidélité à partir d’invites textuelles telles que « une mélodie de violon apaisante soutenue par un riff de guitare distordu ». Baptisé MusicLM, il présente le processus de génération de musique conditionnelle comme une tâche de modélisation hiérarchique de séquence à séquence et génère de la musique à 24 kHz qui reste cohérente pendant plusieurs minutes. Les expériences menées par Google montrent que l’outil peut être conditionné à la fois par le texte et par une mélodie, puisqu'il peut transformer des mélodies sifflées et fredonnées en fonction du style décrit dans une légende textuelle. Le géant a publié un ensemble de données composé de 5 500 paires musique-texte, avec des descriptions textuelles fournies connu sous le nom de MusicCaps.
Au sujet du partenariat caché entre thales et reims, ce projet est abordé durant cette réunion municipale (16 novembre 2021) dont la vidéo est disponible sur Internet. Léo Tyburce, élu de l'opposition interpelle à ce sujet le maire à ce sujet (passage: 1h39min) . Réponse de ce dernier situé à environ 1h 44 min15 secondes qui se résume à déléguer le droit de réponse à son adjoint, Xavier Albertini. Ce dernier (passage: 1h 52 minutes) admet l'existence d'une base d'enregistrements vidéo. Néanmoins, il dément l'utilisation d'une technologie de reconnaissance faciale. Or, l'existence d'une tel base de données est un prérequis obligatoire pour l'entrainement d'une IA de reconnaissance faciale. Donc rien n'empêche en théorie l'utilisation d'une telle technologie de reconnaissance par la ville de Reims. D'autre part, il existe des modèles d'IA dits 'pré-entrainés' étant prêts à l'usage et pouvant largement satisfaire les cas d'usages simples évoqués par l'adjoint (comme reconnaitre la couleur d'une voiture ou identifier sa marque ) . Donc la couche d'opacité présent dans le discours du maire et de son adjoint me laisse craindre le pire à l'avenir
Signaler un abus