Changer de slide d’un geste de la main pendant une présentation, indiquer une trajectoire à des robots ou des drones du bout du doigt ou éteindre la lumière au bureau, non pas d’un claquement de mains mais en dessinant une croix dans le vide. Si les dernières BMW séries 7 et 5 proposent déjà une interface de ce type baptisé Gesture Control pour changer de radio ou monter le volume, la start-up Motion Gestures veut apporter cette technologie au plus grand nombre. Fondée en janvier 2016, cette société canadienne a passé les deux dernières années à développer sa technologie. Depuis avril dernier, la solution logicielle est en commercialisation et Motion Gestures est entré depuis en phase de promotion du produit à travers le monde.
A l’origine du projet, un entrepreneur spécialiste dans la reconnaissance vocale et gestuelle par l’intelligence artificielle, Kashif Kahn. « Mon expertise en IA est limitée à l’apprentissage machine » souhaite-t-il souligner. « Plus précisément, je suis spécialisé dans le traitement du signal et de fusion de capteurs qui vont interpréter les informations des capteurs de sortie - individuellement ou en combinaison - de la même manière que le cerveau interprète ce que captent nos cinq sens. »
Une technologie agnostique
La technologie développée par la start-up permet ainsi, par reconnaissance des gestes effectuées par quelqu’un, d’effectuer une tâche. Le tout de la manière la plus simple possible, que ce soit pour les développeurs, intégrateurs et utilisateurs. L’idée est d’être totalement agnostique : le logiciel fonctionne avec n’importe quel capteur, sur n’importe quelle plateforme, avec n’importe quel produit.
Le développeur dessine le geste à effectuer sur son smartphone dans l’application dédiée. Le système convertit ensuite ce dessin en une trajectoire, définie par un script généré automatiquement qui n’utilise que trois variables. (Crédit : Motion Gestures)
La procédure d’enregistrement d’un geste pour le faire correspondre à une tâche ne dure que cinq minutes d’après les vidéos de démonstration de la société et son fondateur. Le développeur dessine le geste à effectuer sur son smartphone dans l’application dédiée. Le système convertit ensuite ce dessin en une trajectoire, définie par un script généré automatiquement qui n’utilise que trois variables. Si le mouvement n’est pas retranscrit comme il faut, le développeur peut réajuster chaque valeur du script (voir photo ci-dessus). Une fois prêt, le modèle peut être testé via des capteurs gestuels, tactiles ou visuels grâce au smartphone utilisé au départ, avant de pouvoir être réalisé à la main.
Eteindre la lumière ou contrôler un drone
N’importe quel symbole, des chiffres aux lettres, en passant par les caractères spéciaux, sont programmables pour permettre de réaliser des actions simples. Si les premières utilisations auxquelles on pense sont plutôt domestiques - allumer/éteindre la lumière, changer de chaîne à la télévision, etc. - les cas d’utilisations en entreprises existent également. Le plus évident est le changement de slide lors d’une présentation. Mais aussi avec des robots en usine, des drones pour surveiller des plantations, des chantiers d’exploitation minière ou de construction. Mais aussi de permettre au client d’interagir avec des panneaux informatifs dans le retail, etc.
(Crédit : Motion Gestures)
Cependant, une utilisation professionnelle de cette technologie nécessitera tout de même d’être sécurisé. On ne voudrait pas qu’une personne mal intentionnée puisse accédée à des informations confidentielles en un seul geste... Motion Gestures ne gère cependant pas cette branche et se concentre sur la seule technologie de reconnaissance gestuelle. « C’est au concepteur de l’application ou du produit de décider quel système de sécurité il utilisera » se contente de dire Kashif Kahn. Il est cependant possible de concevoir un « déclencheur » pour démarrer l’interprétation des mouvements. « Sinon le système sera forcé d’interpréter n’importe quel geste. »
Génération automatique des données
La technologie de Motion Gestures offre deux innovations notables également. Les algorithmes développés peuvent, d’une part, générer des données automatiquement pour s’entraîner à la reconnaissance du geste enregistrer. « Cela permet au développeur de gagner du temps en évitant la partie laborieuse, complexe et coûteuse de la collecte des données pour fournir des échantillons au modèle d'apprentissage automatique » indique Kashif Kahn.
La solution de Motion Gestures peut être intégrées à des puces ordinaires. (Crédit : Motion Gestures)
Ces algorithmes sont également compacts et réduisent ainsi les ressources de calcul nécessaires. « Les modèles de reconnaissance gestuelle peuvent donc être intégrés dans des semiconducteurs ordinaires qui ne coûtent de quelques dollars tout en conservant une grande précision » assure le fondateur et CEO de Motion Gestures.
En France au premier trimestre 2019
Aujourd’hui, l’entreprise est composée de dix employés : six chercheurs et ingénieurs et quatre commerciaux. Si le siège social est à Waterloo au Canada, la start-up est déjà présente à Palo Alto (Calfornie), Berlin (Allemagne), Pékin (Chine) et Tokyo (Japon). « Nous voulons être présents dans les trois plus grands centres économiques mondiaux, à savoir l’Amérique du Nord, l’Europe de l’Ouest et l’Extrême Orient. » précise Kashif Kahn. La start-up a déjà levé 1,7 millions de dollars en mai dernier mais est en train de finaliser un deuxième tour de table de série A qui devrait avoisiner les 15 à 20 millions de dollars d’après son CEO. « 60 % de cet investissement sera utilisé pour le développement commercial et marketing, le reste sera dédié à l’amélioration du produit et au support technique. »
Parmi les 60% de la levée, une partie servira à ouvrir de nouveaux bureaux. Et Kashif Kahn est très (trop ?) ambitieux. Deux sont programmés aux Etats-Unis, à Austin et Detroit. Deux en Europe, à Stockholm et Paris. Ce dernier devrait ouvrir au premier trimestre 2019. Enfin, c’est l’Asie qui sera la plus investit par Motion Gesture, avec trois autres bureaux en Chine, un en Inde, un en Corée du Sud, un autre au Japon.
Douze clients en France
En termes de clientèle B2B, le CEO de la start-up ne veut pas les nommer précisément mais indique avoir des entreprises intéressées dans de nombreux secteurs technologiques (semiconducteurs, mobile, capteurs, robotique, gaming, etc.), mais aussi dans l’automobile, le retail, la santé, etc. En France, une douzaine d’entreprise auraient manifesté un intérêt à cette solution de reconnaissance gestuelle. Dans la banque, le retail, l’aérospatial, le divertissement, l’automobile et le conseil informatique selon Kashif Kahn.