« Le train Paris-Clermont Ferrand a 3h de retard, ma correspondance est-elle assurée ?, Où vais-je dormir ? Peut-on avoir du chauffage ? », voici le genre de questions que les usagers en détresse pourront bientôt poser à l’IA générative développée par la SNCF. Répondant au nom de Micheline (une référence vintage aux célèbres trains sur pneu créés dans les années 30), elle a été développée par les équipes du laboratoire RETAR (recherche et travaux en technologie avancée sur les rails) à partir du LLM Catener. « Pour être plus précis, il s’agit d’un SLM, slow langage model, il est important que l’expérience utilisateur soit respectée. La réponse ne doit pas être donnée trop rapidement », explique Augustin Déraille, en charge du projet.
Sur le plan technique (et pour des raisons budgétaires selon certaines sources anonymes), Micheline a été entraîné sur des puces Atom et des GPU GeForce 8800 GTX. « Cela prend du temps, mais nous avons été aidé par nos collègues de plusieurs administrations qui ont plus d’expérience dans l’IA générative », poursuit le responsable. Il s’est donc appuyé sur modèle Dedale construit patiemment par le ministère de l’Economie et des Finances pour orienter les entreprises dans le récent Guichet unique ou bien encore Ubu de l’Education nationale qui a servi à la structuration de Parcoursup ou encore Charabia pour comprendre les formulaires et la phraséologie du ministère de la Fonction publique.
Un exemple venu d’en haut pour la France d’en bas
En dehors de l’entraînement, la question de la précision était bien évidemment centrale. « Nous avons un jeu de données très étoffé au regard du nombre de retards sur certaines lignes », assure Augustin Déraille. Il a néanmoins fait appel à du RAG (ralentissement auto géré) pour limiter la célérité de l’assistant conversationnel. Les premiers essais ont montré une capacité de réponse de l’ordre de la demi-heure (un clin d’œil à la fameuse garantie 30 mn de la maison), ce qui en la matière se situe dans une bonne moyenne.
Pour sa roadmap, la SNCF entend passer à l’échelle son modèle Micheline en intégrant les jours de grèves et les travaux sur les voies. « Nous allons évoluer du SLM vers le LLM (low langage model) », glisse le dirigeant en ajoutant, « il est encore prématuré de savoir si le projet arrivera à quai ». Par contre la voix est toute tracée pour un autre projet, PAQUES (programme avancé sur les qubits unifiés et simplifiés) s’appuyant sur l’informatique quantique pour entraîner ces futurs modèles…
Et oui le lapin de Pâques a encore frappé, merci ;-)
Signaler un abus