Mistral AI est, pour ainsi dire, la start-up la plus en vogue en France. Et de l’autre côté de l’Atlantique, elle est suivie avec beaucoup d’attention. Le premier à s’en rapprocher n’est autre que Google. Mi-octobre, Mistral AI annonçait s’associer à Google Cloud pour intégrer nativement son modèle d'IA de pointe dans Vertex AI. « Nous sommes heureux d'annoncer que le premier modèle open source de Mistral AI, « Mistral 7B », est intégré aux Vertex AI Notebooks » peut-on lire dans un billet de blog de Google Cloud. « Ce notebook public permet aux clients de Google Cloud de déployer un workflow de bout en bout pour expérimenter (c'est-à-dire tester, affiner) avec Mistral 7B et Mistral 7B-Instruct sur les notebooks Vertex AI ». Pour rappel, les notebooks Vertex AI aident les data scientists à développer des modèles de manière collaborative en partageant, en se connectant aux services de données GCP, en analysant des ensembles de données, en expérimentant différentes techniques de modélisation, en déployant des modèles entraînés en production et en gérant les MLOps tout au long du cycle de vie du modèle.
L'intégration du modèle de Mistral AI dans Vertex AI exploite vLLM, un cadre de diffusion LLM optimisé qui peut augmenter le débit de diffusion. En exécutant le notebook, les utilisateurs pourront déployer automatiquement une image vLLM (maintenue par Model Garden) sur un point de terminaison Vertex AI à des fins d'inférence. Via cette intégration, les utilisateurs peuvent bénéficier du registre des modèles Vertex AI, un référentiel central où ils peuvent gérer le cycle de vie des modèles Mistral AI et leurs propres modèles affinés. À partir de ce registre des modèles, les utilisateurs auront un aperçu de leurs modèles afin de pouvoir mieux organiser, suivre et entraîner les nouvelles versions. Enfin, lorsqu'ils souhaitent déployer une version de modèle, ils peuvent l'attribuer à un point de terminaison directement à partir du registre ou, à l'aide d'alias, déployer des modèles sur un endpoint.
L'infrastructure Google Cloud fait les yeux doux à Mistral AI
Aujourd’hui, Mistral-7B, est désormais entièrement intégré dans ce registre dit « jardin de modèles » Vertex AI de Google. Mistral AI fait également le choix de l'infrastructure de Google Cloud pour « rendre l'IA générative plus ouverte et plus accessible » mais aussi pour étendre la distribution et la commercialisation de « ses modèles de langage propriétaires et open source (open weights), grâce à l'infrastructure optimisée pour l'IA de Google Cloud ». Précisons que cet accord est non exclusif, d’autres fournisseurs pourraient donc venir courtiser Mistral AI prochainement. Dans le cas présent, Google Cloud assure à l’entreprise un cadre sécurisé avec des standards de confidentialité élevés pour tester, construire et développer ses LLM.
« Google Cloud offre une pile matérielle et logicielle flexible qui nous aidera à poursuivre notre ambition de construire des modèles d'IA open source plus importants et plus sophistiqués, disponibles dans plusieurs langues. Cela nous permettra de déployer des modèles plus faciles d'accès pour tous types d'organisations, dans le monde entier », a déclaré Arthur Mensch, PDG et cofondateur de Mistral AI. « L'approche de Google Cloud en matière d'IA responsable, son engagement en faveur des technologies open source, ses capacités d'infrastructure étendues et fiables, ainsi que ses capacités éprouvées en matière de confidentialité et de sécurité sont en parfaite adéquation avec notre volonté de développer des modèles d'IA librement accessibles ».
Mixtral 8x7B bientôt disponible sur la marketplace GCP
Notons par ailleurs que le dernier modèle dévoilé par Mistral AI lors de sa dernière levée de fonds et baptisé Mixtral 8x7B sera prochainement disponible sur la marketplace de Google Cloud. Ce modèle s'avère très prometteur au vu des premiers benchmarks réalisés. L'équipe de Mistral AI affirme ainsi qu'il « surpasse Llama 2 70B sur la plupart des benchmarks avec une inférence 6 fois plus rapide. Il s’agit du modèle ouvert le plus puissant avec une licence permissive et du meilleur modèle global en termes de compromis coût/performance. En particulier, il correspond ou surpasse GPT3.5 sur la plupart des benchmarks standards ».
Pour Isabelle Fraine, directrice générale de Google Cloud France, ce partenariat s’avère prometteur, aussi bien pour le fournisseur cloud que pour la licorne française. « En s'appuyant sur l'infrastructure optimisée pour l'IA et l'expertise technique de Google Cloud, les réalisations déjà impressionnantes de Mistral AI vont devenir des solutions fiables, accessibles et « prêtes à l’emploi », pour les entreprises, en phase avec la demande mondiale croissante en matière de solutions d’IA générative ».
Commentaire