Dévoilé hier, le service d'IA générative ChatGPT Enterprise d’OpenAI laisse les entreprises décider comment former leur modèle et combien de temps il peut stocker les données utilisées à cette fin. Cette déclinaison de ChatGPT apporte également une sécurité et une confidentialité accrues grâce au chiffrement des données au repos (AES-256) et en transit (TLS 1.2+) et au SSO (Single-Sign On) SAML (Security Assertion Markup Language) utilisé pour authentifier l'entreprise. OpenAI a par ailleurs indiqué qu'elle avait ouvert la bande passante pour que les entreprises puissent se connecter à GPT-4, le grand modèle de langage (LLM) sur lequel ChatGPT est basé et entraîné. L'entreprise prévoit d'offrir un accès « illimité à plus grande vitesse » au LLM, ainsi que des fenêtres contextuelles de 32k tokens, des entrées et des suivis quatre fois plus longs que ce qui était disponible auparavant. (Comme l’a expliqué OpenAI, un jeton représente environ 4 caractères ou 0,75 mot. À titre d’exemple, les œuvres de Shakespeare représentent environ 900 000 mots ou 1,2 million de jetons). « C’est une nouvelle étape vers l’adoption d’un assistant d’IA pour effectuer n'importe quelle tâche dans les environnements de travail et protéger les données de l’entreprise dans un cadre personnalisé », a déclaré OpenAI dans un billet de blog. « Avec ChatGPT Enterprise, l’entreprise posséde et contrôle ses données commerciales. La formation ne se fait pas sur leurs données ou leurs conversations, et nos modèles n'apprennent pas de leur utilisation. ChatGPT Enterprise supprime toutes les limites d'utilisation et fonctionne jusqu'à deux fois plus vite », a ajouté OpenAI. Le fournisseur propose également un « outil de décompte de tokens » pour connaître le nombre de jetons produits par un texte.
La start-up basée à San Francisco a aussi indiqué que la version Enterprise de ChatGPT disposait d'une console d'administration pour gérer les gros volumes de membres et vérifier le domaine, et d’un plug-in de tableau de bord analytique - anciennement dénommé Code Interpreter - pour avoir un aperçu sur l’usage. « Avec cette fonctionnalité, les équipes techniques et non techniques peuvent analyser les informations en quelques secondes, aussi bien les analystes financiers qui analysent des données de marché, les spécialistes du marketing qui analysent les résultats d'une enquête que les scientifiques des données qui déboguent un script ETL (Extract, Transform, Load) ». ChatGPT et d'autres modèles d'IA générative ont été entraînés à comprendre le langage naturel et le code et peuvent fournir des résultats textuels en réponse aux entrées ou aux requêtes de l'utilisateur. Les entrées GPT sont également appelées « invites ». La conception d'invites fait essentiellement référence à la manière dont les utilisateurs « programment » un modèle GPT, généralement en fournissant des instructions ou des exemples sur la manière de mener à bien une tâche. Ce processus est connu sous le nom d'ingénierie des invites ou « prompt engineering ». Les modèles GPT (Generative Pre-trained Transformer, ou transformeur génératif pré-entraîné) peuvent être utilisés dans des tâches très variées, y compris la génération de contenu ou de code, le résumé, la conversation, la rédaction créative, etc. La plupart des Grands modèles de langage (LLM), comme le GPT-4 d'OpenAI, sont pré-entraînés en tant que moteurs de prédiction du mot suivant ou du contenu. C'est ainsi que la plupart des entreprises les utilisent tels quels, pour ainsi dire. Et même si les chatbots basés sur les LLM ont produit leur lot d'erreurs, les LLM pré-entraînés fonctionnent relativement bien pour produire un contenu généralement précis et convaincant qui, au minimum, peut être utilisé comme point de départ pour d'autres tâches.
Personnalisation nécessaire
Cependant, de nombreux secteurs d'activité exigent des LLM plus personnalisés, capables de comprendre un jargon spécifique et de produire un contenu adapté à leurs utilisateurs. Par exemple, les LLM destinés au secteur de la santé peuvent avoir besoin de traiter et d'interpréter des dossiers médicaux électroniques, de suggérer des traitements ou de créer un compte rendu relatif à la santé du patient sur la base des notes du médecin ou d'enregistrements vocaux. Un LLM destiné à l'industrie des services financiers doit pouvoir résumer les conférences sur les résultats, créer des transcriptions de réunions et effectuer des analyses de fraude pour protéger les consommateurs. Selon un porte-parole de la start-up, « les clients d'OpenAI pourront étendre en toute sécurité les connaissances de ChatGPT aux données d'une entreprise en le connectant aux applications qu'ils utilisent déjà, mais cette fonctionnalité est encore en cours de développement ». Pour cette raison, le fournisseur offre à ses clients des crédits gratuits pour utiliser ses API s'ils ont besoin d'étendre OpenAI à une solution d’entreprise entièrement personnalisée. ChatGPT Enterprise est disponible dès maintenant. La start-up n'a pas fourni de détails sur les prix, lesquels seront calculés en fonction des besoins de chaque entreprise.