Les développeurs peuvent désormais utiliser le langage naturel pour créer ou améliorer des chatbots avec Lex, l’outil de création d'interfaces conversationnelles d’Amazon. Grâce à ces fonctions d'IA générative, ils peuvent décrire les tâches que le service doit effectuer, par exemple « organiser une réservation d'hôtel en incluant les détails de l'invité et la méthode de paiement », comme le souligne un récent billet de blog de l'entreprise. « Sans l'IA générative, le développeur du bot devrait concevoir manuellement chaque élément - les intentions ou les chemins possibles, les énoncés qui déclencheraient un chemin, les emplacements pour les informations à capturer, et les invites ou les réponses du bot, entre autres choses », a déclaré Sandeep Srinivasan, chef de produit senior d'Amazon Lex chez AWS, lors d'une interview. « Cette approche facilite la mise en route. Lex peut aussi contribuer à résoudre les interactions délicates entre l'homme et le robot. Si le service ne parvient pas à comprendre une partie de la conversation, il demande l'aide d'un grand modèle de langage (LLM) choisi par le créateur du robot », a ajouté Sandeep Srinivasan.
Une autre fonctionnalité de Lex simplifie la création de chatbots en gérant automatiquement les questions fréquemment posées (FAQ). Les développeurs définissent les fonctions principales du robot, et une IA intégrée trouve des réponses à partir d'une source fournie - une base de connaissances d'entreprise, par exemple - pour répondre aux questions des utilisateurs. La firme introduit également une fonction QnAIntent intégrée pour Lex, qui incorpore le processus de questions-réponses directement dans la structure de l'intention. Cette fonction utilise un LLM pour rechercher une base de connaissances approuvée et donner une réponse pertinente. La fonction, disponible en aperçu, utilise des modèles de fondation hébergés sur Bedrock, un service qui offre un choix de modèles de fondation (FM) provenant de divers fournisseurs d'IA. Actuellement, la fonction permet de basculer entre les modèles Anthropic, et « nous travaillons à l'étendre à d'autres LLM à l'avenir », a déclaré Sandeep Srinivasan.
Lex, un élément de la stratégie IA d'Amazon
« Lex est assimilable à un système de systèmes, et nombre de ces sous-systèmes utilisent l'IA générative », a déclaré Kathleen Carley, professeur au CyLab Security and Privacy Institute de l'université Carnegie Mellon, lors d'une interview. « L'intégration d'un grand modèle de langage dans Lex signifie, et c’est le point essentiel, que si l’on construit ou interagit avec un robot Amazon Lex, il pourra fournir des réponses plus utiles, plus naturelles et peut-être plus précises à des questions standard », a ajouté Kathleen Carley. « Contrairement à l'ancien système analytique, ces robots ne sont pas axés sur les tâches et peuvent donc faire autre chose que suivre quelques étapes préprogrammées. Lex est, avec la construction de son LLM, un élément de la stratégie IA d'Amazon ». Le modèle, dont le nom de code est « Olympus », est adapté aux besoins d'Amazon et compte 2 000 milliards de paramètres, soit plus que GPT-4 d'OpenAI.
Les dernières fonctionnalités de Lex pourraient en partie révolutionner le codage alimenté par l'IA générative. Les développeurs essaient ChatGPT pour des tâches de codage, et cela semble prometteur, en particulier pour la vérification du code. Les développeurs devront probablement continuer à coder pour les logiciels vraiment complexes, mais l'IA changera probablement la manière dont nous utilisons des outils plus simples, no-code et low-code, qui nécessitent peu de connaissances techniques. Lors de son lancement en 2021, GitHub Copilot commettait parfois des erreurs ou ne fonctionnait pas, mais il était toujours utile. Les gens pensaient qu'il s'améliorerait et qu'il permettrait de gagner du temps. Deux ans plus tard, Copilot s'est amélioré et il faut payer pour l'utiliser, même pour un usage privé. Les assistants de codage tels que Copilot offrent désormais davantage de possibilités : ils expliquent le code, résument les mises à jour et vérifient les problèmes de sécurité.