- Vertex AI de Google s’étoffe avec des capacités LLM avancées. Lors de sa conférence annuelle Cloud Next, du 29 au 31 aout à San Francisco, Google Cloud a ajouté des outils à sa plateforme d’IA et de machine learning Vertex AI, qui ambitionne d’aider les entreprises à mieux exploiter les grands modèles de langage (LLM) avec un flux de données continu. Le fournisseur met donc en avant Vertex AI Extensions et Vertex AI Connectors, un ensemble d'outils gérés pour les développeurs qui connectent leurs modèles à des API temps réel, tout en mettant à jour Vertex AI Search et Vertex AI Conversations. Google fournira des extensions prédéfinies pour les services cloud propriétaires tels que BigQuery et AlloyDB ainsi que des bases de données partenaires telles que DataStax, MongoDB et Redis.
- EnterpriseDB propose PostgreSQL Distributed en tant que service cloud hautement disponible. EnterpriseDB, qui commercialise une version avec support de la populaire base de données open source PostgreSQL, lance une déclinaison en mode entièrement géré sur la plateforme EDB BigAnimal de l'éditeur. Cette annonce intervient six mois après que la société ait présenté la version 5.0 d'EDB PostgreSQL Distributed avec des fonctionnalités de haute disponibilité (99,999 %). Le logiciel utilise la technologie « actif-actif » sur un réseau de nœuds de traitement indépendants et de bases de données répliquées pour permettre aux organisations d'appliquer des mises à jour et d'effectuer une maintenance de manière incrémentielle sans mettre hors service l'intégralité de la base de données. EDB PostgreSQL Distributed peut être utilisé sur un réseau mondial avec reroutage automatique des charges de travail vers des instances opérationnelles en cas de panne de nœud. Cela améliore la disponibilité, les performances et l’évolutivité.
- IHM et IA aident une victime d'un AVC à parler. Victime d'une attaque cérébrale à 30 ans, Ann aide des chercheurs à développer une technologie cerveau-ordinateur (BCI) qui pourrait un jour permettre aux survivants d'AVC de communiquer plus naturellement par l'intermédiaire d'un avatar. Cette technologie a été mise au point par des chercheurs de l'UC San Francisco et de l'UC Berkeley. Elle décode les signaux cérébraux d'Ann et les transforme pour la première fois en texte, en paroles et en expressions faciales pour un avatar numérique. La recherche est dirigée par le docteur Edward Chang de l'UCSF, titulaire de la chaire de chirurgie neurologique.