Depuis vingt ans maintenant, Teradata réunit chaque année ses clients et partenaires pour sa grande conférence Universe. Se déroulant cette année à Amsterdam, l’événement a réuni près d’un millier de personnes, l’occasion pour la firme spécialisée dans les entrepôts de données de revenir sur sa stratégie et de présenter ses derniers produits. Comme à son origine, Teradata mise énormément sur une conception best of breed du big data. « Pour avoir les meilleurs produits, les entreprises ne peuvent pas se tourner vers une unique société. Elles doivent composer avec plusieurs fournisseurs », a martelé Hermann Wimmer, co-président de Teradata. C’est dans cette optique que la société s'attache à composer un écosystème complet pour le big data et l’analytique. « La majeure partie de nos ressources R&D sont investies dans l’intégration des différentes technologies du marché », a indiqué Stephen Brobst, CTO de la firme. Plutôt que d’essayer de concurrencer les forces montantes du NoSQL et d’Hadoop, Teradata préfère donc les embrasser. Ainsi, la firme a annoncé l’arrivée de connecteurs supplémentaires pour son orchestrateur multi-bases QueryGrid, présenté l’an passé. Déjà capable de jongler avec les distributions Hadoop d’Hortonworks et de Cloudera, ainsi qu’avec les solutions NoSQL de MongoDB, il intégrera pleinement la distribution Hadoop MapR 3.1.1 à la fin du second trimestre 2015. À noter qu’Aster Discovery, la plateforme de visualisation des données de Teradata profitera aussi, à la même date, d’une intégration de QueryGrid et de Cloudera CDH 4.3 et 5.1.
Mais faciliter le traitement des données est une chose, les stocker et surtout les trouver en est une autre. « La data doit revenir au coeur de l’entreprise. Les silos doivent tomber », a une fois de plus martelé Herman Wimmer. La chose est toutefois plus facile à dire qu’à faire. Nombreuses sont les entreprises qui aujourd’hui ne souhaitent pas que les données de différentes branches soient confrontées au sein d’un même système de bases de données. C’est pour résoudre ces problématiques que Teradata a annoncé, lors de Universe, le lancement d’un « Software Defined Datawarehouse ». « Ce nom relève du pur marketing, mais il y a de vraies technologies derrière », a ironisé Stephen Brobst.
Une ceinture de sécurité autour des données
Concrètement, cette solution va introduire des « Secure Zones » au sein d’un même datawarehouse afin de gérer l’accès à ces données via une console de gestion des droits. Il sera possible de définir différents niveaux de sécurité en fonction de la criticité des données sans pour autant revenir dans la problématique des silos. « Dans un grand établissement bancaire, les équipes de la partie retail ne pourront pas accéder aux données de la partie banque d’investissement. Mais il sera toutefois possible de lancer des analyses sur la globalité des données », illustre le CTO. Herman Wimmer appuie de son côté sur l’aspect du coût de cette solution : « Elle permet de réunir l’ensemble des bases de données dans un même système et de réduire les dépenses ». Là encore, les équipes de R&D s’échinent, selon les dires du co-président, à assurer une intégration maximale des partenaires à ce software defined data warehouse.
Et même si Teradata a rappelé qu’elle n’avait pas vocation à proposer toutes les briques de son écosystème de big data et d’analytique, la firme a également annoncé le lancement d’une appliance de base de données. Basée sur des processeurs Intel Haswel pouvant grimper jusqu’à 14 coeurs et de mémoire DDR4 permettant de monter jusqu’à 512 Mo par noeuds, la Teradata Data Warehouse Appliance 2800 peut embarquer jusqu’à 320 TB de données non compressées (en RAID-6). Elle embarque nativement l’ensemble des solutions de base de données de la firme ainsi qu’un serveur de gestion de la virtualisation. Les solutions de Back-up restent toutefois en option. L’appliance est d’ores et déjà disponible et compatible avec les base de données Teradata des versions 14.10 et supérieures. À travers ces spécifications, Teradata avance des vitesses de traitement supérieures à 15% par rapport à ses autres appliances. « La vitesse est une des composantes primordiales du big data », pointe Chris Togwood vice-président produits et services marketing.
L’orchestration, clé de voûte de la stratégie big data de Teradata
Avec ces différents innovations, Teradata affirme sa stratégie big data axée sur l’orchestration. « Avec les volumes de données qui explosent, les entreprises ne vont pas pouvoir se permettre de tout stocker au même niveau. Il va falloir faire la part des choses entre les données les plus froides, qui seront par exemple hebergées sur des systèmes de disques, et les plus chaudes qui seront en mémoire », explique Eric Joulié, Vice President Western Europe, Southern et Middle East Africa et également Président de Teradata France. L’enjeu va donc être d’automatiser cette orchestration des données via Query Grid. « Il faut que tout soit le plus simple possible. Les équipes ne doivent pas avoir à se soucier des infrastructures », tranche le directeur France. Dans cette logique d’accompagnement, Teradata mise énormément sur le consulting. « Nous avons 5 500 personnes qui travaillent sur la partie conseil. Même si à un moment, nous pouvons dire que nous sommes les meilleurs, ce qui fait notre force, c’est notre expertise », explique Eric Joulié. C’est d’ailleurs le besoin de renforcer cette expertise qui a motivé le rachat de Think Big en 2014. « Elle nous a apporté une meilleure vision du monde d’Hadoop », déclare Stephen Brobst.
Commentaire