Quels types d'application peut-on mettre en oeuvre. « Il y a déjà l'analyse de sentiments effectuées à partir des réseaux sociaux afin d'évaluer la perception des marques, un cas d'usage mis en place par les départements marketing », cite l'analyste. Elle rappelle que le premier cas d'usage des Big Data a porté sur les connexions des internautes sur les sites web pour afficher les informations suivant les centres d'intérêts. « C'est un peu le fondement de la démarche ». Autre exemple : la capacité à proposer des prix en temps réel pour l'achat de voyages. En faisant tourner des algorithmes de pricing au fur et à mesure que des internautes achètent des billets. « La capacité à pouvoir faire des calculs immédiatement sur l'ensemble des transactions exécutées vient livrer une valeur différenciatrice pour retenir les clients », explique la directrice de recherche chez Gartner.
Quel impact sur les architectures ?
Roxane Edjlali insiste sur le fait que les problématiques sont très différentes en fonction des cas d'usage et livre deux autres exemples. L'analyse de graphe, d'abord, qui permet de détecter dans Facebook quels sont les influenceurs pour ne cibler qu'eux. Ou, encore, le site web MeilleursAgents qui surimpose sur une carte les données de cadastre, les prix de vente au m2 et, en fonction de la géolocalisation de l'internaute, affiche sur son mobile le prix du m2 à l'endroit où il se trouve. « L'application combine des données structurées avec des données publiques et des données géolocalisées, détaille Roxane Edjlali. C'est assez représentatif de ce l'on peut faire. » Des applications nouvelles peuvent ainsi être imaginées dans différents domaines du fait de pouvoir combiner quasi instantanément ces informations de sources et de natures diverses.
Comment ces projets vont-ils impacter les architectures ? « Aujourd'hui, les bases de données relationnelles se mesurent en dizaines ou centaines de téraoctets et sont déjà difficiles à administrer telles qu'elles sont. Si nous passons aux dizaines de petaoctets, cela ne va pas tenir. » Par ailleurs, les approches transactionnelles ne sont pas adaptées à la recherche de « patterns » (motifs) sur de gros volumes en ligne, rappelle Roxane Edjlali. Faire du chargement en temps réel sur le datawarehouse est une demande croissante, mais avec les capteurs, c'est difficile. « D'autant qu'on n'a pas besoin de tout capter, mais surtout les deltas », fait-elle remarquer. « Les structures de stockage ne sont pas adaptées à ces données, et pas adaptées non plus à les traiter avec la rapidité à laquelle elles arrivent ». Il faudra pouvoir utiliser des informations collectées au cours du temps, mais sans avoir obligatoirement tout en ligne. « Cela dépendra du besoin », souligne l'analyste. « Par exemple, pour une analyse comparative et de tendance au long cours, ce n'est pas si grave si cela ne se fait pas en temps réel. Cela peut être en batch, une fois par jour ».
Pas de solution miracle sur le marché
Si l'on regarde le marché, aucun fournisseur n'apporte la solution miracle tenant compte des 12 axes répertoriés par Gartner, fait remarquer la directrice de recherche. L'entreprise doit donc déterminer quels sont ses critères principaux. Est-ce la volumétrie qui prime ? La vélocité ? Accepte-t-elle une qualité moindre au prix d'un traitement plus rapide ? « Quels sont sur ces 12 axes ceux qui sont principalement concernés par l'application que vous souhaitez faire ? », soumet-elle à son auditoire. Tout ne relève pas du CEP (complex event processing), un cas d'application bien connu, relève-t-elle, et déjà mis en oeuvre depuis longtemps sur les transactions bancaires dans les salles de marché, ou dans l'industrie.
Du côté des technologies, tous les grands noms du logiciel ont désormais leur infrastructure Hadoop pour gérer les grosses volumétries. D'autres, comme Hortonworks ou Cloudera, ne fournissent que l'infrastructure permettant d'aller chercher des motifs à travers ces divers fichiers. « Cela demande des compétences de statisticien et des connaissances métiers pour savoir quoi chercher dans ces informations », insiste Roxane Edjlali. « Il faut aussi des compétences en programmation pour aller chercher ces motifs ».
L'USF aide ses adhérents à déchiffrer les Big Data
0
Réaction
Newsletter LMI
Recevez notre newsletter comme plus de 50000 abonnés
Commentaire