Chaque puce produite par Intel subit un contrôle de qualité rigoureux, impliquant une série de tests complexes. Voilà quelques temps que l'entreprise investit dans le Big Data pour accélérer ses processus, mais l'année dernière, Intel a déployé une plate-forme big data multi-tenant combinant une appliance d'entreposage de données avec Apache Hadoop. Cette plate-forme recueille des informations pendant la phase de fabrication et les combine ensuite à d'autres sources d'information jusque-là impossibles à gérer et à exploiter. Une petite équipe de cinq personnes suffit pour la diriger. Celle-ci a permis de réduire de 3 millions de dollars le coût consacré aux tests d'une ligne de processeurs Intel Core en 2012.
Intel compte économiser 30 millions de dollars en 2013-2014 en généralisant cette solution à d'autres produits. Les premiers résultats indiquent également que ces capacités seront déterminantes pour permettre à Intel d'atteindre son objectif, à savoir une réduction du temps de validation post-silicium de 25 %. Le fondeur est en train d'identifier d'autres utilisations possibles afin d'extraire encore plus de valeur du big data et de la Business Intelligence. La firme a mis en place des fonctions BI en libre-service pour ses commerciaux qui peuvent ainsi effectuer leurs propres analyses et disposer rapidement des résultats. « L'analyse prédictive est ce vers quoi nous voulons aller. Nos capacités d'analyse, combinées avec ce que nous pouvons glaner du big data, est la voie que nous nous sommes tracés », a déclaré Chris Shaw, directeur d'Intel IT EMEA.
Le hardware reste au coeur du métier
« Jusqu'à présent, tous les indicateurs servaient au suivi. On recueillait des données à tous les niveaux de l'environnement, on les importait dans une base de données pour les traiter et générer un rapport pour savoir ce qui s'était produit dans le passé. Ce que nous espérons dans cette visée prédictive, c'est l'utilisation de capteurs temps réel dans notre environnement, soit dans le cas d'Intel, de valider les puces pendant le processus de fabrication ».
Selon Chris Shaw, l'un des plus grands défis auxquels doivent faire face les entreprises, c'est de traiter beaucoup de données non structurées provenant d'une grande variété de sources. Extraire ces données avec des données structurées pour en tirer des informations peut être très difficile et nécessite souvent l'aide d'un spécialiste. « Le logiciel peut éventuellement y suppléer, mais au final, on reste toujours avec un ensemble de données. C'est le hardware qui doit faire le travail, c'est à dire appliquer une définition à telles ou telles données, les traiter en continu de façon à en tirer des informations significatives et non de simples informations sur le flux de données », a-t-il expliqué.
Trouver un ROI acceptable
Le directeur d'Intel IT EMEA admet que le retour sur investissement n'est pas garanti. Cependant, selon une recherche effectuée récemment par le MIT, les entreprises ayant recours à la BI pour leurs décisions sont généralement 5 % plus rentables. Celui-ci recommande de tester la solution en modèle réduit afin d'avoir une preuve de concept qui peut ensuite servir à d'autres investissements. Dans le cas du projet de validation de puces d'Intel, l'équipe est passée de 5 à 50 personnes, parce que le fondeur a pu constater que le retour sur investissement était significatif.
Intel travaille actuellement avec Apache pour construire une infrastructure cloud hybride articulée autour de Hadoop. L'objectif est d'aider la fondation à comprendre comment tirer le meilleur parti des fonctionnalités du hardware d'Intel, et avoir des retours sur les capacités nécessaires pour supporter Hadoop. « D'un point de vue strictement IT, nous savons que nous devons mieux comprendre comment fonctionne le cloud. Si nous réussissons à réaliser des économies d'échelle en collaborant avec le fournisseur externe, en travaillant avec les concepteurs, et offrir aux utilisateurs ce qu'ils attendent pour progresser, c'est une méthode inestimable pour avoir un bon retour sur investissement », a déclaré Chris Shaw.
Intel améliore le test de ses puces avec Hadoop
0
Réaction
Avec sa solution associant analyse prédictive et big data, Intel a réduit de 25 % la phase de test de ses processeurs et indique économiser 30 millions de dollars cette année.
Newsletter LMI
Recevez notre newsletter comme plus de 50000 abonnés
Commentaire