Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 71 à 80.
< Les 10 documents précédents | Les 10 documents suivants > |
(31/01/2012 15:30:18)
Tilera dévoile sa puce serveur 36 coeurs pour concurrencer Intel et ARM
Tilera a présenté sa puce serveur 36 coeurs à destination des datacenters. La Tile-Gx36 est cadencée à une vitesse d'horloge de 1,2 GHz, pour une consommation affichée de 24 watts. « Comparativement à certaines puces serveurs Intel Xeon, très gourmandes en énergie, la puce de Tilera permet d'effectuer plus d'opérations par cycle d'horloge tout en consommant moins, » a déclaré Bob Doud, directeur marketing du fondeur. La puce Tilera possède les caractéristiques d'un processeur généraliste. Elle peut notamment faire tourner le système d'exploitation Linux et les applications couramment utilisées sur le web. Elle intègre moins de coeurs en parallèle que la puce 64 coeurs de Tilera, sortie il y a quelques années, mais elle est néanmoins plus rapide. Grosso modo, un serveur 2U intégrant 8 processeurs 36-coeurs consommera 400 watts, soit autant qu'une boîte comportant 8 puces Tilera 64 coeurs. « La puce Gx36 tourne à une vitesse d'horloge beaucoup plus élevée... et comme elle dispose d'un cache beaucoup plus important, elle peut effectuer plus d'opérations par coeur. Au final, avec une puce 36 coeurs, on obtient des performances nettes plus élevées », a ajouté le directeur marketing.
Selon les analystes, il est difficile de faire une comparaison point par point, dans la mesure où chaque architecture a ses propres caractéristiques. Les processeurs basse énergie d'ARM et de Tilera pourraient être bien adaptés pour traiter les transactions rapides dans le cloud. Les puces x86, qui sont majoritaires, ont fait leur preuve et savent gérer les applications qui ont besoin de beaucoup de ressources, comme les bases de données par exemple. Généralement, les transactions sur Internet sont traitées et servies par des centres de calcul, et l'intérêt pour des serveurs basse énergie ne cesse de croître, entre autre parce que les entreprises cherchent à réduire le coût de leurs datacenters.
Des tests qui dureront des années
Les puces de Tilera sont déjà en cours de test dans certains serveurs. Des précurseurs, comme Hewlett-Packard et Nvidia, sont en train de construire des serveurs expérimentaux équipés de processeurs ARM basse énergie, lesquels équipent la plupart des smartphones et tablettes actuelles. Mais les puces de Tilera, ARM et x86 sont basées sur des jeux d'instructions différents. « La notoriété de ARM est plus importante, mais du fait de ses capacités 64-bits, la puce de Tilera est plus puissante, » a déclaré Bob Doud. En effet, les processeurs ARM actuels sont 32-bits seulement, et la puce serveur 64-bits, annoncée par ARM, ne verra le jour qu'en 2014. « Nous profitons du buzz autour de ARM, » a reconnu le directeur marketing. « Cette agitation est bonne pour Tilera car nous disposons déjà de la technologie. » Le fondeur pourra aussi se tourner vers un de ses actionnaires, Cisco, qui a investi dans la société en janvier 2011.
[[page]]
Selon Dean McCarron, analyste principal chez Mercury Research, « Tilera ne va pas supplanter Intel dans les datacenters du jour au lendemain, et ses puces devront subir plusieurs années de tests avant que leur présence soit significative sur le marché des serveurs. » Les entreprises ne vont pas se passer aussi facilement de la haute fiabilité et de la disponibilité que leur fournissent les serveurs x86. Les précurseurs peuvent tester les puces Tilera sur des systèmes effectuant des tâches avec des priorités basses, comme les serveurs web, sans incidence sur les datacenters en cas de panne. Mais, même ces tests pourraient durer plusieurs années. « C'est ce qui s'est passé, pas seulement avec des puces non-x86, mais aussi avec les puces x86, » a déclaré l'analyste. Celui-ci a rappelé le cas des puces Atom basse énergie x86 d'Intel, utilisées à titre expérimental dans des serveurs pour le service web. « Le marché des puces non-x86 a le même niveau d'exigences. Les constructeurs vont faire leurs tests et éprouver leurs performances, » a déclaré Dean McCarron.
Prendre en compte le TCO et pas uniquement la consommation d'énergie
« Les architectures concurrentes ARM et MIPS présentent des avantages en matière de consommation d'énergie, mais il faut prendre en compte un coût total de propriété avant de comparer les architectures, » a déclaré Jim McGregor, spécialiste en stratégie des technologies chez In-Stat. Selon lui, le fait de disposer de l'architecture la plus économe en énergie ne va apporter aucun avantage, sauf si les entreprises sont prêtes à investir dans le développement de logiciels, ce qui, en général, coûte le plus cher. « Il y a et il y aura toujours des applications qui peuvent justifier de nouvelles architectures pour des raisons de puissance et de performance, mais le développement logiciel ajoute un coût supplémentaire important, sans compter le risque du lock-in qui lie à une architecture unique, » a déclaré Jim McGregor. La puce Xeon d'Intel offre un support logiciel quasi illimitée et un faible coût total de propriété. « Il y a aussi l'alternative AMD, qui offre des puces compétitives en termes de prix et de performance, » a déclaré le spécialiste d'In-Stat.
« Mais les gros clients qui déploient des milliers de serveurs ont leur propre code source et sont moins concernés par le support logiciel, » a déclaré Bob Doud de Tilera. « Les économies réalisées sur quatre ou cinq ans ont plus d'importance, et le fait d'avoir à recompiler le code n'est pas si contraignant que cela, » a t-il ajouté. Les applications Linux standards, comme le serveur web Apache, la base de données MySQL et le logiciel de cache Memcached, ont déjà été portées sur les puces Tilera. L'architecture Tilera supporte plus de 2 000 types de logiciels basés sur Linux, et offre le support logiciel nécessaire. « Nous n'avons aucune opposition, » a déclaré le directeur marketing. « Nous disposons de toutes les bibliothèques essentielles. »
(...)
Dassault Systèmes prépare un cloud public concurrent d'Andromède
Selon nos confrères de BFM Business, Dassault Systèmes qui a abandonné le projet de cloud national Andromède, travaille sur une plate-forme concurrente. « On a trouvé des entreprises réputées et dynamiques avec lesquelles travailler, qui ont une vraie ambition et peuvent agir vite », a déclaré vendredi dernier sur la radio Bernard Charlès, directeur général de l'éditeur. « Fin décembre, nous avons constaté que la structure de coûts [d'Andromède] ne permettait pas d'avoir une solution compétitive car les coûts étaient trop élevés. Donc on s'est retiré de la structure mais pas du projet, que je porte depuis deux ans et demi ».
Depuis le départ de Dassault Système le 22 décembre 2011, la plate-forme cloud Andromède destinée aux acteurs du secteur public et dotée à l'origine d'une enveloppe budgétaire de 285 millions d'euros (voir détails du financement), ne rassemble plus qu'Orange pour la partie infrastructures et du groupe Thales (étroitement lié à Dassault Aviation) pour la partie sécurité. Si certaines SSII se sont montrées intéressées par le projet Andromède - Atos, Cap Gemini et même Bull - rien n'a été annoncé et le projet se réactive avant l'élection présidentielle. Vivek Badrinath, directeur exécutif d'Orange Business Services, nous a ainsi confié le jeudi 26 janvier qu'un directeur général allait être nommé pour Andromède et que le projet allait s'accélérer. « On espère boucler assez vite en 2012 en tout cas pour la couche infrastructure ». Le datacenter de Val Rueil en Normandie, dont l'ouverture est attendue en juin 2012, assurera une partie de la charge. « Il s'agit d'un investissement important pour le groupe et les clients. C'est une de nos contributions au projet Andromède », a expliqué lors de la même conférence de presse, Didier Jaubert, senior vice-président global services chez OBS.
Bull pour remplacer Dassault Systèmes dans Andromède
« Si Dassault Systèmes souhaite déposer un nouveau projet de cloud computing en vue d'un soutien des investissements d'avenir, alors on examinera ce projet dès lors qu'il sera déposé », a indiqué aujourd'hui à l'AFP Eric Besson ministère de l'Industrie. Le 12 janvier dernier, invité aux voeux de l'Afdel, M. Besson avait indiqué qu'il allait réunir le 20 janvier [une réunion finalement reportée sine die] le consortium porteur du projet Andromède afin de le remobiliser et d'analyser la situation après le retrait de l'un de ses acteurs majeurs. « Il y a une ou deux autres options qui se dessine. Je suis raisonnablement optimiste sur les chances d'y arriver ». Rappelons que le projet de cloud national Andromède a été lancé par le premier ministre François Fillon en 2009. Trois ans après la première brique, la nomination d'un directeur général, semble enfin arriver, bientôt suivie par l'inauguration du datacenter, et enfin l'arrivée d'un troisième partenaire technologique. Selon le journal les Échos, « Bull discuterait déjà avec Orange et l'État, et pourrait apporter au consortium son expérience dans le domaine des supercalculateurs informatiques ».
À la question de savoir qui pourrait remplacer Dassault Systèmes sur le plan financier dans le projet Andromède, Vivek Badrinath nous a étonnement répondu jeudi dernier que l'éditeur français apportait une expérience utilisateur très intéressante pour faire tourner des applications très lourdes dans un environnement cloud. Une expérience que l'éditeur a donc décidé d'apporter à d'autres entreprises au sein d'un cloud public concurrent. Un projet que Dassault Systèmes ne souhaite pas détailler plus avant pour l'instant.
(...)(30/01/2012 10:31:07)Magirus référence Embotics, logiciel de gestion des clouds privés
Le VAD pan-européen Magirus signe avec la société canadienne Embotics, qu'il va représenter sur toute la zone EMEA. Ce contrat entre dans la stratégie cloud de Magirus, Embotics a conçu une solution logicielle (Embotics V-Commander) de gestion des clouds privés. Une solution qui positionne les revendeurs sur le conseil, en effet la solution de Embotics permet d'activer des machines virtuelles, de gérer les processus de demande et de validation de bout en bout, elle permet aussi l'analyse et l'affectation des coûts informatiques. (...)
(30/01/2012 10:08:26)Annuels Acesi : forte croissance et des ambitions dans le cloud
Basée près de Strasbourg Acesi publie son chiffre d'affaires annuel 2011. L'intégrateur a réalisé 10 millions d'euros, en progression de 30% « et uniquement par croissance organique » nous précise l'un des trois fondateurs, Jean-Marc Patouret qui dirige le commercial et la France. En 2010, c'était 7,7 millions d'euros et déjà 30% de hausse par rapport aux 5,95 de 2009. Spectaculaire, pour une société fondée en 2004, avec un premier exercice annuel complet en 2005.
Le trois associés fondateurs sont toujours aux commandes, l'un dirige la Suisse, l'autre la partie technique en transversal, le troisième, Jean-Marc Patouret, s'occupe donc du commercial et explique « nous n'avons jamais changé de principe, les trois fondateurs restent aux commandes, de manière équilibrée, la technique ne l'emporte pas sur le commercial et réciproquement. Nous sommes insensibles aux sollicitations des financiers, nous avons 80% du capital et des collaborateurs détiennent les 20% restants. La croissance externe nous est également étrangère, même si nous regardons des dossiers, mais marier deux cultures nous a toujours fait hésiter, nous tenons à nos principes ».
L'essentiel de l'activité reste dans les infrastructures
Le chiffre d'affaires est réalisé à 43% sur l'infrastructure, à 57% dans le négoce. L'infrastructure signifie du conseil, de l'intégration, de la co-gérance (offre nommée Vita), c'est-à-dire de l'infogérance mais chez Acesi on rebaptise l'activité pour bien montrer la proximité avec le client. Historiquement, la société a référencé de grands noms comme Citrix, Microsoft, VMware, c'est également un partenaire important de RES, de HP, et plus récemment de Jasper pour la BI et les bases de données. Mais l'essentiel de l'activité reste dans les infrastructures.
Acesi s'est aussi lancé dans le cloud computing. Sans effet de manche et sans référencer de grands partenaires, toujours pour rester plus proche des besoins du client. Acesi a même bâti son offre à elle avec quatre volets : du cloud privé chez le client, du cloud hébergé chez Acesi, de la sauvegarde avec engagement de réversibilité totale, enfin, du cloud public. C'est de toute manière une évolution de ce qu'elle réalisait déjà.
En accompagnant ainsi ses clients, la société reste bien campée sur son ancrage régional. Historiquement, elle est également en Suisse. Et compte une agence au Canada, avec un manager qui est associé. D'autres formules de ce type pourraient voir le jour dans des régions françaises. Mais sans précipitation. Pour 2012, Acesi prévoit une croissance de 10%.
(...)
Interoute veut concilier cloud public et privé avec Virtual Data Centre
Interoute, grand opérateur européen de services cloud, a annoncé le lancement d'un nouveau produit, le Virtual Data Centre (VDC). Ce service doit permettre aux entreprises de déployer en quelques minutes un environnement virtuel ou une infrastructure de stockage pour leurs applications d'entreprise. Selon Interoute, ce service permet de combiner les atouts du cloud public en termes de flexibilité avec la sécurité offerte par le cloud privé. Contrairement aux offres de cloud computing public traditionnel, VDC est construite sur le réseau MPLS/IP d'Interoute, ce qui garantit aux clients un routage, une sécurité, une performance et des SLA optimums de bout en bout.
Sur les traces d'Amazon«Avec notre Data Centre Virtuel, nous faisons ce qu'Amazon a fait dans le monde du cloud computing public et nous adressons tous les besoins de l'entreprise, publics ou privés», explique Emad Ghanipour, Directeur Suisse d'Interoute. «De nombreuses sociétés ont hésité à passer au cloud computing, soit préoccupées par le manque de sécurité, soit de peur que le cloud empêche le contrôle des données. Avec le Virtual Data Centre, nous permettons aux organisations de voir à l'intérieur même de notre cloud paneuropéen et de décider où et comment elles veulent stocker leurs données. C'est du cloud computing sans compromis».
Avec une structure de coût basée sur un paiement à l'utilisation, le service s'adresse aussi bien à l'utilisation d'un seul serveur à court terme qu'à l'utilisation de multiples machines dans plusieurs pays. VDC est aujourd'hui disponible à Londres, Genève et Amsterdam, et d'autres localisations seront ajoutées courant 2012.
ICTjournal.ch
Orange Business Services affiche ses ambitions et son leadership dans le cloud
500 millions de revenus dans le cloud computing en 2015, tel est l'objectif annoncé par Didier Jaubert, directeur de l'activité Global Services chez Orange Business Services, lors d'une conférence de presse à Paris ce 26 janvier. En 2010, la division entreprise de France Télécom a réalisé un chiffre d'affaires de 50 millions dans ce secteur et annonce une progression de 70% pour 2011 nous a indiqué, en aparté après la conférence de presse, Vivek Badrinath, directeur exécutif d'OBS.
Deux ans après le lancement de son offre cloud pro en décembre 2009, juste avant le départ de Barbara Dalibard pour la SNCF, et un peu plus de six mois après le lancement de son offre cloud pour les PME, OBS affiche donc une réelle ambition sur ce marché fort de ses ressources maison, à savoir des datacenter répartis un peu partout dans le monde (neuf en tout dont deux en Asie), un maillage commercial dense (220 pays couverts avec du personnel Orange dans 166) et 26 000 points de relais dans le monde pour son offre Business VPN.
Des partenariats logiciels à développer
Dressant rapidement un bilan de l'année 2011, Didier Jaubert annonce un peu plus de 3 600 clients cloud (Danone, Ondeo et Crystal Group par exemple) avec notamment 110 contrats pour l'offre Flexible Computing Express, 2500 pour Le cloud pro et 80 clients pour Business VPN Galerie. Les offres cloud computing d'OBS se segmentent en trois marchés : Le cloud pro pour les TPE (1 à 20 collaborateurs), Business VPN Galerie et Flexible Computing Express pour les PME (plus de 20 collaborateurs) et enfin Flexible Computing pour les grands comptes avec une déclinaison cloud privée reposant sur les technologies mutualisées déjà utilisées dans les services de FT.
Si OBS ne fait pas l'impasse sur la partie applicative dans le cloud avec des partenariats noués avec Sage, SAP, Microsoft ou Ingenico, la branche services d'Orange n'étoffe pas très vite son hub VPN Galerie. De l'aveu même de Yann Glever, directeur marketing Solutions IP France chez OBS, les négociations avec les éditeurs sont longues et difficiles, particulièrement avec les sociétés américaines. L'offre VPN Galerie par exemple ne rassemble pour l'instant que 5 partenaires (Cegid, Sage, Swift, DSS Logistics et Hardis).
Andromède sur les rails en 2012
Sur la question du cloud souverain Andromède, Vivek Badrinath n'a pas éludé le sujet en nous indiquant, en aparté après la conférence de presse, que le projet allait s'accélérer avec la nomination d'un directeur général : « on espère boucler assez vite, en tout cas avant fin 2012 ». Les discussions se poursuivent avec Thalès seulement puisque Dassault Systèmes a quitté le navire. Interpellé par un journaliste qui lui demandait si Andromède n'était pas un bidule comme le disait de l'ONU le général de Gaulle, le dirigeant a répondu que l'idée n'était pas de faire un « bidule » mais de fournir une plate-forme cloud sécurisée pour les différentes branches du secteur public. « Andromède arrive sur un marché naissant qui a des besoins spécifiques en sécurité et sera le socle de la transformation de l'informatique [de l'État français] ».
À la question de savoir si le marché du cloud public était suffisamment mûr pour accueillir une plate-forme du type AWS/S3, M. Badrinath nous a répondu que « le marché du cloud computing va se développer et qu'il y a beaucoup de place pour se développer, notamment sur la couche logicielle.(...) Amazon se limite à la flexibilité et ne répond pas aux contraintes de sécurité et de protections intellectuelles. Notre offre, plus sécurisée, répond mieux aux attentes des entreprises françaises ».
(...)(26/01/2012 15:54:48)Hitachi Data Systems prépare ses solutions big data
Le Hitachi Information Forum, qui s'est déroulé le 24 janvier à la Défense, a réuni plusieurs centaines de clients et de partenaires du spécialiste de l'infrastructure. La session plénière a été présentée par Emmanuel Villon, Directeur Général de HDS France avec comme orientation la transformation du datacenter en centre d'information. Au coeur des débats, le concept de big data ou l'explosion du volume de données. Pour Emmanuel Villon, ce concept en est encore au stade embryonnaire dans l'écosystème des partenaires et des clients. « La question qui préoccupe aujourd'hui nos clients sont l'optimisation du stockage. Chez HDS, nous ne pensons pas que la bataille se fera sur le coût au Go, mais sur le volume nécessaire et utile » souligne le dirigeant et d'ajouter « l'objectif est de réduire de 30 à 40% en cherchant et en optimisant les zones de stockage non alloués. On peut ajouter également des solutions de hiérarchisation automatique des données. » Sur l'aspect big data et traitement des données, HDS va présenter dans le courant 2012 une solution applicative pour donner de l'intelligence à la donnée. « Aujourd'hui, les solutions existantes traitent l'information en mode silo, nous allons apporter une couche d'unifications des sources d'information » précise Emmanuel Villon. Les partenariats vont aussi se renforcer sur l'analytique comme le montre l'annonce de novembre 2011 avec SAP pour proposer une offre basée sur Hana.
Construire sa plateforme unifiée
Autre axe de développement pour HDS France, le développement de son offre serveurs blade à destination des datacenters. Cela fait 6 mois que l'activité serveur du groupe est partie à la conquête de l'Europe. Le compute blade , qui se définit comme une fabrique de machines virtuelles hardware, compatible avec les différentes solutions de virtualisation (VMware, Microsoft et Oracle) va devenir le pivot de la stratégie de plateforme unifiée de HDS. Au même titre qu'EMC a réalisé le partenariat avec Cisco et VMware autour des Vblock ou HP avec Blade Matrix, Emmanuel Villon indique qu'une offre similaire pour les grandes entreprises sera proposée dans le courant 2012. Sur la partie réseau, le constructeur devrait faire confiance à Brocade et Cisco. Le dirigeant explique que cette offre unifiée fonctionnera avec l'orchestrateur maison (Hitachi unified compute plateform).
Interrogé sur le partenariat entre HP et Hitachi, sur les baies de stockage haut de gamme, qui pourrait devenir caduque suite au rachat de 3Par, Emmanuel Villon se veut rassurant, « l'accord existe toujours », mais ne précise pas la date limite.
(...)
Le cloud en soutien de la BI selon le Gartner
Selon un sondage effectué par Gartner auprès de 1364 responsables IT, un tiers d'entre eux emploient ou prévoient d'employer dans l'année des offres cloud/SaaS pour augmenter leurs capacités en matière de business intelligence. «Les entreprises sont frustrées par les cycles de déploiement, les coûts, les processus de mise à jour et les infrastructures des solutions de BI installées», explique James Richardson, directeur de recherche chez Gartner. Si les entreprises voient l'intérêt des offres BI hébergées comme alternative, elles sont en revanche peu au fait sur ces solutions et leurs possibilités, avertit l'analyste.
Gartner estime que trois facteurs vont stimuler l'adoption de solutions de business intelligence délivrées depuis le cloud:
- Le temps: les solutions SaaS se déploient plus rapidement, dans un contexte où les ressources humaines et budgétaires limitées de l'IT ne lui permettent pas de répondre aux besoins des métiers.
- Les coûts: Si le SaaS n'est pas nécessairement moins cher, il permet de réduire les investissements et les coûts de support.
- Le manque d'expertise: Les applications d'analyse en mode cloud intègrent d'emblée des connaissances qui permettent de contourner le problème du manque de compétences internes.
Pour Gartner, le scénario de déploiement le plus probable est que les offres SaaS ne viennent pas déranger les plateformes actuelles, mais soient utilisées pour de nouvelles opportunités d'utilisation. « Si leurs applications opérationnelles sont déjà dans le cloud, les entreprises devraient penser à recourir à des solutions cloud pour ces domaines », ajoute James Richardson.
ICTjournal.ch
(...)
Joyent, spécialiste du cloud, lève 85 millions de dollars
Joyent, spécialiste américain de l'Iaas et du Paas, effectue un nouveau tour de table et lève 85 millions de dollars. La société a séduit Weather Investment (holding de l'égyptien Naguib Sawiris présente chez Orascom et Wind) et Telefonica Digital (le fonds d'investissement de l'opérateur espagnol).
Les investisseurs actuels de Joyent comprennent : El Dorado Ventures, Epic Ventures, Greycroft Partners, Intel Capital, et Liberty Global. Basée à San Francisco, la société est dirigée en Europe par Philippe Weppe.
(...)
Intel va acheter les actifs InfiniBand de QLogic
Intel a annoncé lundi dernier qu'il avait accepté d'acheter la division InfiniBand de Qlogic que le fabricant de puces exploitera dans ses solutions serveur et stockage pour permettre à ses nombreux clients de réaliser des supercalculateurs exaflopique. Dans un communiqué, Qlogic a déclaré qu'Intel allait acquérir ses actifs InfiniBand pour un montant de 125 millions de dollars. L'achat est attendu ce trimestre une fois que les conditions seront réunies.
InfiniBand est une technologie réseau qui fournit une interface haut débit entre des serveurs ou des baies de stockage. Cette acquisition permettra à Intel d'étendre son portefeuille en solution réseau pour fournir une bande passante plus importante et accompagner l'augmentation des performances des processeurs et des serveurs.
Des liens indispensables pour les clusters de puissance
Le mois prochain, le fabricant de puces va dévoiler, avec ses partenaires habituels, ses nouvelles puces serveur Xeon E5 qui accompagneront la montée en puissance des machines dédiées au calcul intensif. Intel espère bien que les prochains systèmes pourront atteindre, avant 2018, des performances exaflopiques, soit une puissance de calcul 100 fois plus rapide que les superordinateurs les plus véloces aujourd'hui.
«La technologie et l'expertise de Qlogic fourniront des actifs importants pour construire les composants évolutifs nécessaires à l'exécution de cette vision », a déclaré dans un communiqué Kirk Skaugen, directeur général de l'activité Data Center and Connected System chez Intel.
Recentrage de l'activité pour QLogic
Qlogic propose aujourd'hui des adaptateurs, des commutateurs, des logiciels (Fabric Suite) et d'autres produits basés sur InfiniBand. La vente des actifs InfiniBand aidera la compagnie à se recentrer sur la convergence des réseaux (sur base Ethernet) et le SAN (sur base Fiber Chanel). Bataille où elle affronte des acteurs comme Emulex, Brocade ou Juniper. De son côté, Intel étoffe ses solutions réseau pour les datacenters. En juillet dernier, le fondeur avait déjà signé un protocole d'accord pour acquérir la société Fulcrum qui conçoit des puces réseau 10 et 40 Gigabits Ethernet et des produits de commutation Ethernet.
Il est logique pour Intel d'acquérir les actifs InfiniBand de Qlogic, a déclaré Zeus Kerravala, analyste principal chez Research ZK. Avec les liens InfiniBand pour le réseau et les serveurs, la firme de Santa Clara sera en mesure d'étendre son offre pour ses clients développant des solutions de calcul de haute performance en cluster. «Je ne pense pas que [InfiniBand] va devenir un marché énorme, mais il est en expansion et il est là pour un moment », a déclaré M. Kerravala. Cette acquisition permet également à Intel d'améliorer la convergence avec les offres de Qlogic pourraient être utilisées dans ses puces ou au niveau des racks. Intel a annoncé qu'un «nombre significatif» d'employés InfiniBand de Qlogic allait accepter son offre et rejoindre Intel.
< Les 10 documents précédents | Les 10 documents suivants > |