Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 361 à 370.

< Les 10 documents précédentsLes 10 documents suivants >


(15/07/2011 16:25:29)

Recap IT : Google + fait tourner les têtes, Microsoft pressé, IBM et EMC ciblent le mid-market

En cette semaine de fête nationale, pas de révolution à signaler dans l'actualité IT. Quoique on peut se poser la question au regard du succès du lancement de Google +, le réseau social du groupe éponyme affiche 10 millions d'inscrits en deux semaines d'exploitation. Paul Allen, co-fondateur de Microsoft, anticipait même la barre des 20 millions d'abonnés si la firme de Mountain se décidait à ouvrir les inscriptions à tous. L'engouement est tel que les entreprises aussi s'y intéressent et que Google leur a demandé de patienter pour fournir un service aux professionnels d'ici la fin de l'année. Le concurrent Facebook peut s'inquiéter, même si des sociétés comme Microstrategy ont fait du réseau social un axe majeur de sa stratégie.

Microsoft, de son côté, aimerait bien que les entreprises et ses partenaires se pressent pour adopter à la fois Windows 7, mais également les offres cloud. Steve Ballmer est monté au créneau lors de la grande messe partenaires, WPC, à Los Angeles pour exhorter les entreprises à migrer vers Windows 7 en rassurant sur l'avènement de Windows 8 (les équipements seront compatible avec cet OS) et à saisir les opportunités du cloud. Il a également fait son mea culpa sur Windows Phone 7 qui n'a pas été une réussite, mais promet des améliorations avec Mango. La WPC a été l'occasion de faire quelques annonces notamment sur Intune.

En matière d'annonces produits, les entreprises intermédiaires ont été gâtées cette semaine par IBM et EMC. Big Blue a dévoilé le système zEntreprise 114, un mainframe dont la principale caractéristique est le prix, à partir de 75 000 dollars. Habituellement, ce genre d'équipement se facture à 6 chiffres. Le spécialiste du stockage propose, quant à lui, une baie de stockage VMAXe qui s'inscrit dans son offre haut de gamme, mais s'adresse à des entreprises ne disposant pas de ressources informatiques importantes et qui ont des besoins de stockage croissants. Cette annonce est intervenue en parallèle de celle de VMware qui a dévoilé sa Cloud Infrastructure Suite et la mise à jour de Vsphere 5. La facilité de déploiement d'infrastructures clouds a présidé aussi au rachat de cloud.com par Citrix.

(...)

(13/07/2011 16:20:15)

VMware lance une suite pour les infrastructures clouds

La suite inclut plusieurs mises à jours de versions de produits VMware et en particulier vSphere, la plate-forme de virtualisation pour la création d'infrastructures de Cloud, produit phare de l'éditeur ; vCenter Site Recovery Manager, l'outil pour la protection et la migration de site pour les applications virtualisées; vShield, la solution de sécurité orientée virtualisation ; la console de gestion vCloud Director qui permet de créer des clouds privés sécurisés ; vSphere Storage Appliance, un produit qui offre une alternative aux systèmes de stockage partagé. La Cloud Infrastructure Suite comprend également vCenter Operations, livré plus tôt cette année. Selon VMware, le groupe de produits comporte au total plus de 200 modifications, comparé aux versions précédentes.

« Cette offre intégrée va permettre aux entreprises de concevoir une infrastructure à partir de laquelle elles pourront utiliser des services cloud hébergés, » a déclaré Paul Maritz, PDG de VMware, dans un webcast annonçant la sortie du produit. « Permettre aux entreprises de regrouper leurs ressources dans des pools de données plus larges, les faire fonctionner plus efficacement et les lier à une infrastructure externe, voilà un point de départ fondamental pour effectuer une transition vers le cloud computing, » a-t-il fait valoir.

Automatisation, gestion du stockage et appli iPad


VSphere 5 permet d'exécuter des machines virtuelles de très grande taille, capables de gérer 32 processeurs et jusqu'à un téraoctet de mémoire. Le logiciel peut également faire ce que VMware appelle l'automatisation en conformité avec la politique de l'entreprise, autrement dit prendre des décisions pertinentes comme savoir où déployer une VM. Le nouveau produit VMware vSphere Storage Appliance, peut être affecté pour transformer un serveur de stockage situé en interne en pool de stockage commun, ce qui n'impose plus de disposer d'un SAN (storage area network) séparé. « Jusque là, nous préconisions l'installation d'une baie de réplication pour déplacer les données et les machines virtuelles d'un site à l'autre. Désormais, il est possible de réaliser la réplication directement dans le logiciel et d'utiliser le réseau pour effectuer la copie entre deux sites, » a déclaré Steve Herrod, CTO de VMware.

Pour sa part, VMware Site Recovery Manager offre désormais la possibilité de déplacer les charges de travail du site principal vers le site de sauvegarde et de revenir à nouveau sur le site principal. Cette aptitude à réaliser une « restauration automatique est importante, » estime le CTO, parce qu'elle donne la possibilité aux entreprises de déplacer plus facilement les charges de travail entre différents centres de calcul. VCloud Director donne, aux utilisateurs finaux, accès à un portail pour gérer leur charge de travail et choisir les applications qu'ils souhaitent déployer. La nouvelle version de ce logiciel est accessible depuis un iPad.

Une offre modulaire


« Dans un scénario de déploiement classique, une entreprise peut utiliser certains ou même tous ces produits comme base d'une plate-forme Cloud, » a déclaré Jacques Neela, manager marketing produit chez VMware. « vSphere lui-même, gère les machines virtuelles individuelles et vCloud Director fournit aux administrateurs un moyen de virtualiser toutes les ressources physiques, comme les serveurs, les réseaux et les appareils de stockage, en les regroupant dans un seul pool de ressources. vCenter Operations édite des rapports et des statistiques sur l'utilisation tout en réalisant des fonctions de gestion comme le suivi de facturation pour chaque utilisateur. Le framework vSphere peut être utilisé par les vendeurs de logiciels antivirus et antimalware pour scanner les machines virtuelles et repérer les virus.

Le logiciel vSphere Storage Appliance est plutôt destiné aux petites et moyennes entreprises qui n'ont pas les ressources nécessaires pour mettre en place un réseau de stockage séparé, » a détaillé le manager. « S'ils prennent leurs disques partagés et en font un pool commun, les entreprises peuvent profiter de l'équilibrage de charge et d'une haute disponibilité automatique, » a ajouté Neela Jacques. « Notre objectif est d'aider les clients à transformer l'infrastructure physique en une infrastructure virtualisée, et de rendre cette infrastructure beaucoup plus agile, » a t-il encore ajouté. VMware prévoit de livrer l'ensemble de ces produits d'ici la fin septembre. Chaque application sera disponible sous licence individuellement.

(...)

(13/07/2011 12:19:16)

IBM dévoile un mainframe abordable, le zEntreprise 114

Il y a pratiquement un an jour pour jour, IBM avait dévoilé le zEntreprise 196, signe du renouveau dans le marché du mainframe haut de gamme. Aujourd'hui, Big Blue décline ces systèmes « Business Class » en présentant, le zEnterprise 114, une solution mainframe à un coût débutant à 75 000 dollars HT. Le constructeur indique que pour ce tarif-là, les entreprises disposent d'une amélioration de 25% des performances par rapport au système Business Class z10, qui datait de 2008, mais comprend aussi certaines capacités présentes dans le zEntreprise 196. Il peut ainsi gérer les charges de travail (AIX, Linux et prochainement Windows) fonctionnant sur du Power ou des blades x-86.

Reconsolider sur mainframe


Pour les entreprises qui ont une stratégie de consolidation de leurs serveurs, le zEnterprise 114 peut apporter une réponse à cette problématique, a déclaré Mike Kahn, analyste chez The Clipper Group. « Cet équipement hybride est une carte majeure dans les mainframes d'IBM » ajoute-t-il. Ce produit sera directement en concurrence avec les serveurs Linux tournant sur des plateformes x86. Lorsque le z10 BC a été lancé en 2008, IBM déclarait qu'il pourrait remplacer jusqu'à 232 serveurs x86, le zEntreprise 114 est capable de gérer jusqu'à 300 systèmes x86. Le tarif agressif proposé par IBM est aussi une stratégie pour réduire la tendance de consolidation des mainframe prônée par les constructeurs concurrents.

Parmi les petites différences entre le z 196 et z 114, les processeurs utilisés sur le haut de gamme sont cadencés à 5,2 GHz, alors que pour l'entrée de gamme, ils le sont à 3,8 GHz.

(...)

(13/07/2011 10:03:03)

Microstrategy World : la BI prend le virage de la mobilité, du cloud et des Big Data

Dès l'ouverture en session plénière, la stratégie de l'éditeur a été claire et s'oriente autour de quatre concepts clés pour poursuivre la croissance de ses parts de marché : le « Big Data », le « Social Media », le cloud et la mobililité.

Bien qu'Apple ne soit pas sponsor et que l'interface pour Blackberry soit la plus ancienne (depuis 2007), la mobilité se déclinait surtout en iPhone et iPad. « Nous avons la conviction que les outils mobiles vont remplacer les ordinateurs traditionnels pour de nombreux usages, malgré les risques de perte, destruction ou vol accrus » a proclamé Mike Sailor, PDG de l'éditeur. A l'appui de ses dires, celui-ci a rappelé que les ventes de smartphones sont désormais supérieures à celles d'ordinateurs. Pour Mike Sailor, « on fera de plus en plus tout avec des outils mobiles et ils contiendront les données nécessaires pour se connecter à toutes sortes de services personnels ou professionnels, y compris pour payer. »

Pour les usages professionnels, il en résulte des applications les plus diverses : e-formation, suivi des ventes, collaboration interne... Bon nombre (à commencer par le suivi des ventes, présenté par plusieurs clients) reposent sur du décisionnel. Au contraire de ce qui pouvait encore s'envisager il y a quelques années, Mike Sailor, avec démonstrations à l'appui, a insisté sur la richesse fonctionnelle des applications mobiles de décisionnel. Loin d'être une simple consultation d'états pré-définis, il s'agit bien d'intervenir en transactionnel.

Microstrategy propose la possibilité de créer des applications pour iPhone/iPad. Cette plate-forme a été choisie au départ à cause de sa popularité importante. Son équivalent pour Android est attendu sous peu mais aucune date n'est avancée. Enfin, Windows Phone est envisagé, un fort développement étant attendu, au contraire de Nokia Symbian, vouée à une probable disparition du champ professionnel selon Mike Sailor.

Le cloud et les Big Data


Face aux risques liés aux terminaux mobiles, la réponse proposée par MicroStrategy est de loger le système décisionnel dans le cloud. Il est en effet, dès lors, accessible de partout à partir de n'importe quelle plate-forme (ou presque).

Il se trouve que, bien entendu, MicroStrategy propose une offre de décisionnel en SaaS reposant sur un partenariat avec d'une part Informatica (pour l'ETL) et d'autre part Netezza et Paraccel pour les bases de données. Pour Mike Sailor, cette offre cloud est adaptée aussi bien pour récupérer les systèmes décisionnels existants que de développer rapidement des solutions ponctuelles. Bien entendu, il a revendiqué un niveau de performance largement supérieur à ce qui pouvait exister dans la plupart des systèmes installés en local. Une installation en SaaS se veut toujours plus rapide et plus simple, donc moins coûteuse et avec un modèle économique au ROI plus facile à obtenir.

[[page]]

Le cloud n'est pas le seul mouvement de mode du moment. La notion de « big data » commence aussi à envahir les discours et MicroStrategy n'y échappe pas. Rappelons qu'il s'agit de savoir faire quelque chose avec les masses considérables et croissantes de données disponibles. « En 1990, la plus grosse base de données du monde contenait 200 Go mais c'est aujourd'hui le volume quotidien téléchargé en vidéos par des particuliers » s'est exclamé Mike Sailor. MicroStrategy se connecte aux principaux produits dédiés du marché, dont les éditeurs étaient pour beaucoup sponsors de la manifestation. L'une des problématiques majeures dans ce cas est de préserver les performances des applications malgré les volumes.

S'interfacer avec les réseaux sociaux


L'une des raisons de l'explosion des volumes de données réside bien sûr dans les médias sociaux. Au fil du temps, le nombre d'utilisateurs et le volume de données ne cessent de croître et la BI a suivi un chemin historique qui a débuté par le « desktop BI » avant de passer à la « web intelligence » puis à la « mobile intelligence » et enfin, aujourd'hui, à la « social intelligence ». La problématique de la performance est de plus en plus prégnante au fur et à mesure du développement de ces demandes.

MicroStrategy a répondu à cette problématique de la « social intelligence » d'une part en s'engageant dans une stratégie de performance à partir de 2009 et d'autre part en développant des applications dédiées aux médias sociaux. Ainsi, une de ces applications permet de trier les flux d'informations afin, de gérer des alertes, de l'autre une application vient d'être lancée pour interfacer la GRC de l'entreprise (orientée relationnel) et Facebook (basé sur une logique de graphe social). Cette application, Gateway for Facebook permet à l'entreprise de générer des pages sur Facebook qui seront des interfaces avec la GRC. Chaque fan permet ainsi à l'administrateur de la page d'interagir avec lui grâce à un « jeton » qu'il lui attribue, permettant ainsi à l'entreprise d'accéder aux données personnelles, aux graphe d'amitiés, aux centres d'intérêt (via les « j'aime ») et aux activités (via les géolocalisations partagées et les évènements acceptés).

La pluralité des plates-formes de réseaux sociaux oblige encore chaque éditeur à s'adapter à chaque réseau. Une future application pour Linkedin, par exemple, ne pourrait pas être autre chose qu'un nouveau développement. On comprend donc que MicroStrategy se contente donc pour l'heure de Facebook, le plus populaire des réseaux sociaux.

(...)

(12/07/2011 16:01:55)

Citrix s'empare de Cloud.com, fournisseur de logiciels pour le déploiement de clouds

Citrix a annoncé le rachat de la société Cloud.com, fournisseur de solutions pour le déploiement de cloud. «Nous considérons cette acquisition comme stratégique et elle améliorera notre position sur le marché des infrastructures cloud», a déclaré Sameer Dholakia, vice-président du développement marché de Citrix. Il a ajouté « nous pensons que [le cloud computing] est une tendance de transformation qui change fondamentalement la façon dont l'infrastructure informatique est conçue, construite, livrée et consommée. »

Cloud.com, anciennement appelé VMOps, offre une brique Open Source de logiciels d'orchestration et d'administration, qui se nomme CloudStack. Ils sont utilisés pour le déploiement de cloud multi-tenant de type Infrastructure-as-a-Service (IaaS).

Un agnosticisme sur les hyperviseurs conservé

CloudStack supporte non seulement XenServer l'hyperviseur de Citrix, mais aussi KVM, Hyper-V de Microsoft et vSphere de VMware. Cette solution est également étroitement intégrée au projet Open Source OpenStack. Enfin, Citrix indique que les produits de Cloud.com seront associés avec NetScaler Cloud gateway et NetScaler Cloud Bridge afin de faciliter les échanges entre un cloud public et l'infrastructure en propre des clients.

Parmi les clients de Cloud.com figurent des sociétés telles que Nokia, GoDaddy et Zynga, qui offre le populaire jeu en ligne Farmville sur Facebook, mais aussi Tata Communication ou KT (Korean Telecom). Afin de mieux se concentrer sur ce marché émergent des logiciels clouds, Citrix a lancé une nouvelle division, appelée Cloud Platforms Product Group, qui est dirigée par Sameer Dholakia, l'ancien PDG de VMLogix, que Citrix a acquis l'année dernière.

(...)

(11/07/2011 15:49:38)

Les puces serveurs d'Intel plus intelligentes sur le refroidissement des datacenters

Ces capteurs mesureront les températures à l'entrée et à la sortie des serveurs, mais aussi le flux d'air passant à travers les systèmes. « Les puces sont déjà dotées de capteurs permettant de mesurer la consommation d'énergie, » a déclaré Jay Vincent, Senior Architect, Data Center Technology Innovation, dans le domaine des systèmes haute-densité pour le cloud chez Intel. « Les données récoltées par les puces pourront être traitées par les outils de contrôle de la ventilation et de la climatisation des datacenters. Elles apportent aussi un moyen plus précis pour identifier les points chauds et les zones froides, et effectuer des simulations, pour savoir par exemple où installer de futurs équipements informatiques tout en maintenant un refroidissement optimum, » a t-il déclaré.

Lors de la conférence Datacenter Dynamics, qui se tenait à San Francisco la semaine dernière, Intel a présenté les résultats de tests réalisés avec Future Facilities, un développeur de logiciels CFD (Computational Fluid Dynamics) simulant les flux d'air. « Les tests ont montré que les capteurs intégrés aux puces permettaient aux outils CFD de modéliser plus précisément la manière dont l'air se déplaçait dans le datacenter, mais aussi de prévoir comment l'intégration d'équipements supplémentaires pouvaient affecter la circulation de l'air, » a déclaré Akhil Docca, chef de produit, spécialiste de l'ingénierie chez Future Facilities. « Si la modélisation CFD est faite correctement, on peut vraiment se rapprocher de ce qui se passe in situ. Et puisque l'on peut visualiser les flux d'air, on peut aussi les gérer, » a-t-il ajouté. Le test de conception a été réalisé sur deux racks serveurs placés à l'écart des autres installations. Mais « le prochain test aura lieu à grande échelle, » a-t-il dit.

Une technologie d'anticipation

L'outil CFD recueille des données de température, de débit et de puissance au niveau des serveurs, puis fait une pondération au niveau du rack, et effectue une simulation pour identifier les endroits où l'air froid court-circuite les entrées du serveur, et à quel endroit l'air qui sort retourne éventuellement dans le circuit. « Nous utilisons ces données en temps réel pour voir ce qui se passe à un moment donné, mais aussi pour anticiper sur ce qui pourrait arriver si on installait 300 serveurs de plus demain, » a déclaré Akhil Docca. « Les données pourront être récupérées par d'autres outils de gestion que le logiciel CFD, » a précisé Jay Vincent.

[[page]]

« Intel va autoriser l'intégration de ses capteurs dans les composants qu'il vend à des fabricants de produits «sans marque » l'année prochaine, ». Quant aux fabricants de gros serveurs, à eux de savoir s'ils veulent ou non mettre des capteurs dans leurs équipements. Mais, pour l'instant on ignore si tous souhaitent en intégrer ou non. « Le capteur de données ne sera pas gratuit, » a déclaré le Senior Architect. Intel licencie un outil logiciel appelé Node Manager, pour contrôler la consommation électrique aux niveaux de la boîte et du rack et assister la reprise sur sinistre en cas de panne de courant.

Des constructeurs intéressés


« Dell met déjà des capteurs de température dans ses serveurs PowerEdge, notamment pour mesurer les températures d'entrée et de sortie, » a déclaré Eric Wilcox, chef de produit chez Dell. L'intégration par Intel de capteurs à sa plateforme processeur pourrait contribuer à réduire les coûts des fabricants, et servir également de base pour établir des normes en matière de mesure de données au niveau des capteurs. Cela devrait faciliter la vie des entreprises qui développent des outils de gestion tiers, et aider les clients à gérer les serveurs de marques multiples. « Nous sommes conscients de la valeur qu'apporte l'offre d'Intel et nous envisageons de la faire connaître aux clients, » a déclaré Eric Wilcox.

HP a aussi mis des capteurs de température dans ses serveurs ProLiant - 32 d'entre eux, selon Michael Kendall, Group Manager chez HP. Ceux-ci récupèrent les données pour les transmettre aux outils de gestion du serveur, qui en retour effectue certaines tâches, comme modifier la vitesse du ventilateur pour atteindre la température nécessaire. Les données sont également exploitables par les produits de Nlyte Software, qui vend des solutions de gestion des infrastructures de data center (DCIM - Data Center Infrastructure Management), via un partenariat. « Les travaux d'Intel pourraient permettre aux systèmes d'HP de gérer davantage de données qu'ils ne le peuvent, » a estimé Michael Kendall.

Un besoin d'éducation du marché

Un autre défi consiste à informer les clients sur les technologies existantes. « La plupart des clients ne connaissent probablement pas tous les outils déjà à leur disposition, » a déclaré Eric Wilcox. Pour que les capteurs jouent pleinement leur rôle, les responsables informatiques et le personnel chargé de gérer les installations devront travailler plus étroitement ensemble. L'objectif ultime de ce projet, à l'instar d'un projet similaire mené l'an dernier par le Lawrence Berkeley National Labs, est de connecter directement l'équipement informatique aux systèmes d'alimentation et de refroidissement, de manière à ajuster automatiquement l'offre à la demande. « Nous allons offrir les moyens d'agir de manière plus pertinente, » a déclaré Jay Vincent, « mais il faut que ceux qui sont concernés en tire les avantages, sinon rien ne changera. »

(...)

(11/07/2011 15:02:45)

HP accuse Oracle de mauvaise foi dans l'affaire Itanium

En fin de semaine dernière, HP ripostait à l'accusation lancée par Oracle le mois dernier, selon laquelle HP garderait secrets certains éléments du dossier pour affaiblir la firme de Redwood. « Selon Oracle, la plainte déposée par HP sous le sceau de la confidentialité vise à cacher la vérité et orienter l'attention vers des sujets autres que les faits d'origine ». C'est totalement inexact, ont écrit les avocats du constructeur en ajoutant qu' « HP voulait rendre public tout le contenu relatif à la plainte ».

Le différend entre HP et Oracle porte sur un accord contractuel qui aurait été signé entre les deux parties pour garantir le développement de nouveaux logiciels pour les systèmes Itanium, des serveurs vendus par HP intégrant ces processeurs Intel et fonctionnant sur le système d'exploitation HP-UX. Or, Oracle a annoncé récemment qu'il arrêterait le développement sur ces plateformes et affirme qu'il n'existe aucun accord de ce type avec HP. Selon ce dernier, les éléments de la plainte déposés sous le sceau de la confidentialité, concernent certaines modalités prises pour régler le procès intenté par HP contre son ancien PDG, Mark Hurd, passé ensuite chez Oracle. Parmi ces modalités, figurerait un engagement contractuel entre les entreprises, stipulant la poursuite du support pour les produits d'HP. Oracle a minimisé l'importance de ce texte, le comparant à une « poignée de main amicale » destinée à signifier que les entreprises ont enterré la hache de guerre. Pour l'éditeur, HP ne veut pas rendre ce document public de crainte qu'il ne joue en sa défaveur. Un argument que HP conteste vigoureusement. «  Oracle le sait très bien : HP a déposé sa plainte dans ces formes pour respecter certaines dispositions de l'accord empêchant les parties d'en divulguer les termes à toutes fins. Ces dispositions ont été prises à la demande expresse de toutes les parties - Oracle, HP et Mark Hurd, » a déclaré HP. « L'entreprise est donc tenue de respecter la plus stricte confidentialité et a pris les mesures juridiques appropriées pour cela. »

La guerre des nerfs et des petites phrases

Dans sa réponse, HP accuse Oracle de « mauvaise foi » et soutient que l'éditeur « déforme la vérité par des affirmations erronées et des attaques injustifiées sur le fond de l'affaire. » Elle répète qu'Oracle avait bel et bien pris l'engagement de continuer à travailler avec elle. « Oracle soutient que cette disposition est la simple « réaffirmation d'un partenariat au sens large, non-contractuel » et que « HP ne peut pas sérieusement demander » à l'éditeur de continuer à assurer le portage de sa base de données et autres logiciels sur ses plates-formes, » indique le document. « Pourtant, c'est exactement ce que le propre avocat d'Oracle avait expressément dit à HP lors de la négociation. »

Alors que HP se dit prête à livrer une version non expurgée de sa plainte, le constructeur demande à ce que les dispositions relatives au règlement soient clairement séparées de « celles relatives aux obligations contractuelles. » Oracle a dénoncé l'argument de HP, mais sans relever les allégations figurant dans le dernier document déposé au dossier par le constructeur. « Oracle n'a pas intérêt à cacher quoi que ce soit, » a déclaré l'éditeur de Redwood dans une courte déclaration. « Il faut que la plainte et les termes de l'accord soit totalement et immédiatement rendus publics. »

(...)

(11/07/2011 11:42:11)

F5 Networks présente deux appliances de virtualisation de fichiers

Les produits entrée de gamme (ARX1500) et milieu de gamme (ARX2500) de F5 sont de taille 1U en hauteur. Le ARX1500 coûte environ le même prix que son prédécesseur l'ARX 500, mais intègre huit ports Gigabit Ethernet - seulement deux ports sur le ARX500, selon Renny Shen, directeur marketing produit de F5. Le constructeur n'a pas voulu révéler la tarification spécifique pour les récents produits, mais il a évalué le prix de base à 30 000 dollars pour l'entrée de gamme et jusqu'à 200 000 dollars pour le haut du marché. « Nous pensons que pour beaucoup d'entreprises l'ARX500 était devenu vraiment trop petit», explique le responsable en ajoutant « selon la licence du logiciel acheté avec le ARX 1500, l'appliance peut évoluer de 1 500 à 3 000 utilisateurs finaux ».

Le ARX2500 s'adresse lui a des environnements de partages de fichiers intensifs et est livré avec quatre ports Gigabit Ethernet et deux ports 10 Gigabit Ethernet.

Une gamme complète et interopérable


La gamme des ARX s'étend maintenant de l'ARX VE, qui a un seul port Gigabit Ethernet et supporte jusqu'à 500 utilisateurs, à l'ARX4000, une solution de taille 4U avec 12 ports Gigabit Ethernet et deux ports 10 Gigabit Ethernet qui peut accueillir jusqu'à 12 000 utilisateurs. Sans oublier, la gamme ARX Cloud Extender, que nous avions vu à Boston récemment.Michael Raposa, DSI du fournisseur de vidéo à la demande In Demand LLC, a déclaré que proposer des ports 10 Gigabit Ethernet sur une appliance facilite la gestion du partage de trafic sur les différents ports. In Demand fournit un service de pay per view et de VOD que les consommateurs achètent auprès des câblo-opérateurs comme Cox, Comcast et Time Warner. L'entreprise a installé deux ARX 4000 en corrélation avec des baies NetApp d'une capacité de 300 To et les serveurs de fichiers. Les appliances de virtualisation de fichiers ont permis de créer un seul nom de domaine sur l'ensemble des 300 To de capacité, de sorte que les applications n'ont plus besoin d'avoir une LUN (logical unit numbers) dédiée et ainsi accroître les performances.

Tous les appareils ARX prennent en charge le protocole CIFS pour l'environnement Windows et NFS pour les équipements sous Unix et Linux. F5 indique que ses solutions sont compatibles avec presque tous les périphériques NAS et serveurs de fichiers du marché.

(...)

(11/07/2011 15:10:28)

CIO.PDF 39 : la longue marche de la virtualisation au cloud privé

Les responsables informatiques virtualisent autant qu'il est possible leur datacenter. Ils travaillent à la réduction des délais de provisioning d'environnements complets. Le Cloud privé en est à ses premiers services chez certains d'entre eux. En effet, Si la plupart des managers de systèmes d'information ont désormais industrialisé la virtualisation de leurs serveurs, en ne retenant que les environnements auxquels cela convient, ils ne sont que quelques-uns à avoir initié des services de Cloud privé.

La création de ces clouds privés est au coeur du dossier de CIO.PDF 39.

La rubrique International rapporte, en complément, le témoignage, recueilli par nos confrères américains, des conséquences de l'arrivée du cloud dans une entreprise en termes d'organisation de la DSI.

Par ailleurs, ce numéro de CIO.PDF comprend un retour sur la carrière de Marie-Noëlle Gibon, désormais auditeur de groupe au sein de La Poste après en avoir été la DSI. Elle est également très impliquée dans les associations professionnelles, le Cigref et l'AeSCM. La gestion des risques a été un leitmotiv dans sa carrière.

Enfin, Giuseppe de Martino, secrétaire général de Dailymotion, explique comment l'informatique, qui représente la moitié de l'effectif, est intégrée et gérée au sein de cette entreprise où elle est la force de production.

Lire CIO.PDF 39

(...)

(08/07/2011 09:25:23)

IBM renforce ses relations partenaires dans le cloud

IBM propose à tous une même certification : « cloud computing specialty », même si les partenaires visés appartiennent à des univers très différents : grossistes, intégrateurs one tiers, revendeurs en two tiers, hébergeurs.  

IBM a d'ailleurs procédé à une cartographie et une revue d'effectifs ces derniers mois  des acteurs de l'indirect en France. Sur le seul créneau des hébergeurs, « big blue » a par exemple recensé 700 prestataires pour en sélectionner et discuter avec une centaine d'entre eux.  Au final, IBM a défini cinq grandes catégories d'acteurs : les cloud builder comme Sogeti, D.FI, APX ; les cloud services solution provider ; tels que Arago Consulting, Synergie Informatique, SK Telecom, les hébergeurs Hardis, Aspenium, Aspaway; les cloud application provider comme Coheris, Cylande, Divalto, Eliadis ; les cloud technology provider comme Jamcracker (un agrégateur de services cloud), Kaavo, Servoy.

Tous seront encadrés par les équipes de Philippe Sajhau, vice-président business partners et mid market qui remplace depuis quatre mois Eric Taillard.

(...)

< Les 10 documents précédentsLes 10 documents suivants >