Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 321 à 330.

< Les 10 documents précédentsLes 10 documents suivants >


(24/08/2011 15:46:26)

Oracle VM 3.0 : des capacités de virtualisation multipliées par 4

Oracle a mis à jour son logiciel de virtualisation de serveur, lui conférant un meilleur contrôle des politiques de gestion et davantage de connecteurs pour les systèmes de stockage. La toute nouvelle version, déjà disponible, d'Oracle VM 3.0 comporte « des améliorations qui visent à rendre le produit plus évolutif sur le plan des performances et de la gestion, » a déclaré Adam Hawley, directeur senior product management pour Oracle VM. Au premier rang, ces améliorations concernent les contrôles des politiques de gestion, un meilleur support des solutions de stockage de tierce partie et la possibilité d'exécuter davantage de machines virtuelles par serveur.

Basé sur l'hyperviseur Open Source Xen, Oracle VM est le logiciel de virtualisation d'Oracle pour serveurs x86. Cette version est spécialement adaptée pour exécuter des logiciels Oracle. Son code découle directement de l'acquisition de Virtual Iron par Oracle en 2009. L'éditeur propose 90 modèles pour faire tourner d'autres logiciels Oracle entreprise sur Oracle VM, comme PeopleSoft en particulier. Les utilisateurs peuvent également déployer Oracle VM en tant que gestionnaire de virtualisation autonome basé sur Linux, pour servir d'alternative à d'autres produits, notamment vSphere de VMware. « La virtualisation n'est plus seulement un outil pour la consolidation des serveurs. C'est devenu un moyen de simplifier la gestion des applications, » a déclaré Monica Kumar, senior director du marketing pour la virtualisation chez Oracle.

Un framework pour mieux gérer le stockage

Désormais Oracle VM  supporte jusqu'à 128 processeurs virtuels par serveur. La version 2.2 précédente ne pouvait faire tourner que 32 processeurs virtuels par serveur. À titre de comparaison, VMware a récemment livré la version 5 de vSphere, laquelle peut supporter 32 processeurs virtuels. Oracle VM et vSphere peuvent tous deux supporter jusqu'à 1 téraoctet de mémoire par machine virtuelle. « Les nouvelles fonctionnalités d'Oracle VM 3.0 en matière de politique de gestion vont permettre aux administrateurs de créer des scripts évènements capables de déclencher une action dans une condition donnée, » a expliqué Adam Hawley. Par exemple, les machines virtuelles peuvent être automatiquement déplacées d'un serveur à un autre lorsque l'utilisation de la CPU ou le trafic réseau ont atteint un seuil critique. Ou encore, les charges de travail peuvent être réparties sur un plus petit nombre de serveurs quand le trafic est moins important, de façon à économiser de l'énergie.

Dans cette version, Oracle apporte également un framework pour gérer les systèmes de stockage connectés entre eux, « qui devrait donner aux administrateurs des environnements virtualisés un plus grand contrôle sur les solutions de stockage back-end, » a ajouté le directeur senior. Ceux-ci « peuvent gérer les fonctionnalités de stockage directement depuis notre interface, ce qui leur évite d'utiliser de multiples outils, » a déclaré Adam Hawley.

Des plug-ins pour EMC, NettApp, Fujitsu...

Contrairement aux versions précédentes d'Oracle VM, lesquelles offraient seulement un accès de base aux systèmes de stockage, cette mouture permet d'accéder à des fonctionnalités avancées, comme le clonage de machine virtuelle ou les instantanés, pour enregistrer l'état d'une VM à un moment donné. Oracle propose en outre des plug-ins spécifiques aux solutions de stockage d'EMC, NetApp, Fujitsu, Hitachi, et pour ses propres solutions de stockage. Oracle VM, et le support associé, est gratuit pour les clients actuels de l'offre serveurs x86 d'Oracle.

(...)

(24/08/2011 14:51:47)

Les datacenters épargnés par le séisme de la côte Est des États-Unis

Le personnel de plusieurs centres de calcul aux États-Unis a été évacué suite au séisme de magnitude 5,8 dont l'épicentre se situait en Virginie, mais selon les messages postés sur Twitter et d'autres sources les installations informatiques n'ont pas été affectées. Un séisme d'une magnitude de 5,8 n'est pas particulièrement fort par rapport aux normes mondiales, mais ce fut suffisant pour secouer les immeubles et inciter les employés à sortir dans les rues à Boston, New York et Washington. C'est le plus grand tremblement de terre en Virginie depuis 1897, selon l'U.S. GS.

Amazon Web Services, qui exploite un grand centre de calculs en Virginie, 
a déclaré ses services n'ont pas été touchés. « Tous les services d'AWS à l'Est des États-Unis région fonctionnent normalement à l'heure actuelle », a déclaré une porte-parole de la compagnie par courrier électronique. 

Un méchant pic au moment du séisme

Un client d'AWS a juste signalé un léger ralentissement lors du chargement de pages. SeatGeek, un site de recherche de billets, a connu un « assez méchant » pic pour les temps de réponse de ses pages lors du séisme. 

« Ici chez SeatGeek, nous étions ravis de discuter du tremblement de terre quand Mike, notre fidèle administrateur système, a réalisé que nos serveurs AWS étaient tous en Virginie, tout près de l'épicentre » a indiqué la compagnie dans un blog
où il a affiché un graphique montrant le ralentissement. 

«Première leçon suite à cet événement : Les tremblements de terre rendent les serveurs moroses et  seconde leçon la surveillance en temps réel de l'activité des systèmes informatiques est impressionnante », a écrit la compagnie. Le pic a duré environ 
deux minutes, selon SeatGeek.

Un test grandeur nature pour les fournisseurs de ressources

Beaucoup d'autres prestataires se sont précipités sur Twitter après le séisme pour 
déclarer que leurs opérations n'avaient pas été touchées, y compris la branche Dynamics CRM Online de Microsoft. «  Le séisme de la côte Est n'a pas affecté notre datacenter [en Amérique du Nord], CRM Online est comme d'habitude; surveillance étroite des répliques », a déclaré la division CRM de MS dans un message Twitter. «  Le datacenter Razor n'a pas été touché par le séisme #. Tous les services sont actuellement normaux », a déclaré l'entreprise Razor spécialisée dans l'hébergement et dont le principal centre de calculs est à Philadelphie. « Je viens d'effectuer des tests dans nos datacenters - Tout est en place et fonctionne normalement, » a indiqué de son coté Contact Solutions dans un tweet. « Je suppose que nous pouvons dire que nous avons vécu un service antisismique ! » 

Bluto's Hosting, Clook Internet, Paetec et Distributed Systems Service 
ont également publié des rapports indiquant qu'aucune interruption de services n'était signalée. De grands opérateurs commerciaux comme Digital Realty Trust, QTS, SunGard et Terremark n'ont eu aucun problème, selon le site Datacenter Dynamics. Plusieurs salariés des centres de calculs ont simplement indiqué qu'ils avaient été évacués de leurs datacenters tandis que compagnies spécialisées ont sauté sur l'occasion pour promouvoir leurs solutions de reprise après sinistre.

 

(...)

(24/08/2011 09:36:07)

Le cloud privé est une opportunité pour la distribution IT selon Canalys

Le marché mondial du cloud privé (matériels et services) représenterait cette année une opportunité de chiffre d'affaires de 40 milliards de dollars pour les revendeurs et prestataires de services informatiques. Cette estimation émane du cabinet d'études Canalys pour qui la résolution des problématiques de sécurité autour de ces infrastructures est un axe fort de création de valeur pour les partenaires.

Le marché du cloud public échappe en revanche au canal de distribution. Dommage, car celui-ci devrait représenter 85 milliards de dollars de revenus cette année. Ce segment très tourné vers le grand public est trusté par des acteurs tels que Google et Microsoft.

(...)

(23/08/2011 12:16:10)

iPad 3, une puce A6 pour plus de performances et d'autonomie

Le prochain iPad d'Apple sera plus rapide et plus économe en énergie grâce à son processeur quad-core A6, mais l'évolution de la tablette vedette sur le marché ne pourra pas être livrée avant juin prochain, selon l'analyste Linley Gwennap, fondateur du cabinet d'études Linley Group. La puce A6 qui succèdera au processeur double coeur A5 utilisé dans l'iPad, sera probablement fabriqué par le fondeur taiwanais TSMC (Foundry Company Semiconductor Manufacturing Co). Selon plusieurs sources, Apple - en litige avec Samsung - a décidé de changer de fondeur. C'est le coréen qui fabrique aujourd'hui la puce A5 utilisée dans l'iPad 2 et le prochain iPhone 5. Les smartphones équipés de processeurs double-coeur sont déjà présents sur le marché et certains analystes prédisent que l'iPhone 5, attendu cet automne sera animé par une puce dual-core A5.

Le calendrier de fabrication de l'A6 suggère qu'il ne sera pas en production avant le deuxième trimestre de l'année prochaine, ce qui signifie que le prochain iPad pourrait ne pas apparaître avant juin 2012, selon Linley Gwennap. Curieusement, un article publié la semaine dernière dans le Wall Street Journal, expliquait qu'Apple espère lancer l'iPad 3 au début de l'année prochaine.

Une puce gravée en 28 nm

L'A6 devrait apporter plus de performance aux appareils d'Apple (iPad, iPod et iPhone) tout en préservant la vie de la batterie. Beaucoup d'améliorations viendront du processus de fabrication de TSMC en 28 nanomètres, indique Linley Gwennap. Cette gravure plus fine va diminuer la taille des circuits par rapport à l'A5, qui est fabriqué en 40 nanomètres, ce qui rendra l'A6 à la fois plus petit et plus rapide. «Les gars travaillant sur la tablette sont ravis d'offrir plus de performances avec la même autonomie de la batterie », a encore déclaré l'analyste. 



L'A6 sera probablement basé sur l'architecture Cortex-A9 d'ARM, qui est proche de celle déjà utilisée dans l'A5. La société ARM a déjà annoncé le Cortex-A15 mais les premiers appareils basés sur ce référence design ne seront pas disponibles avant l'année prochaine ou même début 2013 seulement, explique encore Linley Gwennap. L'A6 affrontera d'autres processeurs ARM quad-core proposés par Texas Instruments, Nvidia et Qualcomm. La puce quatre coeurs Tegra, connue sous le nom de code Kal-El, apparaîtra dans les appareils d'ici la fin de cette année, a indiqué Nvidia.

Illustration principale : iPad 3 concept design (Source: Roman Vladimir Sima)

 

(...)

(23/08/2011 11:51:18)

Microsoft et un éditeur Chinois travaillent au développement de produits cloud

Microsoft veut développer le cloud en Chine. Pour cela, il s'appuie sur son partenaire China Standard Software (CSS). Ce dernier a co-développé un système d'exploitation Linux avec l'université nationale des technologies de défense. Baptisé « NeoKylin », cet OS est destiné à l'usage de différents ministères, de la Défense Nationale, de l'Energie à d'autres secteurs de l'économie chinoise. Ce projet vise à réduire la dépendance de la Chine par rapport les systèmes d'exploitation importés (dont Windows avec une très forte proportion de copies illégales).

L'accord entre Microsoft et China Standard Software basé à Shanghai  prévoit le développement de produits basés sur l'architecture Hyper-V Open Cloud (accord entre Microsoft et Open Stack, par ailleurs la firme de Redmond souhaite une plus grande intégration d'Hyper-V dans le noyau Linux). Le partenariat doit aboutir à lancer des offres de clouds publics ou privés.  Ces solutions devront fonctionner aussi sur l'OS développé par CSS. Pour ce faire, les deux protagonistes vont financer la création d'un laboratoire sur les technologies de virtualisation à Pékin. Celui-ci travaillera notamment sur l'interopérabilité entre NeoKylin et l'architecture Hyper-V Open Cloud.

Les fournisseurs de solutions et les analystes s'attendent à ce que le marché chinois du cloud computing croit rapidement. Une enquête menée par le cabinet d'études Gartner a constaté que 55% des sociétés chinoises interrogées souhaitent consacrer plus de 10% de leurs budgets informatiques au cloud. Ce rapport est de 42% en Europe et 49% aux Etats-Unis.

(...)

(23/08/2011 10:19:04)

Windows bientôt disponible en mode cloud

Microsoft a publié un brevet intitulé «Fast Machine Booting Through Streaming Storage» qui incite à penser qu'elle prépare un système d'exploitation basé sur le cloud. Ce brevet permettrait la diffusion continue d'un système sur différents appareils ayant un accès internet. Les raisons de ces conjectures tiennent dans la similitude du système avec une description antérieure d'une version bêta de Windows 8. Le brevet, qui date de février 2010, décrit une structure de couches, basée sur différents systèmes de stockage. Cette structure sera utilisée comme un disque dur virtuel et pourra également être contrôlée localement via internet. Une sorte de VDI adaptée au cloud computing de l'éditeur, Windows Azure.

De nombreux systèmes pourraient être concernés par ce nouvel OS notamment les PC, tablettes, smartphones... Les avantages du système d'exploitation basés sur le cloud tiennent principalement en une diminution des besoins en matériel et du temps nécessaire pour le démarrage.

ICTJournal.ch

(...)

(22/08/2011 16:42:39)

Cisco acquiert les logiciels d'automatisation réseau Axioss

Cisco va utiliser le logiciel Axioss pour améliorer le déploiement de sa plate-forme Prime. Cette dernière permet aux opérateurs d'automatiser et de mieux gérer la brique réseau. Les opérateurs seront ainsi en mesure de lancer rapidement des offres de vidéos, de services mobiles et aussi des services de cloud computing à leurs clients, selon Cisco.

Dès l'acquisition actée, les équipes d'Axioss seront intégrées au sein de NMTG (Network Management Technology Group) de Cisco, tout comme Gareth Senior, CTO de Comptel. Axioss a été initialement développé par Axiom Systems, une société acquise par Comptel en 2008.

Se renforcer dans la performance réseau

Les opérateurs sont à la recherche de nouvelles sources de revenus, l'activité logicielle pour optimiser la performance réseau est une des voies observées par les différents acteurs. Par exemple, plus tôt cette année, Ericsson a annoncé qu'il allait acquérir Telcordia dont les solutions aident à monétiser le trafic et les services vendus par les opérateurs.

Alcatel-Lucent a annoncé le déploiement d'un ensemble de services Proactive Services Suite pour analyser la santé et la performance des réseaux des opérateurs. Il s'agit d'une question cruciale, car selon l'équipementier, elle peut être un élément différentiant pour fidéliser la clientèle ou au contraire favoriser la concurrence.

(...)

(22/08/2011 16:43:47)

Concours de start-up d'Amazon Web Services : 100 000 dollars à la clé

Il reste six semaines, jusqu'au 2 octobre 2011, pour participer à la 5ème édition du concours de start-up lancée début août par Amazon Web Services. L'opérateur de cloud public cherche à donner de la visibilité aux entreprises exploitant de façon innovante sa plateforme et les solutions qu'elle intègre. Les candidats seront non seulement jugés sur la manière dont ils l'exploitent, sur l'originalité de leur réalisation, mais aussi sur l'évolutivité de leur projet et sur leur capacité à répondre aux besoins du marché dans la durée. Pour être admissible, l'entreprise candidate ne devra pas avoir généré plus de 10 millions de dollars de chiffre d'affaires annuel brut, ni reçu plus de 10 millions de dollars de fonds externes.

Elargi cette année au monde entier, ce concours désignera 15 demi-finalistes, également répartis entre les trois grandes zones géographiques : le continent américain, l'EMEA (Europe, Moyen-Orient, Afrique) et l'Asie-Pacifique. Chacun recevra 2 500 dollars en crédits AWS. De cette sélection sortira six candidats qui recevront 10 000 dollars en crédits AWS et se verront offrir le voyage à Palo Alto (Californie) pour participer à la finale. A la clé pour le grand gagnant : 100 000 dollars dont 50 000 en crédits AWS.

Dassault Systèmes sur AWS avec 3DS version 6

AWS insiste sur l'opportunité qu'il offre aux jeunes entreprises en mettant à leur disposition une infrastructure technique que leurs ressources  limitées ne leur permettraient pas de déployer en interne. « De petites entreprises peuvent ainsi construire de nouveaux services très rapidement », Terry Wise, responsable du développement de l'activité AWS, en soulignant que, de la même façon, à l'autre bout du spectre, cette infrastructure apporte aux grandes entreprises ou à d'autres organisations ayant besoin d'analyser d'importantes quantités de données. Il cite la banque espagnole Bankinter qui, en s'appuyant sur du calcul haute performance (HPC) sur AWS, effectue en 20 minutes en moyenne, contre 23 heures auparavant, des simulations sur les risques liés au crédit.

En mai, l'éditeur de solutions de gestion SAP a de son côté annoncé la disponibilité sur AWS de ses applications décisionnelles BusinessObjects et de ses solutions Rapid Deployment. Et en juin, c'est le Français Dassault Systèmes qui a indiqué qu'il proposait d'utiliser sur AWS sa technologie 3DS version 6 pour collaborer en ligne. Au sein du cloud EC2, il a recours aux services Elastic Block Store et Simple Storage Service d'Amazon pour stocker d'importants volumes de données de conception. En France, une société comme Pagesjaunes s'appuie sur AWS pour mettre en oeuvre son service Urbandive.com.

Les entreprises réticentes à confier leurs applications à un cloud public évoquent souvent les risques d'interruption de service pour expliquer leur prudence. Comme en écho à cette inquiétude, le cloud EC2 a connu quelques déboires au début de ce mois, à la suite d'une coupure de courant dans son datacenter à Dublin, touché par la foudre. Le fournisseur vient de dresser un bilan de l'incident et indiqué qu'il allait renforcer la sécurité de ses générateurs.

Illustration : D.R.
(...)

(22/08/2011 12:37:40)

Dell embarque l'offre Hadoop de Cloudera dans ses serveurs PowerEdge C

Dell a annoncé pour début septembre des serveurs embarquant la solution Apache Hadoop de Cloudera, complétés de composantes réseaux, d'outils d'administration, de services et de support pour en assister le déploiement. Avec cette offre, le constructeur vise les secteurs des services financiers,  de l'énergie et des télécoms, de la distribution de détail, des médias et de l'Internet, ainsi que les organismes de recherche. En combinant logiciel et matériel optimisé pour l'offre Open Source Hadoop, Dell cherche à proposer un coût de possession moins élevé que certaines offres propriétaires pour mettre en oeuvre les applications analysant d'importants volumes de données (complexes et évoluant de façon dynamique).

L'offre repose sur la ligne de serveurs PowerEdge C, modèles C2100, C6100 ou C6105, conçus pour être utilisée dans les projets de traitement à grande échelle, notamment par leur taille et leur consommation électrique réduite. Elle intègre la distribution Hadoop de Cloudera (CDH), ainsi que sa suite d'outils d'administration. Pour gérer la mise en place, elle inclut le logiciel Crowbar, de Dell. Côté équipements réseaux, l'offre comprend un jeu de commutateurs PowerConnect 6248 Gigabit Ethernet à 48 ports. Un déploiement reposant sur cette architecture peut aller de 6 à 720 noeuds.

« Cette offre est une réponse directe à ce que nous entendons de la part de nos clients », a expliqué Joseph George, directeur du marketing cloud chez Dell. Selon lui, une part importante d'entre eux envisagent l'utilisation d'Hadoop ou y ont déjà recours.  « Cela devient un standard de facto », ajoute-t-il en expliquant que Dell a placé une architecture de référence au-dessus d'un serveur adapté à cet environnement.

Le coût démarre à 118 000 dollars

Créé par Doug Cutting, un spécialiste des technologies de recherche, Apache Hadoop est monté en puissance au sein des entreprises devant passer au crible d'énormes quantités de données non structurées, telles que les connexions aux serveurs. Outre Hadoop, l'offre CDH de Cloudera regroupe différents composants, parmi lesquels l'infrastructure de datawarehouse Hive, Pig (langage de programmation MapReduce), la structure de stockage de données HBase, les bibliothèques Whirr pour exploiter des services cloud, ou encore Zookeeper, Flume, Hue, Oozie et Sqoop. Les serveurs peuvent être installés sous différents systèmes versions de Linux, Red Hat Enterprise Linux 5.6 ou 6, CentOS, Ubuntu ou Suse.

Le coût d'une configuration minimum démarre entre 118 000 dollars et 124 000 dollars suivant les options de support retenues. Cela inclut un an au support de Cloudera et les mises à jour. Ce package est similaire à celui que Dell a annoncé fin juillet pour son offre de cloud privé reposant sur OpenStack, Michael Dell, PDG de Dell, ayant confirmé son intention de proposer davantage de solutions complètes intégrant matériel, logiciels et support. Ce faisant, le fournisseur renforce aussi ses offres s'appuyant sur des composantes Open Source.

Illustration : les composants de CDH, la distribution de Cloudera incluant Apache Hadoop (source : Cloudera) (...)

< Les 10 documents précédentsLes 10 documents suivants >