Flux RSS
Infrastructure serveur
2924 documents trouvés, affichage des résultats 41 à 50.
< Les 10 documents précédents | Les 10 documents suivants > |
(02/03/2012 12:34:14)
Le supercalculateur américain Titan attendu cet automne
Le supercalculateur Titan du laboratoire américain d'Oak Ridge, installé dans l'Etat du Tennessee, est sur les rails pour être achevé à l'automne prochain. Il délivrera une puissance située entre 10 et 20 pétaflops, un pétaflop correspondant à 10 puissance 15 opérations en virgule flottante par seconde. L'ORNL (Oak Ridge National Laboratory) l'a annoncé cette semaine en indiquant que la phase de développement initiale venait d'être achevée. Le Titan, qui repose sur un système Cray XK6, résultera d'une mise à jour du Jaguar, l'actuel supercalculateur de l'ORNL, dont la performance de pointe atteint 3,3 petaflops.
En ce moment, le plus performant des HPC est japonais, selon le plus récent classement Top500 (une liste publiée en juin et novembre de chaque année). Il s'agit du K Computer qui délivre 10,51 petaflops. Le dernier supercalculateur américain à avoir occupé la première place du Top500 était justement le Jaguar de l'ORNL. Mais cela remonte à novembre 2009. Par la suite, les Etats-Unis sont entrés en compétition avec la Chine et le Japon qui détiennent les systèmes les plus puissants depuis début 2010.
La Russie construit elle aussi un système de 10 petaflops. Celui-ci devrait être en service fin 2013. Au début de cette même année, on attend le Stampede, un autre HPC de 10 petaflops qui devrait être opérationnel à l'Université du Texas.
Un moyen pour Intel et AMD de montrer leurs performances
La prochaine étape pour ces supercalculateurs sera d'atteindre la performance exaflopique, ce qui les rendra, vers 2018, environ 100 fois plus rapides que les systèmes actuels.
Le Titan associe les derniers processeurs Opteron 6200 à 16 coeurs d'AMD et les puces graphiques Tesla de Nvidia. Les Opteron à 16 coeurs remplacent celles à six coeurs pour apporter au système une puissance de traitement plutôt polyvalente, tandis que les processeurs graphiques boostent les calculs scientifiques et mathématiques. La capacité mémoire et les liaisons d'interconnexion du supercalculateur ont également été mises à jour. A terme, le Titan disposera de 299 008 coeurs et 600 To de mémoire. Il a été annoncé pour la première fois en octobre 2011.
Les supercalculateurs permettent aux fabricants de processeurs de faire valoir les performances de leurs puces. Si AMD peut prendre l'avantage lorsque le Titan sera en service, le Stampede utilisera de son côté les prochains Xeon E5 et le co-processeur Knights Corner conçu pour accélérer les applications spécialisées.
Oracle livre Exalytics et se prépare à affronter HANA de SAP
Moins de cinq mois après l'annonce d'Exalytics, Oracle livre son serveur dédié aux applications analytiques. C'est le dernier produit en date dans sa famille d'appliances spécialisées (qui comporte déjà Exadata et Exalogic). Sur le marché, Exalytics va entrer en concurrence avec la solution HANA de SAP. L'une comme l'autre ont recours à une technologie « in-memory » qui porte les données à analyser en mémoire afin d'augmenter les performances de traitement.
C'est seulement en octobre que l'offre Exalytics a été dévoilée par Larry Ellison, sur sa conférence OpenWorld 2011. Le délai avec lequel elle a été mise sur le marché a donc été relativement court. Oracle a également annoncé une mise à jour de sa suite décisionnelle OBIEE (Business Intelligence Foundation Suite), optimisée pour l'appliance Exalytics. Cette dernière utilise OBIEE avec une version de la base de données in-memory TimesTen ajustée pour les traitements analytiques. L'ensemble fonctionne sur une plateforme matérielle spécialisée incluant un serveur Sun Fire équipé de 1 To de mémoire vive et exploitant des processeurs Xeon E7-4800 d'Intel rassemblant 40 coeurs. La connectivité entre les éléments combine des liaisons Infiniband à 40 Gb/s et Ethernet à 10 Gb/s. Les machines peuvent être chaînées ensemble pour en augmenter la puissance.
A partir de 164 700 dollars sans le logiciel
Exalytics dispose aussi de fonctions de cache in-memory qui permet au fil de l'eau de déterminer quelles informations doivent être gardées en mémoire pour optimiser la performance. Selon Oracle, les tests réalisés (notamment chez les clients) ont montré des applications de reporting et de tableaux de bord fonctionnaient jusqu'à 100 fois plus vite sur Exalytics.
La tarification de l'offre a été communiquée le mois dernier assez discrètement. Dans un document mis à jour le 10 janvier, on pouvait découvrir que le modèle Exalytics In-Memory Machine X2-4 était listé à 135 000 dollars, dans la configuration décrite plus haut, auxquels s'ajoutent 29 700 dollars pour le support annuel et autres coûts. Toutefois, les différents logiciels nécessaires à son fonctionnement augmentent sensiblement son prix. Un expert a confié le mois dernier à nos confrères d'IDG News Service que le prix d'une machine Exalytics complètement équipée devrait sans doute atteindre les 3 millions de dollars, après prise en compte des remises accordées sur le logiciel.
SAP ne communique pas publiquement de prix pour HANA. Les systèmes sont vendus par différents partenaires assurant la partie matérielle, dans une gamme de configurations incluant l'édition Edge pour les PME annoncé au début de ce mois.
Guerre des mots entre Oracle et SAP
Alors qu'Exalytics se focalise sur les applications d'analyse, HANA est également destiné à des traitements transactionnels, en conjonction avec le produit phare de SAP, la Business Suite (ERP et applications périphériques). Malgré tout, la concurrence entre les deux produits risque d'être acharnée, si l'on se réfère à la guerre des mots à laquelle les deux éditeurs se sont déjà livrés.
En octobre déjà, Sanjay Poonen, l'un des responsables de SAP, avait publié une tribune critique sur Exalytics après sa présentation par Larry Ellison. Il y affirmait que l'offre d'Oracle reposait sur une architecture dépassée, trop coûteuse pour ce qu'elle cherchait à réaliser.
La semaine dernière, c'est un responsable d'Oracle qui a posté à son tour un billet de blog vengeur sur HANA. Aussitôt taclé par un tweet de Vishal Sikka, directeur technique de SAP, dénonçant les mensonges et les informations dénaturées qu'il contenait. Le billet de blog d'Oracle a depuis été supprimé.
La CE veut favoriser l'efficacité énergétique des supercalculateurs
Le calcul exascale est utilisé dans différents secteurs industriels pour effectuer des simulations rapides. Le projet annoncé par la Commission européenne ce mois-ci vise à doubler l'investissement dans le domaine du calcul haute performance, lequel passera de 630 millions actuellement à 1,2 milliard d'euros avant 2020. Cependant, les infrastructures HPC demandent beaucoup d'énergie et de ressources. Comparativement, un supercalculateur peut consommer à lui tout seul plus d'énergie qu'un centre de calcul de taille moyenne et peut coûter plus de 75.000 euros par jour en frais de fonctionnement.
CoolEmAll, un consortium d'entreprises et d'administrations, prévoit de s'attaquer à la question en développant deux outils majeurs destinés à aider les industries à mieux contrôler et à bien gérer la consommation d'énergie de leurs supercalculateurs. L'élément principal du projet se présente comme un ensemble de designs hardware Open Source basé sur un serveur haute densité du nom de RECS Compute Box sur lequel travaille déjà la start-up allemande Christmann Informationstechnik.
Un datacenter dans une boite
Qualifiée de « datacenter in a box », la RECS Compute Box se compose de plusieurs racks serveurs haute densité, chacun contenant jusqu'à 18 modules saturés de processeurs. Ce qui signifie qu'une seule de ces armoires peut contenir jusqu'à 600 lames. Cette configuration représente environ 10 fois ce que l'on trouve habituellement dans des racks traditionnels. Chaque Compute Box contient également 18 capteurs thermiques et 18 capteurs électriques intégrés dans l'infrastructure « baseboard », ce qui permet de contrôler séparément l'état du réseau, la vitesse du ventilateur et la consommation électrique de chacun des 18 blocs.
La Commission européenne espère que ces designs haute densité et ces serveurs à haut rendement seront commercialisés et se retrouveront dans les futurs projets HPC européens. Outre le matériel, CoolEmAll se penche également sur le développement de logiciels de simulation, de visualisation et d'aide à la décision pour proposer un outil de modélisation en temps réel pour les entreprises qui utilisent le calcul haute performance. L'objectif est de permettre aux planificateurs des centres de calcul d'estimer l'efficacité énergétique en fonction de l'emplacement physique des serveurs, d'effectuer des mesures pour optimiser le refroidissement, et d'utiliser au mieux les applications de contrôle.
Le projet CoolEmAll réunit sept organismes de recherche dans le domaine du HPC, dont le Groupe 451, le Poznan Supercomputing and Networking Center (PSNC) en Pologne et le High Performance Computing Center Stuttgart (HLRS) de l'Université de Stuttgart, en Allemagne.
(...)(23/02/2012 17:29:04)Microsoft va construire un second datacenter à Dublin
Microsoft a investi 130 millions de dollars environ pour construire un second datacenter à Dublin. L'éditeur a indiqué aujourd'hui qu'il avait besoin de davantage de ressources pour faire tourner ses services cloud. Cette expansion répond à une demande européenne accrue pour ses plates-formes en ligne telle que Office 365, Windows Live, Xbox Live, Bing et Windows Azure. Ce datacenter sera voisin d'un centre de calcul qui a également ouvert ses portes dans la capitale irlandaise. Sa construction a déjà démarré, a déclaré un porte-parole de l'éditeur, mais il n'a pas précisé sa date d'entrée en service.
La taille de ce datacenter atteindra le tiers de celle de l'ancien, soit environ 10 400 mètres carrés. Il disposera d'une puissance totale allant jusqu'à 13 mégawatts, contre 16 mégawatts et 28 100 mètres carrés pour le centre voisin. Cela signifie que la nouvelle structure sera en mesure d'accueillir des serveurs avec une densité de puissance maximale de 1,3 kW par mètre carré. Cette densité accrue de puissance permettra à Microsoft d'augmenter le nombre de serveurs par rack dans cet espace avec les ressources nécessaires pour les refroidir et assurer leur bon fonctionnement. La firme de Redmond est convaincue que son modèle de refroidissement est à la hauteur, comme l'a indiqué Stephen McGibbon, directeur technique du groupe Europe, Moyen-Orient et Afrique.
L'air extérieur pour le refroidissement principal
Tout comme son aîné, ce datacenter fera largement appel à l'air extérieur pour son refroidissement tout au long de l'année ce qui devrait conduire à une meilleure efficacité, en terme de puissance, selon Microsoft. Si le refroidissement de l'air libre n'est pas suffisant, l'eau pourra également être utilisée pour rafraîchir l'air entrant. Et si le temps devient trop froid, l'air chaud du datacenter sera recyclé pour chauffer l'établissement.
La performance énergétique (PUE) de l'ancien datacenter se situait à 1,25, avait indiqué Microsoft lors de son ouverture en 2009. C'est proche des 1, 07 proposés par des installations comme celles de Facebook à Prineville, dans l'Oregon, et mieux que la moyenne de 1,6 atteinte en 2009 par Microsoft. Le groupe n'a toutefois encore pas fourni un chiffre PUE cible pour son nouveau centre de calcul.
Des groupes électrogènes de secours
L'an dernier, une panne de courant à Dublin avait affecté les services en ligne de Microsoft et d'Amazon, qui dispose également d'un datacenter dans la capitale irlandaise. Les clients européens de Microsoft Business Productivity Online Standard Suite, le prédécesseur d'Office 365, avaient été affectés par cette interruption de service. Microsoft était parvenue à remettre le tout en route après quatre heures d'interruption.
Le futur datacenter de Dublin possèdera sa propre infrastructure énergétique de secours pour être auto-suffisant pendant un certain temps, selon Stephen McGibbon. En cas de panne d'électricité, Microsoft proposera des offres avec des groupes électrogènes diesel pour assurer l'activité des services.
(...)
SWF : un service cloud pour automatiser les processus chez Amazon
Amazon Web Services (AWS) vient de lancer un service baptisé Simple Workflow Service (SWF) qui doit permettre aux entreprises d'automatiser leurs processus métiers, via des applications dans le cloud et sur site. « Avec SWF, les développeurs vont bénéficier d'un contrôle complet quant à la mise en oeuvre des étapes de traitement et la coordination des tâches pour les gérer, sans avoir à se soucier de la complexité sous-jacente, comme le suivi de leur déroulement et leur maintien jusqu'au dernier état, » a déclaré Amazon.
Ce service est toujours en version bêta, mais il a déjà été utilisé pour construire des applications pour le traitement d'image, l'encodage vidéo, l'infrastructure de provisionnement et la gestion des processus. Parmi les premiers utilisateurs du service, on trouve le Jet Propulsion Laboratory de la Nasa et Amazon lui-même.
Tous les flux de travail comprennent un certain nombre de tâches différentes qu'il faut coordonner. Par exemple, un système de traitement d'image comprend l'acceptation du fichier téléchargé, son stockage, son archivage, la validation du format et de la taille du fichier, et ainsi de suite, comme le détaille un article publié sur le blog d'Amazon. L'architecture sous-jacente est décomposée en collaborateurs et en décideurs. Chaque tâche est une action désignée comme collaborateur ou décideur dans SWF. Cette hiérarchie permet ensuite de coordonner les tâches. « SWF se charge de négocier les interactions entre les deux, » selon Amazon.
Un framework Java pour simplifier l'utilisation de SWF
Tout type de langage de programmation peut être utilisé pour écrire des collaborateurs et des décideurs, à condition que celui-ci soit capable de communiquer avec l'API utilisée par Amazon SWF pour son service Web. Il peut tourner dans le cloud, sur site ou dans un environnement mixte combinant les deux. Pour simplifier l'utilisation de SWF, Amazon a également créé l'AWS Flow Framework, qui fait partie du SDK AWS pour Java. De la même manière, la console AWS Management inclut le support complet pour le service SWF.
Les entreprises peuvent commencer à tester le service SWF gratuitement, et lancer jusqu'à 1 000 flux de travail et 10 000 tâches par mois et les laisser tourner l'équivalent de 30 000 workflows/jour. Amazon SWF est actuellement disponible uniquement dans l'Est des États-Unis, mais selon une FAQ sur SWF, Amazon prévoie assez rapidement de rendre son service disponible dans d'autres régions.
(...)(22/02/2012 14:08:54)Sogeti accompagne ses clients dans le cloud Windows Azure
Le cloud présente un énorme potentiel de développement pour les SSII. Sur ce terrain, « la plateforme d'évidence pour Sogeti, c'est le PaaS », expose François Merand, chargé de développer l'offre applicative Microsoft pour Sogeti France. « Et Azure est l'un de nos axes privilégiés ». La SSII a noué un partenariat très fort avec l'éditeur. Elle conçoit, développe et met en oeuvre des applications à exploiter dans le cloud. En complément, elle a bâti avec Microsoft l'offre Azure Privilege Club (APC) pour aider les clients à déterminer quels projets ils pourraient porter dans cet environnement.
Les entreprises connaissent plutôt bien le cloud dans ses versions IaaS(*), matérialisées par les datacenters de leurs partenaires, et SaaS, popularisées par des acteurs comme Salesforce.com ou Google. En revanche, le PaaS doit encore convaincre. « D'où la nécessité d'un accompagnement », explique Jason De Olivera, manager et architecte solutions senior chez Sogeti France. C'est lui qui est chargé de développer le programme APC dont l'objectif est d'accélérer la prise de décision autour du PaaS.
Il reste des freins à l'adoption du PaaS
Parmi les freins à une adoption rapide, le fait que les données soient gérées dans une infrastructure cloud située hors de France reste un problème soulevé par les RSSI (pour l'Europe, les datacenters Azure de Microsoft se trouvent en Irlande et aux Pays-Bas ; si les clients ne le spécifient pas, leurs données peuvent être gérées dans d'autres datacenters, situés aux Etats-Unis ou ailleurs). Autre remarque souvent formulée par les DSI : que faire de mes ressources techniques si l'informatique se déplace dans le cloud. Des solutions hybrides peuvent être trouvées à partir de l'existant, rappelle Jason De Olivera.
L'Azure Privilege Club propose avant tout un accompagnement et du conseil. La partie technique ne représente qu'un tiers de l'intervention qui dure environ six mois. Une phase d'évaluation (assessment) permettra d'identifier les opportunités : « Quelles données va-t-on mettre dans le cloud, comment trouver le projet éligible, quels sont ceux qui ne le sont pas tout de suite, ceux qui ne le sont pas... Et comment transformer l'entreprise pour que cela soit un succès », énumère le responsable du programme APC. Cette première phase dresse une liste des applications éligibles au cloud. Un examen plus détaillé débouche sur deux ou trois candidates au Proof of Concept. Ce peut être une refonte d'un existant ou une création de projet. Le client doit disposer en interne des ressources pour développer ces prototypes. C'est la seule vraie façon d'avoir entre les mains les éléments humains et financiers pour savoir quels projets mener et créer un guide de bonnes pratiques, souligne-t-on chez Sogeti.
Objectif : 50 clients pour APC 2012
L'initiative APC vient de démarrer sa deuxième édition. En 2011, un premier club avait regroupé une dizaine de grands clients de Sogeti dans le monde évoluant dans différents secteurs d'activité (industrie, grande distribution, éditeurs de logiciels, société de presse...). Deux entreprises françaises y figuraient, implantées dans l'énergie et la pharmacie/santé.
En 2012, la SSII aimerait rassembler une cinquantaine de clients au niveau international dont une dizaine en France. « Les Proof of Concept que l'on va faire, ce sont des projets que l'on démarre », explique François Merand en rappelant que le Time-to-market rapide est l'un des avantages du cloud. Parmi les enjeux : l'adhésion des équipes et quelquefois aussi, la transformation des modèles métiers (par exemple pour les éditeurs de logiciels qui modifie leur mode de facturation).
Un sponsor exécutif, à la direction de la DSI
Le format du club permet aux entreprises d'échanger leurs expériences autour de ces projets. Il y a par exemple dans Azure différents services prédéveloppés tels que la base de données, le service bus (fonctionnalités de connectivité sécurisées pour créer des applications distribuées et hybrides sur site et dans le cloud), ou encore le service de mise en cache pour un accès très rapide. « Cela ne fait pas sens d'utiliser tous les composants dans une application », expliquent les responsables de Sogeti. Les participants au programme Azure Privilege Club se rencontrent d'abord à Dublin, dans le datacenter de Microsoft, pour une réunion de lancement de deux jours au cours de laquelle sont évoquées les objectifs respectifs. Un nouvel échange s'opère à l'issue du projet.
« Nous travaillons au niveau de la direction de la DSI, avec un sponsor exécutif », insiste François Merand. Il faut une équipe suffisamment étoffée pour mener l'opération comme un vrai projet : un architecte et des intervenants métiers « car Azure impacte fortement le métier de l'entreprise ». Microsoft fait intervenir pour sa part ses ressources techniques, le client se voyant proposer une seule offre packagée.
(*) IaaS, infrastructure as a Service, PaaS, Platform as a Service, SaaS, Software as a Service.
Boursorama gère désormais ses services IT en SaaS
Boursorama est doté d'une DSI d'une centaine de collaborateurs pour traiter les 25 000 demandes d'interventions par an des utilisateurs. Les outils utilisés étaient insatisfaisants et la DSI a décider de faire appel au marché pour gérer les services IT de l'établissement financier en ligne.
La filiale de la Société Générale a fait un appel au marché puis a pré-sélectionné plusieurs éditeurs auxquels elle a demandé des maquettes. Sur cette base, Boursorama a choisi le SaaS proposé par EasyVista sur des critères de fonctionnalités, de simplicité d'utilisation et d'ergonomie.
L'entreprise a opté alors pour un processus itératif de mise en place de sa nouvelle gestion des services IT. Celle-ci a concerné autant la gestion des incidents que les demandes de services. Deux catalogues de services ont été créés, l'un pour le support bureautique, l'autre pour les le support fonctionnel. L'ensemble a été déployé en trois mois. Le coût du projet n'a pas été communiqué. (...)
NEC ITPS s'invite dans le cloud et les datacenters
NEC IT Platform Solutions (ITPS) est l'une des trois divisions de NEC, elle est chargée de la partie stockage, serveurs, logiciels. Les deux autres s'occupent des infrastructures télécoms (division carrier solutions) et des écrans LCD et des projecteurs (division display solutions). NEC ITPS est 100% en indirect, elle passe par trois grossistes : Avnet, Config, ETC, deux spécialistes, un pour la partie cloud stockage, l'autre pour la partie sécurité, et un généraliste.
La société dispose en France d'un nombre de revendeurs limité avec une trentaine de gold, « nous pouvons entretenir des relations humaines avec notre réseau et nous lui apportons de véritables joyaux » souligne Pascal Drouet, directeur commercial channel France de NEC ITPS. En clair, le réseau n'est peut-être pas encore très dense, mais il bénéficie d'une offre que les concurrents n'ont pas.
Parmi cette offre, une solution logicielle de virtualisation de réseau : programmable flow. La virtualisation du poste de travail existe déjà, le constructeur propose la version 4.0 de VPCC (une solution complète logicielle NEC + hyperviseur + serveur et stockage NEC). Des solutions de virtualisation basée sur OpenFlow. NEC ITPS a par ailleurs mis au point une solution de déduplication de données, elle sera lancée en milieu d'année, et cible les questions d'archivage légal avec Bâle 2.
Une solution complète en préparation pour les hôpitaux
NEC ITPS propose également des offres métiers. Pour l'éducation, il s'agit de deux suites logicielles, Eole et Edutice, liées à deux serveurs certifiés pour l'Education nationale. En matière de santé, NEC ITPS s'est focalisé sur les questions de PRA et de PCA avec une autre solution logicielle, express cluster. Lors du salon HIT au mois de mai prochain, la société présentera une solution de bout en bout pour les hôpitaux. Enfin, concernant les PME, NEC ITPS propose Flexpower, un serveur qui est aussi un mini SAN (Il a la capacité de supporter jusqu'à six modules serveur et 14 disques durs SAS 2,5'', ainsi que 2 modules Switch Ethernet). Il est déployé avec Intel.
Dernier volet et non des moindres des offres NEC ITPS destinées aux partenaires, celle concernant les datacenters. Le constructeur propose que les PME et PMI puissent héberger leurs données dans des datacenters de proximité. Le constructeur va homologuer ces centres, leur capacité d'hébergement étant revendue, en marque blanche ou en revente classique, par ses partenaires.
Transistor sur un atome, des chercheurs améliorent la précision
En utilisant un microscope à balayage à effet tunnel, des scientifiques australiens de l'Université de New South Wales ont pu manipuler avec précision des atomes d'hydrogène autour d'un atome de phosphore sur une plaquette de silicium. Le résultat donne un transistor sur un seul atome avec une précision parfaite. A termes, on peut imaginer un bloc de transistors pour créer un ordinateur quantique.
Placer un transistor sur un atome n'est pas une première, mais la précision obtenue et la technique utilisée en font une avancée technologique importante. Le professeur Michelle Simmons, chef de l'équipe de chercheurs et directrice du Centre d'Informatique Quantique à l'Université de New South Wales indique, « c'est la première fois qu'on montre le contrôle d'un atome dans un substrat avec ce degré de précision. »
Cette découverte met à mal la loi de Moore qui prévoit que le nombre de transistors double sur une puce tous les deux ans environ. Elle prédit ainsi que les transistors atteindront la taille d'un atome d'ici à 2020. Gordon Moore, co-fondateur d'Intel, avait expliqué que la limite ultime de sa loi était l'échelle atomique.
Microsoft réduit jusqu'à 75% le coût de SQL Azure
Les tarifs d'utilisation du service de base de données SQL Azure viennent d'être revus à la baisse par Microsoft. L'éditeur a également lancé une option pour ouvrir ce service aux clients souhaitant accéder à moins de 100 Mo. Steven Martin, directeur général, responsable de la planification pour Windows Azure, a communiqué la semaine dernière les prix révisés. Dans un billet, il indique que les utilisateurs vont bénéficier d'une économie de 48% à 75% pour les bases de données de plus de 1 Go (48% pour les bases de 5 Go tarifées 25,99 $ par mois contre 49,95 $ précédemment, 75% pour celles 25 Go, par exemple, désormais à 75,99 $ contre 299,97 $, ce qui, dans ce cas, met le Go à 3,04 $). Quant à l'option 100 Mo, elle permettra de commencer à utiliser SQL Azure pour la moitié du précédent coût, en fournissant malgré tout la totalité des fonctionnalités. Cela inclut la haute disponibilité, la tolérance aux pannes, le provisionning, l'évolutivité de la base, la connexion aux bases installées sur site et le SLA complet.
Ces deux modifications dans l'offre SQL Azure de Microsoft résultent des remarques communiquées par les utilisateurs et de l'évolution des modèles d'usages, explique Steven Martin. Au cours des dix-huit mois écoulés, deux usages se sont dégagés. En premier lieu, de nombreux projets démarrent modestement mais ils ont besoin de grossir rapidement. D'où la possibilité offerte d'accéder à des déploiements plus larges à moindre coût. « A mesure que votre base de données grossira, le prix par Go baissera de façon significative », assure le responsable de Microsoft. Deuxièmement, de nombre clients du cloud ayant des traitements plus légers veulent disposer d'une option peu coûteuse pour des usages modestes. « De la même façon que nous proposons une option de 150 Go pour les clients ayant des pré-requis élevés, nous étendons la palette de choix à l'autre bout du spectre avec une option de départ à 100 Mo », ajoute Steven Martin.
A partir de 3,54 euros par mois pour 100 Mo
La facturation de SQL Azure est calculée sur la base d'un tarif progressif, en fonction de la taille de la base de données. Cette dernière existe en deux éditions. L'édition Web prend en charge une base de données relationnelle T-SQL (Transact-SQL) de 5 Go maximum. L'édition Business va jusqu'à 150 Go. Le site Windowsazure.com/fr donne le détail de la tarification pour un paiement à l'utilisation. Une calculatrice en ligne permet de se faire immédiatement une idée du coût en fonction du nombre de Go consommé. Il existe aussi un tarif d'abonnement de six mois(*).
En déplaçant le curseur de la calculatrice, on connaît le prix du service au Go consommé, ci-dessus 120,45 euros pour 94 Go par mois.
A l'utilisation, le prix de SQL Azure, par base de données et par mois, démarre à 3,5425 euros par mois jusqu'à 100 Mo. Il s'élève à 7,085 euros entre 100 Mo et 1 Go. Entre 1 Go et 10 Go, l'utilisation de SQL Azure est facturée 7,085 euros pour le premier Go et 2,834 euros pour chaque Go supplémentaire(**). Ainsi, pour une base de données de 4,4 Go utilisée une journée, il en coûtera 0,5944 euros au client.
(*) L'abonnement de six mois à SQL Azure coûte 56,729 euros pour une unité de base, ce qui correspond en fait à une valeur de 70,92 euros sur la base de données Business Edition lorsque celle-ci est facturée à l'utilisation. Ce service s'adresse à des utilisateurs qui démarrent ou qui ont des besoins réduits en taille de base. Pour les entreprises plus consommatrices, Microsoft propose un autre abonnement, annuel cette fois, à partir de 10 000 euros, explique Julien Lesaicherre, de Microsoft France. Cela correspond à une utilisation pré-payée que l'entreprise consommera comme elle l'entend, au rythme choisi.
(**) Entre 10 Go et 50 Go, il en coûte 32,5906 euros pour les 10 premiers Go, puis 1,417 euros pour chaque Go. Enfin, au-delà, les 50 premiers Go reviennent à 89, 2699 euros, puis à 0,7085 euros pour chaque Go supplémentaire. (...)
< Les 10 documents précédents | Les 10 documents suivants > |