Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 731 à 740.

< Les 10 documents précédentsLes 10 documents suivants >


(06/12/2010 14:05:56)

Tsubame 2.0, un supercalculateur plus rapide et pas plus gourmand en énergie

Premier supercomputer pétaflopique japonais, Tsubame 2.0, classé quatrième machine la plus puissante du monde en novembre au Top 500 des superordinateurs, affiche un rendement de 2,4 pétaflops, soit 15 fois la puissance de son prédécesseur, le Tsubame. Comme ce dernier, cette version 2.0 tourne sur un mélange de CPU et de GPU très adaptés pour effectuer rapidement des opérations similaires sur de grandes quantités de données. Ils sont en particulier beaucoup plus efficaces que les processeurs pour résoudre des problèmes de dynamique moléculaire, des simulations physiques et pour le traitement d'image. Ils permettent aussi à la machine de consommer moins d'énergie. Le mérite en revient à Satoshi Matsuoka, directeur du département Global Scientific Information and Computing Center de l'université japonaise, lequel, pendant la planification du supercalculateur, avait demandé à ses chercheurs de construire une « belle machine qui ne consomme pas plus d'électricité. » L'université dépensait déjà environ 1,5 million de dollars par an pour alimenter le supercomputer existant et ne voulait pas voir sa note augmenter davantage. «Nous ne sommes pas limités par l'argent, ni par l'espace, ni par nos connaissances ou nos compétences. Notre limite, c'est la consommation d'énergie, » avait-il déclaré.

Un travail réalisé avec Hewlett-Packard

Pour construire le supercalculateur, le directeur avait sollicité Hewlett-Packard, Nvidia et à d'autres entreprises auxquelles il avait fait part de ses spécifications et de ses choix de conception. En 2009, pendant l'International Supercomputing Conference, celui-ci rencontre notamment Edward Turkel, directeur du marketing des produits HPC chez HP. « Nous avons parlé des exigences demandées pour réaliser ce nouveau système, » se souvient le responsable de HP. « Évidemment, nous devions construire un supercalculateur de très haute performance, de plusieurs pétaflops, avec une performance soutenue supérieure à 1 pétaflops. Mais il fallait aussi réaliser une machine de petite taille qui s'adapte au centre de calcul et peu gourmande en énergie !», a-t-il ajouté. «Nous nous sommes un peu grattés la tête pour dire finalement : Ça va être intéressant ! »


Satoshi Matsuoka, directeur du département Global Scientific Information and Computing Center de l'université de Tokyo

Association de puces Intel et Nvidia

Quand Satoshi Matsuoka a présenté les exigences du Tokyo Tech à Edward Turkel, celui-ci rappelle que HP avait déjà travaillé avec Nvidia sur la conception d'un serveur haute performance utilisant des GPU. « Une fois connues les spécifications, la conception a été affinée afin de répondre aux exigences de puissance et d'espace. Au final, nous avons construit un supercalculateur de 1408 noeuds, avec au coeur de chaque noeud, un serveur HP ProLiant SL390 doté d'un processeur Intel Xeon et des GPU Nvidia Tesla. » À l'intérieur de chacun des 1408 noeuds, il y a trois puces Tesla, chaque puce abritant 448 coeurs soit un total de près de 1,9 million de coeurs graphiques. Ce sont ces GPU qui donnent au Tsubame 2.0 l'essentiel de sa puissance. La machine a été classée au quatrième rang du Top 500 avec une performance soutenue maximale de 1,2 pétaflops (soit 1,2 million de milliards d'opérations à virgule flottante par seconde) et le deuxième au Green 500 pour son efficacité énergétique de 958 Mégaflops par watt. C'est le seul ordinateur à figurer dans les cinq premiers dans ces deux classements très recherchés.

Aujourd'hui, le Tsubame 2.0 est terminé et fonctionnel. L'université a ouvert son accès à des entreprises et des organismes qui souhaitent utiliser une partie de sa capacité. Le temps de calcul peut être acheté via le site Internet de l'université.

(...)

(03/12/2010 16:50:06)

BMC s'offre GridApp Systems, pour gérer les bases de données dans le cloud

Le logiciel Clarity GridApp est déjà intégré à la plate-forme BladeLogic Automation Server de BMC. Il devrait aussi s'insérer dans les autres technologies de BMC comme la gestion des cycles de vie dans le cloud. Les capacités d'automatisation libèrent du temps et des ressources. Cette acquisition donne à BMC des produits d'automatisation de base de données de niveau international.

La plate-forme Clarity de GridApp est compatible avec Oracle, DB2 UDB, MySQL, Sybase et SQL Server, ainsi que les systèmes d'exploitation Linux, Windows, Solaris, HP-UX et AIX. Elle prend en charge les clusters de base de données comprenant Oracle RAC, Microsoft Cluster Server et Veritas. Elle peut également être utilisée pour gérer les bases de données sur les clouds publics, y compris Amazon EC2 (Elastic Compute Cloud) et Go Grid. Les clients de GridApp sont Bank of America, General Electric, Lockheed Martin et Merrill Lynch. La société a noué aussi des partenariats avec Hewlett-Packard, Quest Software, Oracle, IBM et Microsoft.

Avec ce rachat, BMC entend bien concurrencer les autres «Big Four» (CA, IBM, HP) des fournisseurs de systèmes de gestion. HP a en août dernier racheté le concurrent de GridApp,  Stratavia.

(...)

(03/12/2010 16:38:40)

Oracle défie IBM avec son Sparc SuperCluster

Baptisé Sparc Supercluster, le système annoncé par Oracle peut agréger dans un rack des dizaines de serveurs équipés de processeurs Sparc T3-2, T3-4 et Sparc64  (M5000) reliés entre eux via des liens InfiniBand sous le contrôle de l'application Oracle Real Application Cluster pour l'équilibre de la charge. Le CEO et fondateur d'Oracle, Larry Ellison, a présenté cette plate-forme lors d'une conférence au siège de la compagnie à Redwood. Mark Hurd, l'ancien patron de HP, récemment embauché par Larry Ellison pour l'aider à gérer la partie système d'Oracle, était également sur place pour détailler les nouveaux matériels.

Le Sparc Supercluster est destiné aux clients qui souhaitent déployer une très grande base de données sur un cluster Unix haute performance. « Vous pouvez commencer avec un seul serveur et mettre ensuite autant de serveurs que vous voulez, plus que vous n'en aurez jamais besoin », a déclaré Bob Shimp, vice-président chez Oracle en charge de la commercialisation des produits.

Mise à jour globale de la gamme serveurs Oracle/Sun

À cette occasion, Larry Ellison a également annoncé une nouvelle version d'Exalogic Elastic Cloud sur base Sun Sparc/Solaris, un ensemble de serveurs et middleware pour créer un cloud tout-en-un. Une version à base de processeurs Intel Xeon avait été précédemment lancée à OpenWorld en septembre dernier, ce modèle sera le premier chez Oracle à utiliser la plate-forme Sparc T3. Oracle dévoile également une mise à jour processeur pour les clients utilisant la série M, qui repose sur des puces Sparc64 fabriquées par Fujitsu. Plus rapides de 20% environ, les Sparc64 VII double coeur avec 12 Mo de mémoire cache niveau 2 affichent une vitesse d'horloge de 3 GHz, selon Bob Shimp.

Oracle ne donne pas encore de prix et annonce une date de disponibilité début 2011 pour son système Sparc Supercluster. Mais la compagnie ambitionne déjà de déloger l'IBM Power 780 du benchmark TPC-C de référence pour les solutions de type cluster. Une configuration avec 108 serveurs et 3 To de stockage a été évaluée à plus de 30 millions de transactions par minute, soit trois fois celle du système IBM, avance Bob Shimp. La performance a été publiée sur le site du TPC-C le 3 décembre.

Big Blue a reconnu la performance tout en indiquant que «  le bechmark a été réalisé avec un ensemble incroyable composé de 27 systèmes  - une approche extrêmement désordonnée qui n'est pas reproductible dans le monde réel, mais simplement conçue pour remporter un benchmark», a déclaré un porte-parole d'IBM. Oracle fournira « très bientôt », des détails sur les prix et les livraisons des nouveaux produits, a déclaré Bob Shimp.

Disponibilité début 2011

Oracle a travaillé d'arrache-pied pour remettre d'équerre les plates-formes matérielles héritées de Sun, qui ont pâti de la très longue attente avant l'approbation par les régulateurs de l'acquisition de Sun par l'éditeur. Malgré les doutes initiaux quant à l'engagement d'Oracle sur la vente de matériels, la publication d'une feuille de route de cinq ans pour Sparc et ces dernières annonces indiquent sans détour que l'éditeur semble maintenant déterminé à assurer l'avenir de la plate-forme Sun.

La stratégie d'Oracle consiste à vendre des grands systèmes préconfigurés, comme l'Exalogic Elastic Cloud et ses machines Exadata. Selon la compagnie, ces solutions sont plus performantes et plus faciles à mettre en place que lorsque les clients choisissent leurs propres plates-formes matérielles et logicielles.

[[page]]

L'approche d'Oracle est censée, mais on ne sait pas encore combien de clients vont adhérer à ce modèle, nous a expliqué Dan Olds, analyste chez Gabriel Consulting. Un des compromis nécessaires sera bien que les clients auront moins de latitude pour utiliser le meilleur dans chaque catégorie de produits, a-t-il ajouté.

Des équipements aux ressources communes

Le système cloud Exalogic, la machine Exadata et le nouveau Supercluster auront beaucoup de composants en commun ce qui pourrait créer des difficultés aux équipes commerciales et marketing d'Oracle chargées de vendre ces différents produits. Jean Bozman, analyste chez IDC, souligne à ce propos qu'ils sont configurés pour différents types de travaux. « Le système Exalogic se positionne comme un «cloud tout-en-un ». L'idée est que vous pouvez proposer différents services informatiques avec un management web, un serveur d'applications et garder la main sur une base de données. L'appliance Exadata a été conçue pour assurer le traitement de la base de données très importantes, transactionnelles et décisionnelles, bien plus importantes qu'avec un serveur traditionnel », dit-elle encore.

Jean Bozman estime que c'était le bon moment pour les clients Unix. Il y a beaucoup de concurrence sur les prix, parce que les vendeurs se battent pour conserver ou acquérir des parts de marché sur un segment globalement à la baisse, et chacun des grands fournisseurs a renouvelé ses systèmes Unix. Rappelons pour mémoire que le chiffre d'affaires sur le marché des serveurs Unix a diminué de 9% au troisième trimestre 2010 par rapport à l'an passé, et ce, même si les ventes globales de serveurs ont été bonnes avec une croissance de 13%, selon les derniers chiffres d'IDC. Entre l'entrée et le haut de gamme du marché Unix, les prix varient aujourd'hui de 25 000 à  250 000 $,  souligne encore l'analyste d'IDC. « Si vous désirez remplacer d'anciens systèmes Unix, vous pouvez obtenir beaucoup plus pour le même budget. La concurrence est intense en ce moment », dit-elle.

 

(...)

(03/12/2010 15:15:18)

Le Syntec Numérique se penche sur la sécurité du cloud

Psychologique ou réelle, la peur sur la sécurité du cloud effraye les responsables et reste le premier obstacle à son adoption. Conscient de ce problème, le Syntec Numérique, après un premier livre blanc, vient de se pencher sur ce sujet crucial en essayant d'y apporter des réponses. Le fascicule recense tout d'abord l'ensemble des problématiques sécuritaires associées au cloud computing. On peut citer ainsi, quels types d'informations sont accessibles dans le cloud ? Qui peut y accéder et comment sont-elle isolées ? Qui dispose de droit pour envoyer et recevoir des données sensibles ? Le livre blanc répertorie ainsi 9 risques : la perte de maîtrise, des déficiences au niveau des interfaces et des APIs, la conformité, la localisation des données, la ségrégation/isolement des environnements, la perte et destruction maîtrisée des données, récupération des données, malveillance dans l'utilisation et enfin usurpation.

Pour le Syntec Numérique, les mesures à mettre en place sont de 3 ordres, la sécurité physique (contrôle d'accès (système à clé, cartes, digicode), redondance matérielle, résilience), la sécurité logique (protection des serveurs virtuels, une colocation sécurisée (avec les risques du multi-tenants), une segmentation réseau, une interface d'administration protégée). Enfin, le troisième élément est la sécurité des données, avec la responsabilité juridique de la sécurité et de la confidentialité des données dans le cloud, la protection, la récupération, l'intégrité, le chiffrement, l'accessibilité des données aux autorités d'un autre pays et la réversibilité des contrats cloud. Le livre blanc du Syntec Numérique apporte donc des réponses aux inquiétudes des responsables IT encore réticents à migrer certaines activités dans le cloud. Il sera sans doute nécessaire d'évangéliser encore sur les bienfaits du cloud versus les risques ou les menaces.

(...)

(03/12/2010 11:48:53)

Tribune de Michel Simion : Peut-on se passer d'un SLA pour le cloud ?

La popularité croissante du cloud computing comme puissante alternative au modèle classique des services informatiques amène, une fois encore, à se pencher sur la gestion des performances applicatives. Qu'il s'agisse pour une entreprise de créer un cloud privé ou pour un prestataire de fournir des services de cloud publics, force est de constater que la médiocrité des performances entame immédiatement la confiance du client, freine l'adhésion des utilisateurs et a une incidence sur les résultats de l'entreprise. En effet, les applications internes et externes doivent faire l'objet d'une gestion intégrée de bout en bout au sein de l'infrastructure de cloud qui les héberge, et pas seulement au niveau du centre de données. Plus précisément, le cloud computing nécessite de redéfinir précisément le contenu d'un contrat de niveau de service (SLA) dans ce nouvel environnement.

Dans sa forme simplifiée, le cloud computing facilite l'accès aux informations pour les employés, les partenaires ou les clients. Ces informations doivent être accessibles en tout lieu, à tout moment et sur n'importe quel équipement, ce qui requiert une gestion efficace des applications de cloud. Le problème avec ces applications, c'est qu'elles sont hébergées en dehors du centre de données classique, ce qui place les responsables informatiques face à un nouveau défi : comment respecter un contrat de niveau de service lorsqu'un incident se produit sur une application de cloud hébergée hors de l'entreprise et par conséquent en dehors de tout contrôle, alors que personne ne parvient à en identifier la cause ni à trouver une solution ?

Lire la suite de cette tribune sur notre blog experts

(...)

(03/12/2010 11:14:30)

Datacenters : Nextiraone renforce sa collaboration avec Cisco

Premier intégrateur européen à obtenir la certification DCUC (Data center unified computing) sortie cet été, Nextiraone muscle son offre Cisco. « Elle se traduit pour nous par un niveau de formation et d'engagement renforcé avec Cisco, nous explique Philippe Hedde,  directeur général  de Nextiraone France, nous avons formé 60 personnes, 40 commerciaux et 20 architectes réseaux à ce nouveau programme en France». Cet accord, négocié au plus haut niveau entre les deux entreprises s'applique dans six pays : Allemagne, Autriche, Belgique et Luxembourg, France, Grande-Bretagne, Suisse. Il sera étendu en 2011 à tous les pays où Nextiraone est présent, 16 au total.  

L'intégrateur est engagé depuis des années aux côtés de Cisco. Il propose par exemple UCS, unified computing system, qui concerne notamment la virtualisation des serveurs, et compte avec lui plusieurs clients en France, dont la CNAV, la mairie de Drancy, Euratechnologies à Lille et le CHU d'Amiens. Le nouvel accord est un engagement supplémentaire. « Nous allons mettre le datacenter sur le réseau » résume Philippe Hedde. C'est ce nouvel axe que vise Nextiraone  grâce aux technologies Cisco. Jusqu'alors spécialiste des architectures réseaux et de leur maintenance, Nextiraone s'ouvre au monde de la virtualisation grâce aux technologies Cisco, UCS d'abord et maintenant DCUC.  « C'est l'expression d'une transformation majeure de Nextiraone », explique Philippe Hedde.

Nextiraone, lié historiquement à Alcatel-Lucent rééquilibre un peu plus ses relations avec ses deux grands partenaires. Avec Cisco, l'intégrateur est certifié : Data center networking infrastructure, Data center storage networking, Unified communications, Unified communications managed services. Il est également Authorized technology provider, ATP. L'accord est d'autant plus marquant que Cisco est d'abord passé par des intégrateurs informatiques, comme APX ou SCC pour déployer UCS et qu'un intégrateur réseau comme Nextiraone gagne aujourd'hui une place de choix à ses côtés pour la virtualisation.

Illustration : Datacenter avec équipements Cisco UCS et Nexus, crédit D.R.

(...)

(02/12/2010 16:53:07)

La technologie des puces CMOS photoniques rapproche IBM de l'exaflopique (MAJ)

Selon les chercheurs de Big Blue, l'utilisation de puces CMOS Integrated Silicon Nanophonics pourrait multiplier par mille les performances des supercalculateurs actuels. Cette technologie intègre des modules électriques et optiques sur une seule pièce de silicium. « Les signaux électriques créés au niveau du transistor sont convertis en impulsions lumineuses, permettant aux puces de communiquer à des vitesses plus rapides, » a déclaré Will Green, un scientifique et chercheur en photonique silicium chez IBM. Selon le fondeur, cette technologie pourrait être à l'origine d'énormes progrès en terme de puissance dans le domaine des supercalculateurs. Aujourd'hui, les plus rapides des super ordinateurs plafonnent à environ 2 pétaflops, soit deux millions de milliards de calculs par seconde. La technologie photonique pourrait les faire passer à l'exaflops, soit un miliard de milliards d'opérations en virgule flottante par seconde. « IBM pourra ainsi atteindre son objectif de construire un ordinateur exaflopique d'ici à 2020, » a précisé Will Green.


Les chercheurs d'IBM, Yurii Vlasov, William Green and Solomon Assefa (de G à D) qui ont travaillé sur la puce CMOS Integrated Silicon Nanophotonics.

« Dans un système exaflopique, les interconnexions doivent être en mesure de faire circuler plusieurs exaoctets par seconde à travers le réseau, » a expliqué le chercheur. « C'est une étape intéressante pour les constructeurs qui envisagent de réaliser des systèmes exaflopiques dans les 10 ans à venir. » Celui-ci ajoute qu'il serait possible d'intégrer de multiples modules photoniques sur un substrat unique ou sur une carte mère. Les supercalculateurs les plus récents utilisent déjà la technologie optique pour faire communiquer les puces entre elles, mais essentiellement au niveau du rack et surtout sur une seule longueur d'onde. « L'avancée d'IBM permettra une communication optique simultanée et sur plusieurs longueurs d'onde, » a-t-il déclaré. La fabrication de puces utilisant cette technologie peut se faire sur une ligne de production standard et ne nécessite aucun appareillage spécial, ce qui rend sa production très intéressante en terme de coût-efficacité, selon IBM.

L'optique à la place des liens cuivre

Les essais actuels ont porté sur la fabrication d'une plaque CMOS de 130 nanomètres, mais IBM veut démarrer la production avec des «  plaques CMOS de moins de 100 nm», a dit Will Green. La technologie vise à remplacer les liens cuivre largement utilisés aujourd'hui pour le transfert de données entre les puces. L'optique peut être plus rapide, que ce soit sur des distances de quelques centimètres ou de quelques kilomètres, et consomme moins d'énergie. IBM espère pouvoir également utiliser un jour un système optique pour faire communiquer entre eux les transistors. « Intel effectue également des recherches dans la technologie nanophotonique sur silicium, mais n'a pas encore montré qu'elle savait réaliser l'intégration de la photonique et de l'électronique, » indique Will Green.

Les avancées d'IBM dans la nanophotonique arrivent après plus de 10 années de recherche menées dans ce domaine dans ses laboratoires à travers le monde. Au-delà de l'informatique haute performance, l'entreprise pense que sa technologie pourra être utilisée dans d'autres domaines, celui des réseaux en particulier.

(...)

(02/12/2010 16:14:35)

Le Green Grid mesure l'eau et le carbone utilisés dans les datacenters

Un document décrivant l'indicateur CUE ou Carbon Usage Effectiveness, devait être affiché sur le site web du Green Grid. Les documents décrivant la métrique WUE, ou Water Usage Effectiveness, sera publié en mars 2011. Le PUE, ou Power Usage Effectiveness, a été largement adoptée ces dernières années. Google et Microsoft se vantent souvent de leurs chiffres de PUE et de plus en plus d'entreprises le détermine comme point de départ de leurs projets d'efficience énergétique.

Le PUE mesure la part de l'électricité totale utilisée par un datacenter et consommée par les équipements  informatique, plutôt que de prendre en compte celle perdue par les systèmes de refroidissement ou les alimentations électriques inefficaces. « La métrique CUE aidera les gestionnaires à déterminer le montant des émissions de gaz à effet de serre généré par le matériel IT dans un datacenter » a déclaré le Green Grid dans un communiqué. « L'indicateur WUE aidera les responsables à déterminer la quantité d'eau utilisée par l'installation, et le montant utilisé pour accompagner la charge de travail informatique. » précise l'organisme.

Elargir les mesures pour une meilleure évaluation

Les datacenters sont sous pression pour être plus respectueux de l'environnement. Greenpeace a ciblé le cloud computing comme une source de réchauffement de la planète, et en Europe il existe déjà des taxes sur le carbone pour les gros consommateurs d'énergie. La plupart des centres de calcul utilisent de grandes quantités d'eau pour le refroidissement, ce qui en fait un point à prendre en considération. La question est devenue importante aux États-Unis après un rapport du Congrès estime que les datacenters ont représenté 1,5 % de la consommation totale d'énergie nationale, et que ce chiffre pourrait doubler d'ici 2011.

Les nouvelles mesures seront discutées en mars lors d'un Forum technique du Green Grid qui se déroulera à Santa Clara, en Californie. Le consortium est composé principalement de fournisseurs IT, dont Microsoft, Oracle et HP, ainsi que quelques sociétés spécialisées, comme Target, qui propose des solutions pour améliorer l'efficacité énergétique des datacenters.

(...)

(02/12/2010 13:11:26)

Jitterbit réplique les données de Salesforce vers EC2 d'Amazon

Les clients de l'application hébergée Salesforce vont pouvoir répliquer plus facilement leurs données en temps réel vers le cloud d'Amazon en passant par le service annoncé hier par Jitterbit, éditeur californien spécialisé dans les solutions d'intégration de données en Open Source. Salesforce.com propose lui-même des outils d'exportation de données, mais ses utilisateurs ne les trouvent pas pratiques, si l'on en croit Ilan Sehayek, directeur technique de Jitterbit. Il explique que le service CloudReplicate fourni par sa société met à jour dynamiquement le schéma de la base de données sur EC2 au fur et à mesure que l'information est modifiée dans le cloud de Salesforce.com. L'intervention de l'entreprise s'en trouve réduite. C'est important, estime-t-il, dans la mesure où les clients de Salesforce.com ajustent sans cesse leur modèle de données.

L'un des premiers utilisateurs du service fait écho aux propos d'Ilan Sehayek. Il s'agit d'AWPRx, une société de 25 personnes qui édite un logiciel pour gérer la compensation entre pharmacies et compagnies d'assurance. Son PDG, Jay Roy, explique que son entreprise utilisait déjà EC2 pour stocker ses données. Il juge que l'automatisation apportée par CloudReplicate constitue une amélioration importante, « énorme », et de loin préférable au processus manuel antérieur, très consommateur en ressources humaines et « qui ne fonctionnait pas comme nous le voulions », explique-t-il. Sa société utilise les données sur EC2 en combinaison avec les outils de Business Intelligence de Pentaho pour générer les rapports dont elle a besoin. Des rapports qu'il est beaucoup trop compliqué de produire avec Salesforce, selon Jay Roy.

Des concurrents tels que Boomi et Cast Iron Sytems


A l'instar d'un nombre croissant d'entreprises, AWPRx a troqué ses systèmes installés en interne pour un ensemble de services dans le cloud. L'éditeur n'utilise plus de serveurs dans ses locaux. Il est passé de l'application qu'il avait développée en Java à la solution de Salesforce.com. De la même façon, il a lâché son contrat d'hébergement négocié avec Rackspace pour passer sur EC2.

Jitterbit concurrencent des acteurs comme Boomi, acquis par Dell début novembre, et Cast Iron Systems, racheté par IBM en mai dernier. Ses clients utilisent déjà ses outils pour synchroniser les données de Salesforce avec leurs applications internes, rappelle son PDG Ilan Sehayek. Le nouveau service proposé pour Amazon EC2 leur donne une autre option et ne crée pas de « choc de culture » puisque ces entreprises travaillent déjà avec des solutions SaaS (software as a service), fait-il remarquer.

Le tarif du service CloudReplicate est fixé à 899 dollars par mois. Il s'incrémente en fonction du volume de données et du nombre de processus associés qui sont concernés. L'offre supporte actuellement MySQL, SQL Server et les bases de données d'Oracle. Jitterbit indique qu'il prévoit de cibler d'autres applications SaaS, mais sans autre précision pour l'instant. Il n'y pas de raisons techniques pour que ce service ne puisse pas fonctionner, d'une façon ou d'une autre, avec des concurrents d'Amazon EC2 tels que Rackspace, a ajouté Ilan Sehayek.

Illustration : Solution CloudReplicate (source : Jitterbit)
(...)

< Les 10 documents précédentsLes 10 documents suivants >