Flux RSS
Windows
1087 documents trouvés, affichage des résultats 91 à 100.
< Les 10 documents précédents | Les 10 documents suivants > |
(06/04/2011 16:30:29)
Au coeur de la Silicon Valley : Dédup et backup plus rapide avec Arkeia Software (Part 4)
Pour gagner du temps avant la sauvegarde et les couches incrémentales, Arkeia propose depuis plus d'un an une solution de déduplication (suite au rachat de Kadena Systems en 2009) avant la phase compression. Pour la version 9 de son outil de backup, disponible pour les principales plates-formes physiques et virtualisées (WMware, Citrix et Microsoft), l'éditeur propose la déduplication progressive. Trois technologies de déduplication de blocs de données se partagent le marché : fixe, variable et progressive. Avec la déduplication progressive, le très francophile Bill Evans nous a expliqué réduire les fenêtres de sauvegarde et diminue le volume des données stockées, car les tailles des blocs sont optimisées pour chaque type de fichiers.
À l'aide sa base utilisateurs, l'éditeur a scanné plusieurs millions de fichiers et mesuré les taux de déduplication afin de déterminer la taille de bloc optimale pour chaque type de fichier. Grâce à cette base, la dédup s'adapte au contenu. « Et à la différence des solutions spécialisées, nous pouvons sauvegarder à la fois des serveurs physiques et virtuels », nous a expliqué le CEO. La déduplication progressive est en outre idéale pour les environnements virtuels puisque chaque VM conserve sa propre copie du système d'exploitation et ses applications. En éliminant ces informations redondantes au sein des images de VM, les sauvegardes peuvent être plus rapides et moins volumineuses.
Two faces backup
Deuxième innovation, la sauvegarde en deux phases. À la différence des méthodes de backup traditionnel en une phase, « la solution d'Arkeia commence par déplacer les fichiers « A » avant de mettre à jour le catalogue. Cela prend un peu plus de temps, mais la fenêtre de sauvegarde peut se fermer une fois au temps « A » pour terminer la création du nouvel index. On gagne ainsi du temps pour le client sur le poste de travail et si, le serveur tombe, les données sont sauvegardées. Il suffit de récréer un inventaire pour lancer la restauration. L'essentiel, les données, sont ainsi bien protégées dans un laps de temps plus court », précise Bill Evans.
D'autres solutions permettent également de réduire le temps de sauvegarde en une phase. Le recours à des disques SSD ou le partitionnement de serveurs qui permettent d'accélérer la sauvegarde des petits fichiers et de réduire les goulets d'étranglement. L'inconvénient, c'est qu'après le déplacement des fichiers, l'index est mis à jour et la sauvegarde ralentit.
Arrivée des commandes en ligne
Troisième point, l'éditeur a ajouté une solution de chiffrement AES-256 et repensé son interface web suite à une étude réalisée auprès de ses clients. « Nos clients aimaient bien notre précédente interface web, mais certains sont très familiers des plates-formes Linux et demandaient des commandes en ligne. Ils utilisent encore beaucoup les commandes pour leurs déploiements. Nous avons changé l'interface pour répondre à cette demande spécifique. Les clients peuvent donc choisir d'utiliser l'interface web ou recourir à un outil plus technique ».
Arkeia Network Backup 9.0 est commercialisé à partir de 600 € HT pour une licence permanente et à partir de 240 €HT pour une souscription d'un an. Le prix de l'Option Déduplication est de 1 500 € HT par serveur dans le cas d'une licence permanente et de 600 € HT pour une souscription d'un an. Tous les produits incluent un an de maintenance avec mises à jour gratuites et accès illimité au support technique de l'éditeur.
(...)(30/03/2011 11:21:57)Au coeur de la Silicon Valley : Petit détour en Floride chez Datacore (Part 1)
Fondée en 1998 et bien connue pour ses solutions de virtualisation de stockage, Datacore, qui réalise aujourd'hui un chiffre d'affaires de 50 millions de dollars environ n'est plus vraiment une start-up avec 600 employés dans le monde. L'esprit reste toutefois toujours axé sur l'innovation et sur le développement technologique comme nous l'a confirmé la rencontre avec le lumineux Ziya Aral (voir illustration ci-dessous), chairman et co-fondateur de la compagnie avec George S. Teixeira et John Bocskor.
À l'origine de plusieurs brevets clefs dans l'industrie IT, Ziya Aral est toujours en charge des développements technologiques de la compagnie avec récemment la publication d'un livre blanc sur une architecture de stockage dédiée au déploiement de plusieurs centaines de postes de travail virtualisés (voir PDF). L'ambition de ce projet était de fournir une solution performante pouvant supporter d'importantes contraintes. « Nous ne sommes pas dans le business VDI mais dans celui du stockage », tient à préciser le charismatique chairman de la société, « mais nous sommes la clef de la concentration. Des centaines de machines virtuelles sont une charge énorme pour le stockage ». Dans cette configuration, il est devenu très important de réduire la latence et d'accélérer les échanges entre les différents hosts. « Nous ne vendons pas de VDI mais une architecture pour accélérer le VDI qui réduit de 32 dollars environ par poste de travail le coût d'acquisition du matériel. Cette plate-forme dédiée à la VDI repose sur la solution de virtualisation SANMelody, l'hyperviseur Hyper-V et une paire de serveurs équipés de Windows Server 2008, capables de supporter jusqu'à 220 VD (virtual desktop). Mais Datacore peut aller plus loin avec une configuration Star (en étoile) supportant plusieurs centaines de VD.
Avec une solution de ce type, Datacore se positionne comme un fournisseur de software pour l'infrastructure et pas seulement pour le stockage. « Les solutions de stockage de classe entreprise sont très couteuses, souligne George S. Teixeira (voir ci-dessus), le CEO de la compagnie, « et nous apportons cette technologie aux PME-PMI à un coût avantageux. » Selon une récente étude IDC publiée en 2011, parmi les freins au développement de la virtualisation de serveurs, les clients mettent en avant le surcoût lié au stockage. Datacore se fait fort de maitriser ces coûts avec son architecture virtualisée qui peut travailler au-dessus des principaux systèmes de stockage (Hitachi, EMC, IBM...). « Le matériel peut aller et venir, mais notre couche applicative reste et l'automatisation des principales tâches d'administration s'allége avec notre solution SANSymphony-V release 8 », précise le CEO de la compagnie.
Un marché qui évolue très vite
Ziya Aral, le directeur technique de la compagnie, reste toutefois circonspect face aux tendances du marché, « nous sommes une compagnie technologique, mais le monde change tous les six mois. Il n'est pas possible de travailler de manière scientifique si tout change tous les six mois. Le marché ne doit pas devenir conservateur, mais la stabilité est nécessaire ». Datacore ne propose par exemple pas encore de gestion des données de type multitiers comme chez 3Par ou EMC, « le tiring et les SSD sont difficiles à concilier en temps réel », nous proposons bientôt une progression par semaine et une fonction de politique d'usages sera disponible ce trimestre, indique Ziya Aral.
Avec le vent en poupe, Datacore, qui n'est pas coté en bourse, suscite l'intérêt de plusieurs investisseurs du marché. Ziya Aral nous a ainsi bien volontiers avoué avoir refusé une offre de 500 millions de dollars pour le rachat de la compagnie. « La vente ou une introduction en bourse ne sont pas encore à l'ordre du jour, mais si quelqu'un vient avec une meilleure offre nous aviserons », précise George S. Teixeira. « Mais pour l'instant nous restons indépendants et comptons bien prendre avantage de cet état ».
Aujourd'hui, la compagnie américaine réalise 70% de son chiffre d'affaires à l'international et 30% seulement aux États-Unis. Dans bien des compagnies IT US, c'est exactement l'inverse.
(...)(25/03/2011 10:56:11)Microsoft dévoile son outil de virtualisation de serveur d'applications
La virtualisation des serveurs d'applications est une fonctionnalité désormais disponible en version bêta dans System Center Virtual Machine Manager, et devrait être livrée plus tard cette année en même temps que la version finale du System Center 2012. Microsoft n'est pas le premier vendeur à virtualiser les serveurs d'applications, mais, pour une fois, il le fait avant son rival VMware. Avec peut-être un avantage : les clients de VMware sont aussi des utilisateurs de Windows.
Tout comme la virtualisation serveur dissocie le système d'exploitation du serveur, la virtualisation d'applications ajoute une couche supplémentaire et dissocie le programme du système d'exploitation. Cela permet une plus grande souplesse dans la migration, la mise à jour et la restauration de certains éléments logiciels. Jusque-là, la virtualisation des applications concernait uniquement les logiciels de bureau. Comme on pouvait s'y attendre, la virtualisation de serveur d'applications, virtualise elle, le « software framework », dissociant l'application et sa configuration de l'OS sous-jacent. Autrement dit, au lieu de faire une copie virtuelle d'Outlook par exemple, on crée une copie virtuelle d'Exchange Server.
Simplifier les mises à jour
Pourquoi opérer de cette façon ? Selon David Greschler, directeur de la stratégie virtualisation chez Microsoft, « les applications actuelles côté serveur sont étroitement associées à des machines virtuelles, si bien qu'il est difficile de déplacer les applications d'une machine virtuelle à une autre, ou de mettre à jour l'OS sans affecter l'application, et vice versa. » Avec des serveurs d'applications virtualisées, il devient possible de mettre à jour le système d'exploitation sans avoir à se préoccuper d'une éventuelle réinstallation du logiciel.
Avec une application virtualisée, les administrateurs peuvent créer des « images systèmes types », ou des instances génériques d'un système d'exploitation qu'ils pourront appliquer à plusieurs types d'applications. « Au lieu d'avoir une machine virtuelle Exchange, on a une VM générique avec un système d'exploitation où l'on peut introduire une application en temps réel, » explique David Greschler. De nombreuses applications utilisent une image système identique. Elles peuvent donc être plus facilement déplacées du datacenter d'un client vers un service cloud Windows Azure.
Alléger la gestion des instances
Les responsables de Microsoft ont largement fait valoir que cette approche pouvait contribuer à alléger la gestion des instances : au lieu d'avoir à gérer des milliers d'instances système spécialisées, quelques instances génériques reproduites des milliers de fois suffisent. « Lors du Patch Tuesday par exemple, cette technologie permettra aux services informatiques de traiter le système d'exploitation et l'application séparément, ce qui rendra plus facile le déploiement des mises à jour de sécurité, » a indiqué Microsoft.
[[page]]
L'objectif de l'éditeur de Redmond est de mettre davantage l'accent sur l'application, plutôt que sur la machine virtuelle, ce que le directeur de la stratégie appelle la « nappe », alors que les applications représentent les plats que l'on dépose par dessus. Techniquement, la virtualisation de serveurs d'applications peut même être utilisée sur des serveurs physiques dépourvus d'hyperviseur, mais il est peu probable que beaucoup de clients soient tentés par cette solution.
Une technologie issue du rachat de Softricity
David Greschler est le cofondateur de Softricity, une entreprise acquise par Microsoft en 2006. Au moment du rachat, Sofricity était propriétaire d'une technologie de virtualisation d'applications de bureau, prête à l'usage, et avait déjà commencé à plancher sur la virtualisation d'application côté serveur. Selon David Greschler, « la priorité de Microsoft était alors de s'assurer que App-V pour le bureau puisse être exploitée. » L'outil serveur d'applications « était en test dans les laboratoires. C'était juste un projet. Aujourd'hui, c'est une réalité. »
Mais Microsoft n'est pas le premier à être parvenu à ce stade. La start-up AppZero se vante de disposer de sa propre technologie de virtualisation d'application côté serveur, qui permet de déplacer les applications entre serveurs physiques et virtuels et à travers des déploiements VMware, Xen et Hyper-V. Mais Microsoft avance plus vite que son principal rival : VMWare sait virtualiser les serveurs et les applications de bureau, mais pas encore les serveurs d'applications. « Actuellement, VMware ne supporte pas la virtualisation des serveurs d'applications, » a confirmé AppZero.
Pas de support de Linux bien sûr
Avec System Center 2012, Microsoft étend sa capacité à gérer plusieurs hyperviseurs. System Center prenait déjà en charge la technologie Hyper-V et VMware, et la nouvelle version sera en mesure de gérer XenServer de Citrix. Avec une limitation cependant : la technologie de Microsoft ne fonctionne qu'avec Windows Server et pas avec Linux. « C'est une architecture tout à fait différente, » explique le directeur de la stratégie, à propos de Linux. « La couche de virtualisation des applications est très liée à la structure de Windows, au registre, aux fichiers, et à tous les composants dont ce système d'exploitation a besoin pour faire tourner une application. » Pour l'heure, la prise en charge de Linux n'est « pas sur notre feuille de route, » a déclaré David Greschler.
< Les 10 documents précédents | Les 10 documents suivants > |