Flux RSS

Open Source

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

1843 documents trouvés, affichage des résultats 101 à 110.

< Les 10 documents précédentsLes 10 documents suivants >


(23/08/2011 10:57:34)

Hadoop croît mais ne remplace pas les bases de données relationnelles

Le besoin de gérer des volumes sans cesse croissants de données structurées et non structurées contribue à l'adoption du logiciel Open Source Hadoop dans les entreprises. Pour autant, ce dernier ne vient pas remplacer les technologies existantes, mais fonctionne aux côté des bases de données relationnelles. C'est ce que montre une étude de Ventana Research commentée par nos confrères de Computerworld.

Conçu pour traiter des petaoctets de données, Hadoop présente l'intérêt de scinder d'importants jeux de données en plus petits blocs qui sont alors distribués à travers des serveurs en cluster pour en accélérer le traitement. Parmi les tout premiers utilisateurs de la technologie figurent notamment des acteurs du web. Facebook, Amazon, eBay et Yahoo y ont recours pour analyser des petaoctets de données non structurées que la structure des SGBDR traditionnels ne gère pas facilement.

L'enquête menée par Ventana Research auprès de 160 entreprises montre qu'elles sont de plus en plus nombreuses à s'intéresser à Hadoop et à y recourir pour des besoins similaires (54%). La plupart l'utilisent pour collecter et analyser d'énormes quantités de données générées automatiquement (logs, résultats de recherche, contenus de médias sociaux, explique David Menninger, auteur de l'étude. Dans deux tiers des cas, a-t-il constaté, cela porte sur des analyses avancées ou sur des catégories de traitement qu'elles ne faisaient pas avant. La technologie est moins susceptible d'être utilisée pour les analyses conventionnelles portant sur les données transactionnelles et les informations sur les clients, domaines dans lesquels les SGBDR priment toujours.

Néanmoins, en dépit de l'intérêt d'Hadoop, l'étude montre que les entreprises qui l'exploitent rencontrent aussi quelques problèmes, au niveau de la sécurité, du clustering ou du manque de ressources ayant des compétences sur ce logiciel.

Illustration : D.R.

(...)

(22/08/2011 12:37:40)

Dell embarque l'offre Hadoop de Cloudera dans ses serveurs PowerEdge C

Dell a annoncé pour début septembre des serveurs embarquant la solution Apache Hadoop de Cloudera, complétés de composantes réseaux, d'outils d'administration, de services et de support pour en assister le déploiement. Avec cette offre, le constructeur vise les secteurs des services financiers,  de l'énergie et des télécoms, de la distribution de détail, des médias et de l'Internet, ainsi que les organismes de recherche. En combinant logiciel et matériel optimisé pour l'offre Open Source Hadoop, Dell cherche à proposer un coût de possession moins élevé que certaines offres propriétaires pour mettre en oeuvre les applications analysant d'importants volumes de données (complexes et évoluant de façon dynamique).

L'offre repose sur la ligne de serveurs PowerEdge C, modèles C2100, C6100 ou C6105, conçus pour être utilisée dans les projets de traitement à grande échelle, notamment par leur taille et leur consommation électrique réduite. Elle intègre la distribution Hadoop de Cloudera (CDH), ainsi que sa suite d'outils d'administration. Pour gérer la mise en place, elle inclut le logiciel Crowbar, de Dell. Côté équipements réseaux, l'offre comprend un jeu de commutateurs PowerConnect 6248 Gigabit Ethernet à 48 ports. Un déploiement reposant sur cette architecture peut aller de 6 à 720 noeuds.

« Cette offre est une réponse directe à ce que nous entendons de la part de nos clients », a expliqué Joseph George, directeur du marketing cloud chez Dell. Selon lui, une part importante d'entre eux envisagent l'utilisation d'Hadoop ou y ont déjà recours.  « Cela devient un standard de facto », ajoute-t-il en expliquant que Dell a placé une architecture de référence au-dessus d'un serveur adapté à cet environnement.

Le coût démarre à 118 000 dollars

Créé par Doug Cutting, un spécialiste des technologies de recherche, Apache Hadoop est monté en puissance au sein des entreprises devant passer au crible d'énormes quantités de données non structurées, telles que les connexions aux serveurs. Outre Hadoop, l'offre CDH de Cloudera regroupe différents composants, parmi lesquels l'infrastructure de datawarehouse Hive, Pig (langage de programmation MapReduce), la structure de stockage de données HBase, les bibliothèques Whirr pour exploiter des services cloud, ou encore Zookeeper, Flume, Hue, Oozie et Sqoop. Les serveurs peuvent être installés sous différents systèmes versions de Linux, Red Hat Enterprise Linux 5.6 ou 6, CentOS, Ubuntu ou Suse.

Le coût d'une configuration minimum démarre entre 118 000 dollars et 124 000 dollars suivant les options de support retenues. Cela inclut un an au support de Cloudera et les mises à jour. Ce package est similaire à celui que Dell a annoncé fin juillet pour son offre de cloud privé reposant sur OpenStack, Michael Dell, PDG de Dell, ayant confirmé son intention de proposer davantage de solutions complètes intégrant matériel, logiciels et support. Ce faisant, le fournisseur renforce aussi ses offres s'appuyant sur des composantes Open Source.

Illustration : les composants de CDH, la distribution de Cloudera incluant Apache Hadoop (source : Cloudera) (...)

(18/08/2011 16:52:22)

Virtualisation : Red Hat libère RHEV de son lien à Windows

Avec RHEV 3.0, la prochaine mouture de sa plateforme de virtualisation, Red Hat s'affranchit de sa dépendance à Windows Server et SQL Server de Microsoft. Ce sera la première version de Red Hat Enterprise Virtualization qui ne nécessitera pas de copie de Windows Server pour faire fonctionner la console d'administration, a indiqué Navin Thadani, directeur senior de l'activité virtualisation de Red Hat. La bêta du produit, livrée hier, montre aussi que l'éditeur a fait de sérieux efforts pour que son logiciel puisse gérer des charges de travail plus importantes, ce qui devrait le rendre compétitif face à son concurrent VMware. « Ils ne sont pas les seuls sur le terrain et nous sommes en bonne position pour profiter de la demande croissante pour des offres alternatives à la leur », estime Navin Thadani.

Lancé en 2009, RHEV a la particularité de combiner sur une console la possibilité de gérer à la fois de serveurs virtuels et des postes de travail virtuels. Il a gagné un certain nombre d'utilisateurs reconnus, tels qu'IBM, NTT et DreamWorks Animation, même si l'éditeur ne fournit pas d'estimation sur le nombre de déploiements probables de RHEV.

Le recours à Windows Server était assez étrange au regard de la volonté de Red Hat à utiliser des logiciels Open Source pour ses propres offres. Mais la société a récupéré la console d'administration de RHEV d'une de ses acquisitions réalisée en 2008, celle de l'éditeur Qumranet qui a fourni de nombreux composants de RHEV. Pour ce dernier, Windows constituait une base adaptée pour gérer les postes de travail virtuels, rappelle Navin Thadani, qui travaillait pour Qumranet avant son rachat par Red Hat.

Développée en Java et reposant sur RHEL

La future version de RHEV propose une console entièrement nouvelle, développée en Java et fonctionnant sur la plateforme JBoss Enterprise Application de Red Hat, celle-ci reposant sur RHEL (Red Hat Enterprise Linux). Une console web remplace le programme Windows indépendant qui était associé à la précédente version.

L'environnement sera familier aux habitués de Linux. A la place de SQL Server, RHEV exploitera la base de données Open Source PostGres. Les versions antérieures contraignaient les administrateurs à utiliser le PowerShell de Windows Server pour automatiser des tâches en passant par des scripts. Il est maintenant possible d'utiliser à la place l'interface à ligne de commande de Linux pour exécuter des scripts. Red Hat fournit aussi une API (interface de programmation) permettant d'utiliser les outils d'administration d'autres éditeurs pour exploiter RHEV. Les utilisateurs du logiciel peuvent d'ailleurs toujours se servir de l'annuaire Active Directory, de Microsoft, à des fins d'authentification.

Jusqu'à 64 CPU virtuels et 2 To de mémoire

En dehors de la console, le logiciel bénéficie d'autres améliorations significatives sur le plan de l'évolutivité. La couche physique de la machine hôte peut avoir jusqu'à 128 coeurs et jusqu'à 2 To de mémoire physique. Pour les machines virtuelles accueillies au-dessus de KVM, on peut monter jusqu'à 64 CPU virtuels et 2 To de mémoire virtuelle, alors que la version précédente était limitée à 16 CPU virtuels et 256 Go de mémoire par machine virtuelle accueillie. A titre de comparaison, la version 5 de vSphere, de VMware, livrée en juillet, supporte jusqu'à 32 CPU virtuels et 1 To de mémoire.

RHEV 3.0 apporte d'autres nouveautés. L'hyperviseur KVM (Kernel-based Virtual Machine) a été mis à jour avec la dernière version du kernel Linux dans RHEL 6. Le nouveau logiciel peut aussi utiliser des disques locaux, alors que le précédent pouvait seulement recourir à du stockage partagé. Et pour les déploiements VDI (virtual desktop infrastructure), SPICE (Simple protocol for independant computing environments) a été également mis à jour afin d'accélérer les capacités de streaming sur les réseaux étendus.

La version définitive de RHEV 3.0 devrait sortir à la fin de cette année.

Illustration : RHEV for Desktop (crédit : Red Hat) (...)

(12/08/2011 15:41:29)

CloudSwing permet d'assembler des composants cloud Open Source

Avec CloudSwing, les développeurs et les départements informatiques des entreprises auront bientôt à leur disposition une autre option pour proposer du PaaS (Platform as a Service). La future offre d'OpenLogic s'appuie sur son coeur de métier qui consiste à fournir du support technique dans le domaine du logiciel open-source.

Les clients de CloudSwing pourront utiliser la nouvelle plate-forme pour assembler des piles logicielles provenant à la fois de produits open-source et commerciaux, et les utiliser pour des services cloud hébergés dans des infrastructures de type Amazon EC2 (Elastic Compute Cloud). Comparée aux offres commerciales PaaS comme Azure de Microsoft, laquelle limite le choix des composants de la pile, l'offre apportera une plus grande flexibilité, avance Kim Weins, vice-présidente senior du marketing d'OpenLogic. Une version test de CloudSwing est actuellement disponible en version bêta privée. Elle sera suivie par une version DevTest comportant plus de fonctionnalités plus tard dans l'année. « La version de production est prévue pour le début de l'année 2012 », a précisé Kim Weins.

En plus d'une série de piles intelligentes préconstruites, CloudSwing offrira un ensemble d'outils basés sur le Web qui permettra aux développeurs d'ajouter et d'enlever facilement des éléments, a précisé OpenLogic. Les piles CloudSwing pourront être gérées à partir d'un portail unique sur lequel les clients auront accès à un ensemble d'outils adaptés à chaque composant. Le service fournira également des outils de contrôle pour chaque composant, qui dépasseront de loin, selon OpenLogic, les offres clouds publics, notamment en matière de CPU et de capacité mémoire. « Pour commencer, OpenLogic proposera un support technique pour CloudSwing sur EC2 d'Amazon, mais ciblera ensuite les services cloud de Rackspace, avec des offres de cloud privés », a déclaré la vice-présidente.

Objectif : bâtir rapidement un prototype

« La version test offre la possibilité de créer rapidement une pile de démarrage à des fins de prototypage », explique Kim Weins. « Une étape dans le développement cloud qui concerne actuellement de nombreuses entreprises. » Un aspect très novateur de CloudSwing concerne une fonction de gestion des dépenses qui permet de suivre le coût des services Cloud relatifs à plusieurs projets. « Nos principaux clients, en l'occurrence de grandes entreprises, ont recourt à des services de cloud public de type pay-as-you-go pour une grande partie de leur prototypage. Ils partagent ces services entre plusieurs équipes de développement et parfois plusieurs sous-traitants », explique Kim Weins. Ce mode de fonctionnement fait que les responsables informatiques ont du mal à suivre l'ensemble des coûts liés aux nombreux petits projets. CloudSwing récupère les données nécessaires directement sur EC2 et les réunit en un seul endroit. Les gestionnaires peuvent également définir des seuils de dépenses à ne pas dépasser sur certains projets. « Le système envoie des alertes quand les limites sont atteintes », indique Kim Weins. « Nous pensons que le service sera très attractif. CloudSwing sera vendu par abonnement et sur une base horaire, mais le prix n'a pas été encore fixé ». Le support technique pour les piles logicielles sera probablement vendu séparément, également sous forme d'abonnement.

Un petit air d'OpenShift et CloudFoundry

CloudSwing ne se limite pas aux composants open-source, mais OpenLogic ne pourra pas offrir un support technique complet pour les composants logiciels commerciaux d'une pile donnée. « Tous nos clients travaillent dans des environnements hybrides », a déclaré Kim Weins. « Nous ne pourrons pas nécessairement corriger un bogue dans un produit Oracle, mais nous pourrons aider notre client à résoudre son problème et à savoir si celui-ci provient ou non du produit commercial qu'il utilise. »

Le service CloudSwing a suscité une réaction mesurée de la part de Jay Lyman, analyste du Groupe 451. D'un côté, « ce service a l'air de ressembler à d'autres services Open Source PaaS, comme OpenShift de Red Hat et CloudFoundry de VMware », a estimé l'analyste. « Mais la fonction de gestion des dépenses est assez unique et intéressante, en particulier pour certains clients qui ont du mal à maîtriser les coûts de licence dans le cloud computing. » Globalement, estime Jay Lyman qu'il est difficile de prédire la réaction du marché à une offre comme celle de CloudSwing, dans la mesure où, comme c'est le cas pour beaucoup d'autres offres dans le domaine du PaaS, l'essentiel du produit reste encore à venir.

Illustration : « choisissez une pile, personnalisez, déployez », annonce le slogan d'Open Logic.

(...)

(10/08/2011 17:00:51)

Microsoft ajoute le support d'Hadoop à SQL Server et PDW

La réponse de Microsoft au phénomène des « Big Data » consiste à apporter à sa base de données SQL Server et à sa plateforme Parallel Data Warehouse le support du framework Open-Source Hadoop, adapté au traitement d'importants volumes de données. Les connecteurs qu'il proposera seront disponibles sous peu sous forme de CTP (community technology preview) précise l'équipe de SQL Server dans son blog officiel.

L'expression Big Data fait référence à la multiplication des données générées par les entreprises, en particulier en provenance du trafic web et de capteurs. « Nos clients nous demandent de les aider à gérer et analyser à la fois des données structurées et non structurées, qui sont notamment stockées dans des environnements Hadoop », explique l'éditeur. Avec les connecteurs qu'il s'apprête à fournir, les clients pourront échanger des données entre ces environnements, SQL Server et Parallel Data Warehouse (PDW).

Hadoop, qui s'adosse à l'Apache Software Foundation, a été constitué par Yahoo. Il est basé en partie sur le modèle de programmation MapReduce développé par Google. Un écosystème de plus en plus étendu s'est développé autour d'Hadoop, comportant des acteurs tels que Cloudera, pour offrir des services et des distributions spécialisées du Framework.

Pas de feuille de route à long terme

La démarche de Microsoft est logique, dans la mesure où des fournisseurs de datawarehouse tels qu'EMC (avec Greenplum) et Teradata ont déjà adopté Hadoop, rappelle James Kobielus, analyste de Forrester Research. De plus en plus d'entreprises exploitent des clusters Hadoop et veulent être capables d'envoyer des données de ces systèmes vers leurs datawarehouses, ajoute-t-il. Mais, selon lui, aucun fournisseur ne peut prétendre avoir construit une offre Hadoop complète qui inclurait des distributions, des connecteurs vers des projets liés à Hadoop tels que la base de données Cassandra, des outils de modélisation et d'autres composantes. Il est évident qu'à l'instar des autres acteurs, Microsoft a des projets très sérieux pour Hadoop, reconnaît James Kobelius en soulignant toutefois que, pour l'instant, il n'avait pas encore communiqué de feuille de route à long terme.

Microsoft n'adopte pas Hadoop au détriment de ses propres développements. Il a par exemple livré récemment le projet Daytona, un modèle de programmation basé sur MapReduce à utiliser sur son cloud Azure.

Cette semaine, la société de Steve Ballmer a également annoncé qu'il avait livré une deuxième mise à jour pour Parallel Data Warehouse. Celle-ci combine de nouvelles fonctionnalités, à la fois du côté du matériel et du logiciel. Cela inclut des connecteurs supplémentaires pour des éditeurs d'outils de BI (Business Intelligence) et d'intégration de données tels que SAP, Informatica et Microstrategy. Par ailleurs, une version de PDW est maintenant disponible pour les serveurs de Dell. Les prix démarrent à moins de 12 000 dollars par téraoctet.

Illustration : projet Hadoop / Blog de l'équipe SQL Server

(...)

(29/07/2011 16:37:23)

RecapIT : Google+ encore et toujours, Apple roi du smartphone, Avant-premières de la BlackHat

Le mois de juillet va tirer sa révérence et le lecteur retiendra qu'un réseau social, Google +, a retenu une bonne partie de son attention. Cette semaine n'échappe pas à la règle avec en toile de fonds la bataille entre Facebook et Google. Ce dernier est pressé par les entreprises de créer des comptes spécifiques sur Google+ pour leur activité. De son côté, Facebook rappelle via une page dédiée « Facebook for Business » comment faire pour monter sa page entreprise et la faire fructifier. La firme de Mountain View a annoncé aussi l'acquisition de Fridge pour proposer à terme la fonction de reconnaissance faciale au sein de son réseau social. Facebook dispose déjà de cette option. Enfin, Google a justifié sa politique de gestion de profils en écartant les pseudos sur Google+.

Sur l'informatique pro, les sociétés continuent à miser sur le cloud avec un accent cette semaine sur l'Open Source à travers Dell et Nebula. Oracle a enfin dévoilé Java 7 et mis en avant MySQL 5.6.

Apple détrône Microsoft et un mobile pour voler une voiture


La mobilité était aussi au coeur de l'actualité. En début de semaine, la fondation Mozilla annonçait qu'un groupe de développeurs allait travailler sur la création d'un OS mobile (Boot to Gecko), à partir du code d'Android. Le site de commerce chinois Alibaba a annoncé lui aussi vouloir créer son propre OS mobile. Pour Nokia, on peut parler d'une « septimana horribilis » (semaine horrible) car les résultats financiers ont été très décevants au point que certains analystes s'interrogent sur le partenariat avec Microsoft, mais la firme finlandaise a aussi perdu sa suprématie dans les ventes de smartphones. Elle a été détrônée par Apple et Samsung.

Et pour terminer, la conférence BlackHat qui se déroule la semaine prochaine à Las Vegas, nous a dévoilé quelques morceaux choisis en matière de sécurité. Nous avons appris ainsi que les batteries des Macbook d'Apple pouvaient être piratés et entrer en surchauffe. Par ailleurs, des chercheurs ont trouvé un moyen de voler une voiture via un SMS en captant et modifiant le dialogue entre le serveur et la voiture.

(...)

(19/07/2011 16:31:56)

Microsoft veut une plus grande intégration d'Hyper-V dans le noyau Linux

« Microsoft a été le cinquième plus grand contributeur au noyau Linux version 3.0 » explique sur son blog le développeur Open Source et chercheur en informatique, David Wheeler et de préciser « le principal travail de Microsoft a été de nettoyer le driver d'Hyper-V pour qu'il puisse intégrer le noyau Linux ».

L'intégration de l'hyperviseur passe par le stagging tree du noyau Linux (une arborescence dans laquelle résident des pilotes, systèmes de fichiers et autres additions majeures utilisables) et les questions traitées par Microsoft résident dans la volonté d'intégrer des parties principales du noyau, affirme le chef de projet Linux, Greg Kroah-Hartman. Il indique que « des toilettages supplémentaires et des modifications sont nécessaires pour optimiser définitivement Hyper-V dans le noyau Linux », mais il ne sait pas quand cette tâche sera terminée.

Assurer une compatibilité avec les distributions Linux

Ce travail est essentiel pour s'assurer que la plate-forme de virtualisation de Microsoft soit compatible avec l'ensemble des distributions Linux. Aujourd'hui, Hyper-V fonctionne avec CentOS et des pourparlers sont en cours avec Canonical pour le rendre compatible avec Ubuntu.

Le dossier d'Hyper-V dans le stagging tree contient deux douzaines de fichiers, y compris une liste « to do » avec les problèmes qui doivent être résolues. Cette liste montre que Microsoft doit « résoudre des avertissements et des erreurs  sur le checkpatch (validité du chemin) ; auditer le VMBus afin de vérifier qu'il fonctionne correctement; contrôler l'aspect réseau et les pilotes SCSI ». La liste s'interroge aussi sur la possible fusion entre VMbus et d'autres types de bus virtuels. Microsoft a encore du travail, mais la concurrence avec VMware et Citrix est une émulation supplémentaire pour activer ce processus d'intégration.

(...)

< Les 10 documents précédentsLes 10 documents suivants >