Flux RSS
Open Source
1843 documents trouvés, affichage des résultats 51 à 60.
< Les 10 documents précédents | Les 10 documents suivants > |
(29/11/2011 16:22:45)
Yaci : un moteur de recherche Open Source et en mode P2P
La Free Software Foundation Europe (FSFE) a publié la version 1.0 de son moteur de recherche YaCy qui adopte une approche différente de la recherche. Plutôt que d'utiliser un serveur central, les résultats proviennent d'un réseau de « pairs » indépendant qui sont les utilisateurs qui ont téléchargé le logiciel YaCy. L'objectif est qu'aucune structure ne décide quel sera le positionnement des résultats qui apparaissent. « La plupart de ce que nous faisons sur Internet implique la recherche. Il est le lien vital entre nous et les informations. Pour une fonction aussi essentielle, nous ne pouvons pas compter sur quelques grandes entreprises qui risque de compromettre notre vie privée avec leur processus», a déclaré Michael Christen, chef du projet YaCy. Ce réseau compte actuellement environ 600 « pairs », mais les membres à l'origine de l'idée s'attendent à ce que ce nombre augmente. Ils se réfèrent à d'autres projets de logiciels libres qui visent à remplacer des services centralisés. Par exemple, identi.ca (status.net) offre une alternative à Twitter ou diaspora (joindiaspora.com) à Facebook.
Le projet est soutenu par la Free Software Foundation Europe (FSFE), qui s'inquiète du contrôle et du pouvoir des moteurs de recherche dominants sur les informations trouvées par les internautes. « Ces entreprises peuvent ainsi connaître vos centres d'intérêt et les utiliser », explique Karsten Gerloff, président de la FSFE et d'ajouter « la publicité ciblée est seulement l'utilisation la plus bénigne de ces données». Pour éviter ces risques, le dirigeant propose de « s'éloigner de l'idée que ce type de services doit être centralisé. Il est important d'être indépendant et de créer une infrastructure qui ne dispose pas d'un seul point ».
Un modèle distribué et en P2P
Sur le plan technique, YaCy est un moteur de recherche complet composé d'une interface utilisateur pour la recherche et d'une autre pour l'administration, la configuration et le monitoring. Le "crawler" (l'outil d'analyse) de YaCy récupère les données à partir du web, les analyse et les stocke sous forme de texte dans un index local. Lorsqu'une requête est lancée sur le moteur, la recherche se fait non-seulement sur l'index local, mais aussi sur ceux des autres « pairs » du réseau YaCy. Les pairs s'échangent en permanence des fragments d'index via une table de hachage distribuée en mode P2P.
Tout le monde peut essayer le moteur de recherche en allant sur ce site. Les utilisateurs peuvent faire partie du réseau YaCy en installant le logiciel sur leurs propres ordinateurs. Comme il s'agit d'un logiciel libre, n'importe qui peut l'utiliser, l'étudier, le partager et l'améliorer. Il est actuellement disponible pour Linux, Windows et MacOS. Le projet cherche également des développeurs et autres contributeurs.
Il y a une semaine, un mathématicien italien a présenté un projet volunia.com qui souhaite concurrencer Google sur le moteur de recherche.
Une base de données as a service pour Heroku de Salesforce.com
Heroku, filiale de Salesforce.com, vient de lancer sa base de données à la demande qui s'appuie sur le projet Open Source PostgreSQL. « Heroku Postgres a traité avec succès et en toute sécurité 19 milliards de transactions, et 400 millions de transactions supplémentaires sont traitées chaque jour, » a déclaré Heroku dans un blog. « Les clients qui utilisent le service peuvent se concentrer sur leurs tâches de développement d'applications, plutôt qu'à l'administration des bases de données, » a ajouté Heroku. L'option vient enrichir le service Database.com annoncé précédemment par Salesforce.com, qui ouvre l'accès de sa plateforme de développement Force.com à une infrastructure de bases de données.
Acquis par Salesforce.com l'an dernier, Heroku a hérité d'une participation significative dans le web et le développement d'applications pour les consommateurs, avec des objectifs semblables à ceux visés par Force.com dans le domaine des logiciels d'entreprise. Ceux qui choisissent Heroku Postgres seront « protégés de façon permanente » d'une panne de leurs bases de données, précise le message du blog. Le système « crée plusieurs copies, distribuées géographiquement, et prend en compte tous les changements au fur et à mesure de l'écriture des données, » indique encore le blog. « Et si un météorite anéantissait la côte Est, vous ne perdriez pas vos données ! » Heroku Postgres utilise une version standard, non modifiée, de PostgreSQL. « Tout client libpq peut tourner sans problème sur notre service. Et si jamais vous décidiez de revenir à votre propre DBA, c'est possible. Aucun verrouillage ne vous l'empêchera. »
Renforcer l'intérêt et fédérer autour de PostgreSQL
L'annonce pourrait avoir des conséquences positives pour PostgreSQL en général, comme l'a fait remarquer un observateur. « PostgreSQL est une technologie honorable et populaire à juste titre, même si MySQL a réduit l'écart technique, » a déclaré l'analyste Curt Monash de Monash Research. « PostgreSQL a manqué du support d'une communauté, qui apporte cohésion et pragmatisme au projet, ou d'un coach corporate efficace. Peut-être que la mise en place d'un ou plusieurs services cloud pourront combler l'écart. » VMware a également lancé il y a peu de temps un forfait basé sur PostgreSQL pour les déploiements cloud. Et au mois d'août dernier EnterpriseDB avait annoncé une version cloud de sa base de données avec des couches de fonctionnalités supplémentaires écrites en code Open Source PostgreSQL.
La tarification de Heroku Postgres commence à 200 dollars par mois pour 1.7 Go de cache, pour atteindre 6 400 dollars par mois pour 68 Go de cache. Toutes les bases sont livrées avec une capacité de stockage de 2 To, un monitoring 24/24, des instantanés quotidiens et un accès depuis n'importe quel client PostgreSQL. Comparativement, Database.com est gratuit pour un petit nombre d'utilisateurs et de données. Une fois ces limites dépassées, le prix pour les utilisateurs, les données et le nombre de transactions sont établis sur une base évolutive. « Si vous voulez une base de données classique, l'offre de PostgreSQL est plus logique que Database.com, » a déclaré Curt Monash. « Mais si vous êtes intéressé par toute la pile Force.com, alors Database.com s'avère être une bonne option. »
Prêt pour l'entreprise, Hadoop stimule la demande de compétences
Sur la conférence Hadoop World, qui s'est tenue à New York au début de ce mois, les analystes et responsables IT présents ont à plusieurs reprises souligné que l'accès à des compétences spécialisées constituerait l'une des principales difficultés des entreprises souhaitant opter pour Hadoop. Et celles qui disposeront des bonnes compétences bénéficieront d'un sérieux avantage sur les autres.
Parmi les conférenciers présents à New York, les responsables IT de la banque JP Morgan Chase et du groupe d'enchères en ligne eBay, ont profité de l'occasion pour indiquer à leur auditoire qu'ils recrutaient dans ce domaine, ont rapporté nos confrères de Computerworld. Hugh Williams, vice-président, responsable des plateformes chez eBay, a précisé que sa société recherchait des professionnels d'Hadoop et invité ceux qui étaient intéressés à s'adresser à lui. Un peu plus tard, c'est Larry Feinsmith, directeur général pour les opérations IT chez JP Morgan Chase, qui a surenchéri et proposé, en semblant ne plaisanter qu'à moitié, de payer 10% de plus qu'eBay.
« Hadoop, c'est le nouveau datawarehouse, la nouvelle source de données » au sein de l'entreprise, décrit James Kobielus, analyste de Forrester Research. On s'intéresse beaucoup aux personnes qui en savent suffisamment sur les rouages d'Hadoop pour aider les entreprises à en tirer avantage », explique-t-il.
Des compétences en datamining et en modélisation prédictive
Le framework Open Source Hadoop aide à collecter et stocker d'importants volumes de données structurées et non structurées. Les entreprises ont commencé à s'en servir de façon croissante pour analyser les petaoctets de données telles que les connexions web, clics et contenus multimédias, afin d'obtenir davantage d'informations sur leurs activités et leurs clients. Cette adoption entraîne la demande de compétences nécessaires aux analyses avancées, ajoute James Kobielus. Cela inclut les personnes ayant des connaissances en matière d'analyse statistique, de datamining, de modélisation prédictive, de traitement en langage naturel, d'analyse de contenus, de textes et de réseaux sociaux, explique-t-il.
« Les Big Data, dans leur sens large, et Hadoop en particulier, génèrent de la demande pour des gens expérimentés utilisant de nouvelles approches telles que MapReduce et le langage R, pour la modélisation statistique et prédictive », poursuit-il. « Il s'agit de personnes spécialisées dans l'analyse de données ou de scientifiques qui travailleront dans les environnements Hadoop pour pénétrer plus avant dans les données et leur donner un nouveau sens ».
Des administrateurs de clusters Hadoop
L'intérêt suscité par Hadoop est aussi en train de créer une demande pour des professionnels de cette plateforme, ajoute James Kobielus. Leur rôle consistera à mettre en oeuvre des clusters Hadoop, à les sécuriser, les gérer, les optimiser et faire en sorte que le cluster reste disponible pour l'entreprise. Selon l'analyste de Forrester Research, les administrateurs de base de données qui interviennent sur Teradata ou sur l'appliance Exadata d'Oracle sont les mêmes profils qui commencent maintenant à redéfinir leurs rôles comme administrateurs de clusters Hadoop. C'est un nouveau monde qui s'ouvre, estime-t-il en ajoutant qu'on s'attend aussi à voir une demande pour les professions de la gestion de stockage et pour celles permettant d'intégrer les environnements Hadoop avec les technologies existantes de bases de données relationnelles.
(Crédit illustration : D.R.)
[[page]]
Martin Hall, PDG de Karmasphere, fournisseur de logiciels pour les environnements Hadoop, confirme que trois catégories de professionnels sont concernées. Les professionnels de la gestion de données seront ceux qui choisiront, installeront, géreront et feront évoluer et monter en puissance les clusters Hadoop. Ce sont eux qui décideront si l'infrastructure Hadoop doit se situer dans le cloud ou sur site, quels fournisseurs il convient de choisir, quelle distribution d'Hadoop retenir. Ils définiront la taille du cluster et s'il doit être utilisé pour exploiter des applications de production ou à des fins de test qualité. Les compétences requises pour ces fonctions sont similaires à celles que l'on demande pour effectuer les mêmes tâches dans des environnements de SGBDR traditionnels ou de datawarehouses, précise Martin Hall.
Des professionnels pour construire des algorithmes MapReduce
La deuxième catégorie de professionnels sera chargée de créer les processus de traitement des données. Ils construiront les algorithmes MapReduce distribués qui seront utilisés par les personnes qui analyseront ensuite les données. Les ingénieurs possédant des compétences en Java et en C++ auront davantage d'opportunités à mesure que les entreprises commenceront à déployer Hadoop, prévoit le PDG de Karmasphere.
La troisième catégorie de professionnels recherchés seront ceux qui disposent d'expérience sur les logiciels d'analyse statistique (SAS, SPSS), ainsi que dans les langages de programmation comme R. Ce sont eux qui généreront, analyseront, partageront et intégreront les informations rassemblées et stockées dans les environnements Hadoop.
Pour l'instant, le manque de compétences autour d'Hadoop signifie que les entreprises ont besoin d'être aidées par les fournisseurs de services pour déployer cette technologie. L'un des indicateurs de cette situation, pointe l'analyste James Kobielus, de Forrester, c'est que les revenus générés autour d'Hadoop par les professionnels du conseil et de l'intégration de systèmes sont bien plus importants que les revenus provenant des ventes des produits Hadoop. Des sociétés telles que Cloudera, MapR, Hortonworks et IBM proposent aux entreprises des formations pour qu'elles puissent elles-mêmes construire leur propre centre d'excellence Hadoop, indique-t-il.
[[page]]
En effet, même s'il subsiste des inquiétudes sur la sécurité et sur d'autres points, Hadoop est prêt à être utilisé en entreprise si l'on se réfère à l'avis de responsables IT qui sont intervenus sur la conférence Hadoop World, à New-York. Ainsi, depuis trois ans, la banque JPMorgan Chase utilise de façon croissante le framework Open Source de stockage et d'analyse de données, a expliqué Larry Feinsmith, le directeur général des opérations IT pour le groupe. La banque continue à s'appuyer fortement sur les systèmes de bases de données relationnelles pour les traitements transactionnels, mais elle utilise la technologie Hadoop pour un nombre croissant d'applications, parmi lesquelles la détection de fraude et la gestion des risques informatiques. Elle gère près de 150 petaoctets de données stockées en ligne, 30 000 bases de données et 3,5 milliards de connexions à des comptes utilisateurs. La capacité d'Hadoop à stocker d'énormes quantités de données non structurées lui permet de collecter les connexions web, les transactions et les informations recueillies sur les médias sociaux. « Nous conservons des données que nous stockions pas auparavant », a pointé Larry Feinsmith. Celles-ci sont agrégées sur une plateforme commune afin d'être explorées, pour mieux comprendre les clients, avec un ensemble d'outils de datamining et d'analyse.
eBay stocke 9 Po de données sur des clusters Hadoop et Teradata
De son côté, le groupe eBay utilise la technologie Hadoop et Hbase, qui supporte l'analyse en temps réel des données, afin de constituer un moteur de recherche pour son site d'enchères en ligne. Hugh Williams, vice-président, responsable plateformes et recherche chez eBay, a expliqué que ce projet de moteur (nom de code Cassini) va remplacer la technologie dont la société s'est servie depuis le début des années 2000. La mise à jour est notamment nécessaire pour prendre en charge les volumes croissants de données. eBay rassemble plus de 97 millions d'acheteurs et de vendeurs actifs et plus de 200 millions d'articles en vente dans 50 000 catégories. Il gère 2 milliards de pages vues, 250 millions de requêtes et 10 millions d'appels à des bases de données chaque jour, a indiqué Hugh Williams. Le groupe stocke 9 petaoctets de données sur des clusters Hadoop et Teradata, un volume qui grossit vite, a ajouté le responsable plateforme et recherche. Il précise que 100 ingénieurs d'eBay travaillent sur le projet Cassini, ce qui en fait l'un des plus gros efforts de développement de la société.
Le moteur, prévu pour entrer en fonction l'an prochain, devra répondre aux requêtes des utilisateurs en fournissant des résultats contextuels et plus affinés que ceux que propose l'actuel système, promet Hugh Williams.
Larry Feinsmith, de JP Morgan Chase, met en garde les départements informatiques qui seraient intéressés par Hadoop. Ils doivent être vigilants sur les questions de sécurité. Il explique que l'agrégation et le stockage des données provenant de sources multiples peut créer de nombreux problèmes liés au contrôle d'accès et à la gestion des données, tout en faisant remonter des questions liées à la possession des données.
Adobe donne Flex à la Fondation Apache
Dans un mouvement qui l'éloigne un peu plus de sa plateforme Flash, Adobe a soumis le code de son framework Flex à la Fondation Apache afin qu'il soit géré comme un projet indépendant. Le kit de développement (SDK) de Flex comporte un compilateur et un ensemble de bibliothèques. Il avait été mis au point par Adobe pour l'élaboration d'applications Internet riches (RIA) fonctionnant avec le même code, sur Flash, dans un navigateur web et sur un poste de travail, puis sur des terminaux mobiles. En 2008, l'éditeur l'a placé sous licence Open Source.
Même si l'éditeur assure qu'il va continuer à supporter le framework, ainsi que la technologie sous-jacente Flash, il reconnaît aussi qu'à l'avenir les développeurs d'applications web vont plutôt utiliser HTML5 que Flash. « A long terme, nous croyons que HTML5 sera la meilleure technologie pour concevoir des applications d'entreprise », a indiqué la société dans un récent billet de blog. « Nous savons aussi qu'actuellement, Flex apporte des bénéfices sur les projets à grande échelle, typiquement ceux qui comportent une déclinaison sur les postes de travail ».
Apache doit indiquer s'il accepte Flex
La Fondation Apache (Apache Software Fondation, ASF) doit maintenant voter pour dire si elle prend en charge Adobe Flex. Elle n'a pas fait de commentaires sur sa possible décision d'accepter de gérer le développement de la technologie. Toutefois, si elle y consent, il ne devrait pas s'écouler beaucoup de temps avant que Flex ne devienne un projet Apache. En 2010, lorsque Google avait soumis Wave comme projet potentiel, l'ASF avait accepté la technologie dans le mois.
Même si la Fondation accueille Flex, la feuille de route sera gérée par une organisation indépendante opérant sous statuts Apache (http://www.apache.org/foundation/how-it-works.html). Adobe a indiqué par ailleurs qu'il conserverait des ingénieurs dévolus à plein temps au déboggage et au développement du SDK.
En même temps que Flex, Adobe a également soumis d'autres composants associés à l'ASF, notamment BlazeDS, un système de messagerie pour transférer les données entre une application Flex et un serveur Java EE (Java Enterprise Edition), ainsi qu'un compilateur expérimental pour Flash, dénommé Facon, et différents outils de test.
Une tâche trop lourde pour Adobe
Il y a une semaine, Adobe a annoncé qu'il allait cesser de développer Flash pour les nouveaux terminaux mobiles, préférant se concentrer sur des outils HTML5. Ce standard, toujours en développement, fournira de nombreuses fonctions multimédia apportées par Flash et ne nécessitera pas de plug-in séparé. Pour les observateurs, ce retrait de la plateforme mobile Flash constituait une première étape de l'abandon de Flash en faveur d'HTML5. L'analyste Jack Gold, du cabinet J.Gold Associates LLC, a notamment fait remarquer que maintenir Flash à travers un nombre toujours plus important de plateformes constituait pour Adobe une tâche considérable. Au contraire, le standard HTML5, peut fonctionner sur tous les navigateurs mobiles qui le supportent et n'exigera pas d'ajustements spécifiques pour chaque plateforme matérielle sous-jacente.
Illustration : le SDK Flex (crédit : Adobe)
L'Etat lance un appel d'offres sur la maintenance des logiciels libres
La Direction des Systèmes d'Information et de Communication du Ministère de l'Intérieur, de l'Outre-Mer, des Collectivités Territoriales et de l'Immigration vient de publier un appel d'offres visant à trouver un prestataire assurant la maintenance des logiciels libres employés par l'Etat. Le marché public sera un accord cadre dont le montant estimé est de deux millions d'euros sur trois ans, ce montant étant sans engagement. Une prolongation d'un an est envisagée.
Les réponses devront parvenir au service acheteur avant le 9 janvier 2012. Il n'y aura qu'un seul allocataire au marché, éventuellement un groupement solidaire ou un groupement conjoint. La notification est prévue pour le 30 mars 2012.
Une dizaine de domaines sont à couvrir :
1 - Systèmes d'Exploitation et logiciels de base associés : Debian et CentOS, outil de virtualisation tel que KVM
2 - Serveurs de présentation et d'application : Apache, Tomcat, JonAS, CMS
3 - Langages et les frameworks de développement : JAVA, PHP, XML, Perl, Eclipse, Struts
4 - SGBD : PostgreSQL, MySQL
5 - Bureautique : OpenOffice
6 - Outils réseaux et supervision et exploitation : Ethereal, Jmeter, Nagios
7 - Outils de sécurité : Tripwire, OpenSSL
8 - Services d'annuaire et de messagerie : OpenLDAP, Sendmail
9 - Portails et gestion documentaire, knowledge management : Nuxeo, Ezpublish, Alfresco
10 - Indexation et recherche : Lucene, Zettair
La quasi-totalité des administrations centrales est concernée :
- les services du Premier Ministre ;
- la Cour des Comptes ;
- le Ministère des Affaires étrangères et européennes ;
- le Ministère de la Défense et des Anciens Combattants ;
- le Ministère de l'Ecologie, du développement durable, des transports et du logement ;
- le Ministère de la Justice et des Libertés ;
- le Ministère de l'Intérieur, de l'Outre-mer, des Collectivités territoriales et de l'Immigration ;
- le Ministère du Travail, de l'Emploi et de la Santé (secteur Santé) ;
- le Ministère du Travail, de l'Emploi et de la Santé (secteur Travail) ;
- le Ministère de l'Education nationale, de la Jeunesse et de la Vie Associative (secteur Education Nationale);
- le Ministère de l'Education nationale, de la Jeunesse et de la Vie Associative ( secteur Jeunesse et vie Associative) ;
- le Ministère de l'Agriculture, de l'alimentation, de la pêche, de la ruralité et de l'aménagement du territoire ;
- le Ministère de la Culture et de la Communication ;
- le Ministère des Solidarités et de la Cohésion sociale
- le Ministère de l'Enseignement Supérieur et de la Recherche ;
- le Ministère de la Ville ;
- le Ministère des Sports.
Hadoop World 2011 : la sécurité et le contrôle d'accès aux données agrégées en question
Cette semaine, lors de la conférence Hadoop World (du 8 au 9novembre à NY), analystes et responsables informatiques ont appelé les dirigeants des entreprises de technologie à se montrer vigilants avant d'utiliser Hadoop pour agréger des données provenant de multiples sources disparates, les mettant en garde contre des problèmes potentiels de sécurité. Le framework Java Open Source Hadoop permet aux entreprises de collecter, d'agréger, de partager et d'analyser d'énormes volumes de données structurées et non structurées, des données stockées par l'entreprise, ou provenant de blogs, de transactions en ligne ou encore résultant des échanges au sein de médias sociaux.
De plus en plus d'entreprises utilisent Hadoop et des technologies connexes comme Hive, Pig et Hbase pour traiter leurs données. En partie parce qu'elles ne peuvent pas le faire facilement et à coût raisonnable avec les bases de données relationnelles traditionnelles. JPMorgan Chase, par exemple, utilise Hadoop pour améliorer la détection des fraudes, pour gérer certains risques informatiques et les applications en self-service. Le groupe financier l'utilise également pour avoir un point de vue beaucoup plus global sur sa clientèle, comparé à ses outils précédents, comme l'ont déclaré ses dirigeants. Ebay a aussi utilisé la technologie Hadoop et la base de données Open Source Hbase pour élaborer un nouveau moteur de recherche pour son site de vente aux enchères.
Attention aux problèmes de sécurité
Les analystes estiment que les services informatiques qui utilisent le framework Hadoop pour ce type d'applications doivent être conscients des problèmes de sécurité potentiels qu'elle pose. « L'utilisation de la technologie Hadoop pour agréger et stocker des données provenant de sources multiples peut générer une série de problèmes liés au contrôle d'accès et à la gestion, mais aussi au droit et à la propriété des données, » a déclaré Larry Feinsmith, directeur général des opérations IT chez JPMorgan Chase. « Dans les environnements Hadoop, on peut trouver des données de niveau et de sensibilité différentes, en matière de classification et de sécurité, » a renchéri Richard Clayton, ingénieur informatique chez Berico Technologies, un fournisseur de services informatiques pour les agences fédérales.
« Le défi pour les entreprises est de s'assurer qu'elles ont mis en place des contrôles de sécurité adaptés, qui maintiennent le niveau d'accès aux données, » a-t-il ajouté. « L'agrégation des données dans un environnement unique augmente également le risque de vol ou d'une divulgation accidentelle, » a déclaré Richard Clayton. Surtout, l'analyse des données agrégées dans un environnement Hadoop par des applications peut se traduire par la création de nouveaux documents qui ont peut-être aussi besoin d'être protégés. « De nombreuses organisations gouvernementales stockent leurs données Hadoop dans des «enclaves» distinctes, afin d'avoir l'assurance qu'elles ne seront accessibles qu'à ceux qui en ont l'autorisation, » a ajouté l'ingénieur de Berico Technologies. « La plupart des agences ne mettent pas leurs données sensibles dans des bases de données Hadoop, en raison de problèmes d'accès aux données, » a encore ajouté l'ingénieur. « Plusieurs agences ont tout simplement mis en place des pare-feu pour protéger leurs environnements Hadoop, » a-t-il expliqué.
[[page]]
« Pour de nombreux utilisateurs de Hadoop, l'approche la plus efficace en matière de sécurité consiste à crypter les données au premier niveau, quand celles-ci transitent ou sont stockées dans un environnement Hadoop, » a encore déclaré l'ingénieur. D'une manière générale, celui-ci conseille aux entreprises d'être prudentes quand elles utilisent ces technologies. Il fait remarquer que, utilisées seules, certaines fonctionnalités de sécurité du système de fichiers distribués intégré de Hadoop - Hadoop Distributed File System (HDFS) - comme les listes de contrôle d'accès (Access Control Lists) et les Kerberos ne sont pas adaptées à un usage en entreprise.
Selon David Menninger, analyste chez Ventana Research, « les problèmes de la sécurité et de contrôle d'accès justifient le fait qu'Hadoop n'est pas prêt à remplacer les bases de données relationnelles dans l'entreprise. » Pour Sid Probstein, directeur des technologies chez Attivio, qui vend des technologies de gestion d'accès unifié dans les environnements Big Data, « Hadoop est une technologie formidable, mais il lui manque certains éléments pour être utilisé en entreprise. »
(...)(08/11/2011 12:20:02)NSS Labs fournit un outil contesté de détection de Duqu
Le scan mis au point par NSS Labs utilise des techniques de reconnaissance de structure avancées et a été créé spécialement pour pister Duqu, ce bout de code de malware qui mobilise l'attention de l'industrie de la sécurité toute entière depuis quelques semaines. Beaucoup d'experts pensent que Duqu est étroitement lié au ver Stuxnet, découvert l'an dernier, qui avait montré ses capacités en matière de sabotage industriel. Les techniques d'attaque utilisées par Duqu et même le code, présentent des similarités avec le ver, qualifié comme le malware le plus sophistiqué de tous les temps.
Jusqu'ici, la communauté de chercheurs en sécurité a établi que Duqu infectait les systèmes en exploitant une vulnérabilité non corrigée dans le noyau Windows via des documents Word, que celui-ci avait une architecture modulaire comportant un « outil de dissimulation d'activité » ou « rootkit » se comportant comme un pilote de système, et qu'il ciblait certaines organisations dans le but d'exfiltrer des informations sensibles. « Nous espérons que cet outil va nous permettre de découvrir des vecteurs supplémentaires de Duqu, d'en savoir davantage sur la manière dont ils fonctionnent, sur leurs capacités, et de connaître la vraie raison d'être du malware, » ont déclaré les ingénieurs du NSS Labs à l'origine du scanner Open Source dans un blog. Le laboratoire affirme que l'outil est capable de détecter les vecteurs de Duqu sans faux positifs et qu'il a même capté deux échantillons de code juste après sa mise en service.
Un outil peu efficace selon les éditeurs de solutions de sécurité
Costin Raiu, directeur de l'équipe de recherche et d'analyse chez Kaspersky Lab, a émis certaines réserves quant à la portée de l'outil de NSS Labs. « Il est utile, mais ses règles heuristiques sont trop réduites, » a-t-il estimé. Selon lui, tout outil heuristique capable de détecter les vecteurs de Duqu devrait également être en mesure de détecter le ver Stuxnet, en raison de la grande similitude entre les deux. Or cela ne semble pas être le cas avec le scanner de NSS Labs. « La menace est complexe, c'est pourquoi Kaspersky Lab ne propose pour l'instant aucun outil pour détruire spécifiquement Duqu, » a encore déclaré Costin Raiu. « D'autant qu'un simple outil de suppression ne serait tout simplement pas suffisant. Chaque cas d'infection doit être traité très sérieusement, et nous recommandons aux victimes de nous contacter immédiatement pour effectuer une analyse criminelle approfondie, » a-t-il ajouté. Selon l'expert en sécurité, « l'analyse des autres traces laissées par Duqu sur les systèmes infectés, en dehors des pilotes malveillants, est tout aussi importante, car elle peut fournir des renseignements sur l'objectif final des attaquants. »
Par ailleurs, Costin Raiu ne croit pas que la nature Open Source de l'outil de NSS Labs va permettre aux créateurs de Duqu d'échapper plus facilement à la détection. « Il est évident que les auteurs de Duqu et de Stuxnet ont, de toute façon, fait en sorte que leurs logiciels malveillants ne soient pas détectés au moment de l'attaque. Ils ont donc déjà contourné les détections, » a t-il fait valoir. « Open Source ou pas, ce ne sera pas un problème pour eux de recréer de nouveaux composants non détectables, » a ajouté le responsable de Kaspersky Lab. Son opinion est partagée par Mikko Hypponen, directeur de recherche chez F-Secure. « Les créateurs de Duqu sont très forts. Ils n'auraient aucune difficulté à échapper à la détection de n'importe quel scanner, si ils le veulent, » a t-il dit.
NSS Labs propose non seulement son scanner gratuitement, mais aussi la rétro-ingénierie complète du code de Duqu et d'autres ressources. Néanmoins, le code ne sera disponible que pour les chercheurs qui prennent contact avec l'entreprise et satisfont à leur procédure d'admission.
Six bonnes raisons d'essayer Fedora 16
Parmi les différentes distributions Linux, Fedora, la version communautaire de Red Hat Enterprise Linux, figure parmi les plus populaires, rappellent nos confrères de pcworld.com dans un de leurs blogs. Dans le classement du site spécialisé DistroWatch, qui propose un Top 100 des distributions (classées en fonction des clics enregistrés quotidiennement par chacune), Fedora figure à la troisième place sur les six derniers mois. Elle arrive derrière Mint et Ubuntu, devant Debian et openSUSE.
Il y a quelques jours, le projet auquel s'adosse cette distribution a annoncé que Fedora 16, également connue sous le nom de « Verne », avait officiellement été déclarée « Gold » et qu'elle serait livrée le mardi 8 novembre. PCworld USA note que ses fonctionnalités la rendent intéressante pour une utilisation en entreprise. Il distingue six bonnes raisons de la tester.
1 - Un choix de bureaux
Le projet Fedora a renoncé à mettre en oeuvre l'interface Unity d'Ubuntu, controversée. En revanche, on trouve dans Fedora 16, à la fois Gnome 3.2 et KDE Plasma Workspace 4.7 -qui comprend les espaces de travail Desktop et Netbook, les applications et la plateforme KDE. Il est vrai que Gnome 3 a lui aussi été controversé, mais il ne s'agit là que d'une option. Ses utilisateurs y trouveront un nouvel outil qui leur permet de passer de façon transparente d'une organisation de clavier à l'autre.
2 - Plus rapide et plus puissant
Suite à la mise en place, dans Fedora 15, du programme de gestion de services Systemd, l'équipe projet a amélioré l'intégration de ce dernier via des services Systemd natifs dans de nombreux composants logiciels. Cela se traduit par des temps de démarrage plus rapide et par des capacités d'administration plus puissantes.
3 - Sécurité renforcée
Fedora est peut-être l'une des distributions Linux les plus sécurisées grâce à l'insertion de Security-Enhanced Linux (SELinux) qui met en oeuvre divers dispositifs parmi lesquels des contrôles d'accès obligatoires. Des fonctions renforcées dans la version 16, avec les améliorations apportées à SELinux.
4 - Capacités cloud supplémentaires
Fedora 16 intègre HekaFS, une version prête pour le cloud de GlusterFS, ainsi qu'OpenStack et Pacemaker-cloud. On y trouve aussi Condor Cloud, une mise en oeuvre IaaS utilisant Condor et l'API Deltacloud, ainsi qu'Aeolus Conductor, une interface web et des outils pour créer et gérer des instances de cloud dans ces environnements.
5 - Un meilleur support de la virtualisation
La mise à jour de Fedora inclut un support étendu des réseaux virtuels et une mise à jour de Spice, conçue pour gérer des machines virtuelles, ainsi que le support de Xen et une meilleure capacité à scruter les systèmes de fichiers invités.
6 - Outils de développement
Pour les développeurs, Fedora 16 comprend des outils pour les environnements Ada et Perl, de même qu'un nouveau plug-in Python pour GCC et des API supplémentaires ou améliorées.
Un ensemble de fonctionnalités qui vient se placer au-dessus de Linux, et peut se compléter de logiciels tels que LibreOffice, Firefox et GIMP. Toujours intéressant à tester.
Crédit illustration : D.R.
< Les 10 documents précédents | Les 10 documents suivants > |