Flux RSS

Infrastructure serveur

Si vous souhaitez recevoir toute l'information "Mot Clé" de notre feed RSS,Inscrivez-vous

2924 documents trouvés, affichage des résultats 81 à 90.

< Les 10 documents précédentsLes 10 documents suivants >


(25/01/2012 10:50:20)

Annuels VMware : bénéfices en hausse de 102% en 2011

VMware boucle son année fiscale 2011 sur des chiffres en large croissance. Ainsi, son chiffre d'affaires s'établit à 3,77 milliards de dollars en hausse de 31,8% par rapport à 2010. Les bénéfices enregistrent également une large augmentation pour atteindre 724 millions de dollars, contre 357 millions de dollars en 2010, soit une hausse de 102% en un an. Cette croissance est due tant aux ventes de licences (1,84 milliard de dollars soit 31,3% d'augmentation) qu'aux services (qui incluent la maintenance des logiciels et les services aux professionnels) qui s'élèvent à 1,93 milliard de dollars en hausse de 32,3%.

Les Etats-Unis, qui représentent 48% de l'activité de l'entreprise, ont connu une croissance de 26% quand le reste du monde enregistre 38% de croissance pour s'établir à 1,94 milliards de dollars.

Pour son année fiscale 2012, VMware s'attend à une hausse de son chiffre d'affaires comprise entre 19% et 22% par rapport à 2011. Le chiffre d'affaires devrait s'établir entre 4,475 et 4,6 milliards de dollars. Les revenus provenant des ventes de licences devraient quant à eux connaître une croissance comprise entre 11 et 16%.

ICTjournal.ch (...)

(25/01/2012 10:08:37)

Apple premier client mondial de semi-conducteurs

Le top 10 des constructeurs informatiques ou électroniques représente un marché de 105,6 milliards de dollars en 2011 pour le marché des semi-conducteurs. Les principaux moteurs de croissance ont été les smartphones, les tablettes et les disques SSD selon le Gartner. En 2010, le cabinet citait aussi les TV LCD et les ordinateurs portables, aujourd'hui rayés de la liste.

Les entreprises qui ont gagné des parts dans le marché des smartphones, comme Apple, Samsung Electronics et HTC, ont accru leur demande de semi-conducteurs, tandis que ceux qui ont perdu des parts de marché dans ce segment, comme Nokia et LG Electronics, ont diminué leur demande de semi-conducteurs, explique Masatsune Yamaji, auteur de l'étude.

34,6% de croissance pour Apple

Apple a conquis la première place, grâce à ses performances dans les smartphones et les tablettes. Même dans les ordinateurs personnels, avec le succès du MacBook Air, Apple augmente sa demande en semi-conducteurs.  La firme est passée de 12,8 à 17,2 milliards de dollars, en croissance de 34,6%. Son suivant, Samsung, passe plus modestement de 15,3 à 16,7 milliards de dollars, en hausse de 9,2%. HP est le grand perdant, avec 16,6 milliards contre 17,6, en baisse de 5,5%.

Dell devient 4ème à la place de Nokia, ils échangent leurs places. Les deux perdent de l'activité, Dell baisse de 6,7% à 9,8 milliards de dollars en 2011, Nokia perd 20,1% avec 9 milliards de dollars. Le sixième, Sony, est également en baisse, de 9%, avec 8,2 milliards de dollars en 2011. Toshiba affiche 2,3% de baisse à 7,6 milliards, il est septième.

Lenovo affiche la plus forte hausse, +23,7%, avec 7,5 milliards de dollars et devient huitième. LG perd 1,4% à 6,6 milliards de dollars, c'est le neuvième, Panasonic ferme la march, avec 6,3 milliards en baisse de 6,5%.

(...)

(23/01/2012 15:53:25)

Piston Computing sort son OS cloud OpenStack

Sous le nom de Piston Enterprise OS, ou « PentOS », la start-up Piston Cloud Computing, créée l'an dernier à San Francisco, vient de livrer le premier système d'exploitation pour cloud privé basé sur le framework IaaS (infrastructure as a service) Open Source OpenStack. Ce dernier a été originellement conçu par un groupe de chercheurs de la NASA parmi lesquels se trouvait Josh McKenty, le fondateur de Piston Cloud Computing.

Avec PentOS, Josh McKenty veut apporter aux clients un cloud privé qu'ils pourront vraiment utiliser. L'objectif est d'offrir aux responsables IT chargés de superviser le réseau une option alternative apportant sécurité, fiabilité et facilité d'utilisation. PentOS peut s'installer en moins de dix minutes, indique la start-up dans son communiqué de lancement. Il dispose de mises à jour de sécurité par abonnement et d'un support de niveau entreprise 24 x 7. Il repose sur une distribution Linux personnalisée. Son prix démarre à 3 500 dollars par serveur.

L'architecture « Null-Tier » développée par Piston Cloud Computing combine le stockage, le traitement et le réseau sur chaque noeud pour offrir une capacité d'évolution avec, estime la start-up « une efficacité sans précédent ». PentOS est par ailleurs la première mise en oeuvre de CloudAudit, un standard de sécurité pour le cloud et les environnements virtualisés. Le système d'exploitation est indépendant de l'environnement matériel. Son éditeur rappelle qu'OpenStack est le projet Open Source qui croît le plus vite avec plus de 2 320 contributeurs et 147 entreprises qui y participent, parmi lesquelles Rackspace, la NASA, Citrix, Intel, Cisco, AT&T, Arista Networks, Microsoft et Dell. Lui-même entend jouer un rôle clé en favorisant son développement.

Une offre qui trouve son origine dans Nebula

L'origine de la société en dit beaucoup sur ce qu'elle compte faire avec son OS, mettent en avant nos confrères de Network World. Ce qui a motivé le développement de PentOS trouve son origine dans le travail accompli par Josh McKenty avec la plateforme Nebula Cloud Computing de la NASA. C'est dans ce cadre qu'il a oeuvré comme architecte technique sur les composants originels d'OpenStack. Après avoir hésité à prendre ce poste à la NASA -eu égard à son esprit d'entreprise et aux limites connues des budgets fédéraux- il a rejoint un groupe de chercheurs qui a été capable d'apporter une innovation d'avant-garde dans un cadre improbable. Il considère que son équipe fonctionnait alors de façon assez surprenante comme une start-up au sein de cette structure fédérale, à un moment où c'était possible. « Il y avait beaucoup d'optimisme sur le rôle que le gouvernement pouvait jouer dans l'innovation technologique ».

L'équipe de Piston Cloud Computing
L'équipe de Piston Cloud Computing (sur le fauteuil, le fondateur Josh McKenty) - Crédit photo : Piston. Cliquer ici pour agrandir l'image.
[[page]]
Mais cela ne pouvait guère aller au-delà. Sous l'égide fédérale, les budgets étaient fixés longtemps à l'avance et il y avait peu de flexibilité. « Je ne croyais pas qu'OpenStack offrirait la chance de réinventer. Je voulais faire quelque chose que chacun pouvait utiliser. Le plus grand défi que j'ai eu sur Nebula à la Nasa a été qu'une fois que nous l'avons annoncé et commencé à l'utiliser, nous avons eu des demandes de chaque agence fédérale, de gouvernements étrangers, ainsi que d'états et d'agences locales et nous n'étions pas autorisés, nous n'avions pas de mandat pour leur fournir un service. Ils voulaient tous ce cloud. Ils voulaient tous ce qui est devenu OpenStack. »

Selon Josh McKenty, cette demande serait la même, si ce n'est plus élevée, sur d'autres marchés. Donc quand Rackspace a acquis l'équipe de chercheurs de Nebula, il a dû faire un choix : continuer à travailler sur une infrastructure sur laquelle de nombreuses sociétés pourraient un jour poser leurs fondations. Ou bien bifurquer et fournir des produits qui aideraient ces sociétés à le faire. Il a opté pour la deuxième option, tenté par les opportunités et le potentiel qu'il y discernait.

« J'ai vraiment apprécié l'équipe de Rackspace », a confié Josh McKenty. « Ils ont fait un beau travail en bâtissant une communauté autour de ce projet. Mais il ne s'agit pas d'un fournisseur de produits. Ce n'est pas dans leur ADN et je pensais vraiment qu'il y avait des choses importantes qui devaient être faites avec OpenStack qui ne pouvaient pas avoir lieu en dehors d'une start-up. C'est ce qui a conduit au lancement de Piston Cloud. »

La clé du succès résidera dans le niveau de support fourni

Il reste à voir si la réalité du marché du cloud privé rejoindra les attentes de Josh McKenty pour PentOS. Pour Jay Lyman, analyste senior couvrant les logiciels d'entreprise pour le cabinet 451 Research, il y a une demande pour des outils alternatifs de gestion des clouds privés et des outils IaaS sont apparus pour y répondre. Il y a selon lui de l'intérêt pour des options comme OpenStack.

La clé du succès pour PentOS résidera dans le niveau de support que l'éditeur fournira pour son logiciel Open Source. « Cela correspond à ce que les entreprises ont l'air de vouloir, diversité, variété de choix, avec un fournisseur crédible et un support technique de haut niveau tel que le requièrent les entreprises », poursuit Jay Lyman. « Je pense que PentOS correspond assez bien à ce type de demande qui se présente, disons, comme le meilleur de deux mondes ».

(...)

(20/01/2012 12:49:53)

Annuels IBM : Des bons résultats 2011, mais timides en fin d'année

IBM a publié les résultats financiers du 4ème trimestre et de son exercice 2011. Pour le trimestre clôt le 31 décembre,  la firme affiche un chiffre d'affaires de 29,5 milliards de dollars, en hausse de 2% par rapport au même trimestre de l'exercice précédent. Le bénéfice net a atteint 5,5 milliards de dollars, en augmentation de 4%. Les analystes s'attendaient à un CA de 29,7 milliards de dollars et un bénéfice net de 5,6 milliards de dollars.

Sur l'ensemble de l'année 2011, IBM a enregistré un chiffre d'affaires de 106,9 milliards de dollars, +7% par rapport à l'exercice 2010. Le bénéfice net a progressé de 7% également à 15,9 milliards de dollars. Le bénéfice par action gagne 13% à 13,06 $. « 2011 a été une très bonne année pour nous » explique Mark Loughridge, directeur financier d'IBM et d'ajouter « nos orientations stratégiques et nos investissements dans l'innovation ont permis de développer de nouveaux marchés et de renforcer nos positions sur des tendances comme l'analytique et le cloud ».

Les pays émergents continuent de participer à la croissance pour l'entreprise. Collectivement, les revenus du Brésil, Russie, Inde et de la Chine ont augmenté de 10 % en 2011. La zone américaine a connu une croissance de 3% des revenus pour le 4ème trimestre, tandis que la zone Asie-Pacifique a progressé de 2%, souligne le groupe.  Avec ces résultats, la société a confirmé ses prévisions pour atteindre un bénéfice par action de 20 $ en 2015. Pour 2012, IBM prévoit d'augmenter son bénéfice par action de 10,5% à au moins 14,85 dollars.

Des résultats portés par les services et les logiciels, faiblesse pour le hardware

Christophe Ambrose, vice-président de Gartner Research, explique « Les résultats semestriels montrent encore une fois la croissance des activités logiciels et services d'IBM ». La division Global Technology Services a vu ses revenus croître de 3% à 10,5 milliards de dollars, tout comme la division Global Business Services à 4,9 milliards de dollars. Le CA de l'activité Software est en hausse de 9% à 7,6 milliards. Sur cette partie, on constate que certains produits ont bien marché comme les solutions WebSphere qui ont vu leurs revenus grimper de 21%, 14% pour les logiciels Tivoli et 9% pour l'Information Management. Par contre, les recettes issues de Lotus ont perdu 2%.  
L'analyste de Gartner constate qu'« un certain nombre d'initiatives sur lesquelles IBM a investi au cours des dernières années commencent à générer des revenus, notamment les logiciels et services d'e-commerce de la gamme Smarter Commerce, mais aussi les solutions décisionnelles ». Le CA de Smarter Commerce a progressé de 25% et celui de la BI de 16%.

Un autre axe de croissance est le cloud computing. Dans ce domaine, les revenus ont plus que triplé depuis 2010, a déclaré Mark Loughridge. Christophe Ambrose tempère les propos du dirigeant en s'interrogeant « sur la définition du périmètre du cloud par IBM, s'agit-il des services clouds, de l'aide aux entreprises pour construire les infrastructures clouds ? ».

Pour les autres divisions, on notera que les revenus de Systèmes et Technologie ont baissé de 8% à 5,8 milliards de dollars. Cette chute provient des ventes exceptionnelles du zEnterprise 196 sur l'exercice 2010, qui a stimulé les revenus au quatrième trimestre de 2010, précise Mark Loughridge. Sur un an, le CA des System Z a diminué de 31 %. En revanche, les ventes de System Power ont augmenté de 6%.

(...)

(19/01/2012 17:20:04)

DynamoDB, une base de données NoSQL sur Amazon Web Services

Amazon Web Services a lancé hier, sous le nom de DynamoDB, un service de base de données NoSQL qui procure à ses utilisateurs une performance prévisible sur des capacités évoluant de façon transparente. Ce service, en version bêta, conviendra aux acteurs du web qui récupèrent, stockent et traitent un volume croissant de données. L'hébergeur explique qu'avant la mise à disposition d'une base évolutive de ce type, les utilisateurs d'AWS pouvaient passer beaucoup de temps à préparer leurs bases  pour qu'elles tiennent le choc dans les périodes d'intense utilisation. En effet, les SGBD traditionnels ne sont pas conçus pour se dimensionner aussi rapidement.

« L'ajustement et la gestion des bases de données a toujours été le talon d'Achille des applications web », rappelle Werner Vogels, directeur technique d'AWS. Pour monter en puissance, les entreprises avaient le choix entre acquérir un matériel plus important ou répartir les bases de données entre les serveurs, explique-t-il. « Ces deux approches étaient de plus en plus compliquées et coûteuses », poursuit-il. « De surcroît, il y a une pénurie de profils techniques ayant les compétences spécialisées pour le faire ».

Le service Amazon DynamoDB stocke les données sur des disques SSD et les réplique sur différentes zones de disponibilité du service. Amazon Web Services l'a conçu en s'appuyant sur son expérience de la construction de grandes bases de données non relationnelles pour Amazon.com. Le site de vente en ligne l'utilise en interne  sur sa plateforme publicitaire, ainsi que sur Amazon Cloud Drive (son service de stockage de musique en ligne), IMDb (Internet Movie Database, sabase de données sur le cinéma) et pour son offre Kindle. D'autres sociétés, comme Elsevier, SmugMug et Formspring, y ont également recours.

Une architecture redondante et massivement élastique, souligne Ysance

Les tarifs de DynamoDB sont pour l'instant donnés pour l'Amérique du Nord.  Le service démarre avec un niveau d'accès gratuit offrant jusqu'à 100 Mo de stockage et une capacité en lecture/écriture de 5 écritures et 10 lectures par seconde. Les tarifs d'exploitation sont calculés en fonction d'un forfait horaire basé sur le débit réservé, sur la capacité de données stockées et sur le volume de données transféré. Quand un utilisateur crée sa table DynamoDB, il spécifie quelle capacité il veut réserver en lecture/écriture. Si le débit dépasse la capacité réservée, il peut être limité. Néanmoins, la console de gestion fournie par AWS permet facilement de procéder à des modifications, en fonction des changements de trafic anticipés, explique AWS sur son site.

Partenaire d'AWS en France, l'intégrateur Ysance pointe une avancée sur le plan technique. « Amazon DynamoDB offre à la fois une base de données de type Clé/Valeurs très performante, une architecture redondante, massivement élastique et une intégration native avec l'analytique » dans le cadre d'une offre simple et packagée, commente dans un communiqué Olivier Léal, co-directeur de la division Intégration de la société. Il considère aussi qu'AWS crée un nouveau modèle en proposant désormais un niveau de performance fonctionnelle et non plus une capacité de traitement. Avec ce service, c'est AWS qui « dimensionne l'infrastructure en fonction des besoins du client et non l'inverse », souligne Olivier Léal. (...)

(18/01/2012 16:41:47)

Avec System Center 2012, Microsoft arrive sur le cloud privé

Microsoft a annoncé le lancement de System Center 2012 en version Release Candidate. Une préversion avait été mise à disposition des entreprises qui gèrent plus de 100 000 machines virtuelles souligne Satya Nadella, président de la division Server and Tools Business. Au mois de mars dernier, une version bêta avait donné plusieurs indications sur les orientations de cette solution. En utilisant System Center, une entreprise peut gérer son cloud privé ainsi que les applications et les services qu'elle a dans les clouds publics (Azure ou Amazon). Cette approche hybride est de plus en plus fréquemment utilisée.

System Center 2012 combine huit modules (App Controller, Configuration Manager, Data Protection Manager, Endpoint Protection, Operations Manager, Orchestrator, Service Manager, Virtual Machine Manager) dans un seul produit et répond ainsi à une plainte souvent formulée par les clients sur le paiement des licences. « Nous avons entendu que la gestion des licences est complexe » a déclaré Brad Anderson, vice-président de la division Management et Sécurité de Microsotft. Il n'existera que deux versions, Standard et Datacenter de System Center 2012. De plus, La firme de Redmond base sa licence sur un modèle légèrement différent de celui de ses concurrents. Les clients paient System Center 2012 en se basant sur les serveurs, plutôt que sur les machines virtuelles. Pour Brad Anderson « cela va réduire les coûts des utilisateurs qui font fonctionner plusieurs machines virtuelles par serveurs ». A noter que la solution de Microsoft supporte maintenant XenServer de Citrix.

Multi-équipement et multi-hyperviseur

Lors de la conférence vidéo de présentation du produit, Microsoft a mise en avant quelques entreprises qui utilisent déjà System Center, comme Luftansa, T. Rowe Price et Unilver. Elles ont témoigné que System Center 2012 leur avait permis de faire évoluer rapidement leurs infrastructures et d'automatiser la gestion de leurs systèmes. Pour Microsoft, sa solution s'adresse aux administrateurs des entreprises qui gèrent plus de 30 serveurs. Sur le plan des fonctionnalités, les administrateurs pourront gérer des périphériques ne fonctionnant pas dans un environnement Microsoft, y compris les smartphones. Brad Anderson explique que «  auparavant les terminaux étaient au coeur du processus de gestion, System Center 2012 place l'utilisateur au milieu [de ce processus] » et d'ajouter « cela signifie qu'un administrateur peut définir des politiques pour un salarié quel que soit le terminal utilisé (smartphone ou tablettes), sous Android ou iOS ».

La release candidate de System Center 2012 est disponible immédiatement. S'il n'y a pas d'erreurs de dernière minute, la prochaine étape sera la version finale du produit. En matière de prix, la version Standard commence à 1323 dollars par serveur et 3607 dollars par serveur pour l'édition Datacenter.

(...)

(18/01/2012 11:00:16)

Canal+ confie l'infogérance de son mainframe à Volvo IT

Présent sur les cinq continents, Canal+ est un groupe qui est éditeur de contenus au travers de sa chaîne de télévision historique, des chaînes du bouquet, des offres non-linéaires (VOD...), etc. Il a également des activités de distribution audiovisuelle, y compris de films de cinéma avec Studio Canal. Son activité de distribution grand public (abonnements aux chaînes) est actuellement gérée par un mainframe. Canal+ désirait accroître sa qualité de service et baisser ses coûts. A cette fin, l'entreprise lance un appel d'offres afin d'externaliser l'hébergement, l'exploitation et la maintenance de son mainframe.

En décembre 2010, Canal+ a choisi Volvo IT. Cette société, filiale des automobiles Volvo, gère avant tout l'informatique de sa maison mère et ses autres filiales mais vise également à mutualiser ses moyens, comme son parc mainframe, avec d'autres entreprises non-concurrentes. La culture de service en milieu industriel a été un critère essentiel du choix de ce prestataire. La bascule vers l'infogérance est effective en juin 2011 et est éprouvée dès l'automne suivant, période traditionnelle de forts volumes d'abonnements. Canal+ a été satisfait des niveaux de service atteints. Le contrat d'infogérance a été conclu pour trois ans minimum pour un coût non communiqué. (...)

(18/01/2012 10:07:49)

Les centres de calcul scandinaves sont les plus efficients en Europe

Lors de la première édition de de l'Oracle Next Generation Data Centre Index publiée l'an dernier, la Suisse et l'Allemagne, étudiées conjointement, arrivaient au premier rang. Cette année ce sont les pays scandinaves qui décrochent la première place avec un indice de 6,51. La Suisse et l'Allemagne augmente leur indice par rapport à l'an dernier pour atteindre 6,21. Suivent ensuite les pays du Benelux, la Grande-Bretagne, la France, les pays du Moyen-Orient et la péninsule ibérique et l'Italie. L'Irlande et la Russie finissent dernier.

Pour cette étude réactualisée (voir la note 2012 de l'éditeur), ont été interrogés 949 responsables informatiques travaillant dans des entreprises dont le chiffre d'affaires est compris entre 100 millions et un milliard de dollars dans dix pays de la région EMEA. Elle  a été menée par la société Quocirca pour le compte d'Oracle.

Au niveau global, il ressort de cette étude que de nombreuses grandes entreprises ont été  surprises par l'explosion du volume de données (les « Big Data ») due à l'augmentation des interactions entre les consommateurs et les marques, les terminaux mobiles, la forte augmentation des communications entre machines ou la multiplication des informations manipulées par les processus opérationnels internes des entreprises. Pour Luigi Freguia, Senior Vice President d'Oracle, cette question va toutefois devenir un enjeu majeur pour les entreprises : « La maîtrise des Big Data va devenir le défi informatique numéro un pour les entreprises au cours des deux prochaines années. A la fin de cette période, soit elles auront su faire face, soit elles seront en total décalage par rapport à leur propre activité - sans parler des risques et des opportunités que représentent les Big Data. »

Parmi les autres résultats, on peut encore noter :


ICTJournal.ch (...)

(17/01/2012 13:11:33)

La traduction automatique a 58 ans, une initiative IBM/Georgetown University

Difficile à imaginer, mais il y a 58 ans, IBM et l'Université de Georgetown s'associaient pour créer le premier programme informatique capable de traduire du Russe vers l'Anglais. Peut-être plus surprenant encore, en 1954, les expressions inscrites sur les cartes perforées et traitées par la grosse machine IBM 701 peuvent maintenant être tapées dans Google Translate sur un smartphone et traduites en à peine 10 secondes.

Certes, à l'époque, le programme d'IBM avait été qualifié d'avancée majeure. Le communiqué de presse publié le 7 janvier 1954 par IBM pour annoncer l'événement disait : « Une jeune femme qui ne comprend pas un mot de la langue des Soviets a poinçonné des messages en Russe sur des cartes perforées IBM. La machine IBM 701, surnommée « le cerveau», a livré ses traductions en anglais sur une imprimante automatique à la vitesse vertigineuse de deux lignes et demie par seconde. La jeune femme a inscrit « Mi pyeryedayem mislyi posryedstvom ryechyi. » Et « le cerveau » lui a répondu « La parole sert à traduire nos pensées ». Puis « Vyelyichyina ugla opryedyelyayetsya otnoshyenyiyem dlyini dugi k radyiusu », a quoi l'IBM 701 a rétorqué : « La valeur d'un angle est déterminée par le rapport entre la longueur de l'arc et le rayon ». La jeune femme a continué : «Myezhdunarodnoye ponyimanyiye yavlyayetsya vazhnim faktorom v ryeshyenyiyi polyityichyeskix voprosov, » et l'ordinateur a traduit : « dans les questions politiques, la compréhension de la situation internationale constitue un facteur important de la décision. »

Détournement de tâches pour traduire du russe

En tout, « le cerveau » a traduit plus de soixante phrases du Russe vers l'Anglais. L'étonnante machine avait interrompu ses 16 heures de travail quotidien consacrées à la résolution de problèmes de physique nucléaire, au calcul de trajectoires de fusées, aux prévisions météorologiques et autres prouesses mathématiques pour se prêter à l'exercice. Son attention avait été détournée pour un bref moment de son travail de calcul numérique fulgurant pour se pencher sur un domaine entièrement nouveau et tout à fait étrange pour ce géant électronique : comprendre la logique du comportement humain et plus précisément, traiter des mots utilisés par les humains. Le résultat, dont on peut apprécier les manifestations aujourd'hui même, a été un franc succès. Même si IBM avait pris la précaution de préciser qu'il n'était pas encore possible « d'insérer un livre en russe d'un côté et de sortir un livre en anglais de l'autre, » le constructeur avait prédit que « d'ici 5 ans, et peut-être dans 3 ans au plus, la conversion des langues par processus électronique dans des domaines fonctionnels importants où l'on utilise plusieurs langues, pourrait bien devenir un fait accompli. »

Fait intéressant, cette sorte de programmation pour réaliser des traductions, souvent dans l'actualité de l'époque, s'est avérée difficile, coûteuse et finalement controversée. En 1964, un groupe de scientifiques réuni par le ministère de la Défense et de la National Science Foundation, connue sous le nom de Automatic Language Processing Advisory Committee (ALPAC), a évalué la technologie informatique appliquée à la traduction linguistique. Son rapport « Langue et machines : Les ordinateurs pour la traduction et la linguistique », publié en 1966, a surtout contribué à saper les efforts entrepris dans ce domaine. Selon un article de Wikipedia, le groupe « a été très critique sur les efforts en cours, montrant que les systèmes informatiques n'étaient guère plus rapides que la traduction humaine, et faisant aussi valoir que, à l'inverse de ce que l'on pensait, il y avait plutôt trop que pas assez de traducteurs, et que l'offre étant supérieur à la demande, la traduction humaine restait relativement peu coûteuse - environ 6 dollars pour mille mots traduits. »

Une réussite contestée sur le plan financier

John Hutchins, expert de longue date de la traduction automatique, a écrit plus tard : « L'événement le plus connu dans l'histoire de la traduction automatique est sans doute la publication du rapport par l'ALPAC en 1966. Il a eu pour effet de mettre un terme à l'important financement dont bénéficiait, depuis une vingtaine d'années, la recherche dans le domaine de la traduction automatique aux États-Unis. Peut-être que le message sans ambigüité délivré à la population en général et au reste de la communauté scientifique a été encore plus dévastateur : que la traduction automatique était sans espoir. Pendant les années qui ont suivi, les chercheurs participant à des projets dans ce domaine préféraient la discrétion : c'était presque honteux. Jusqu'à aujourd'hui, « l'échec annoncé » de la traduction automatique a été transmis comme un fait indiscutable. L'impact de l'ALPAC est indéniable. La notoriété de ce rapport était telle que de temps en temps au cours des décennies qui ont suivies, certains chercheurs s'interrogeaient sur l'opportunité de publier « un autre ALPAC » pour régler encore le sort de la traduction automatique. Au-delà de la controverse, l'apprentissage des langues par des méthodes  informatiques a prospéré et on a vu se développer des méthodes intéressantes.

(...)

(16/01/2012 18:01:06)

Salesforce.com recrute Vivek Kundra, l'ancien DSI de la Maison Blanche

Salesforce.com a annoncé le recrutement de Vivek Kundra, ancien DSI de la maison blanche, sous la présidence de Barack Obama. Il devient vice -président exécutif de la société pour les marchés émergents afin de promouvoir les bénéfices du cloud dans ces pays. Il reportera directement à Frank Van Veenendaal, président monde des ventes et services.

Vivek Kundra est connu pour avoir mené au sein du gouvernement américain une politique de rationalisation des systèmes IT de l'administration en allant vers le cloud computing. Dès son arrivée à son poste, il avait proposé un agenda en militant pour l'adoption du cloud et la consommation des technologies à l'usage et rendre les données disponibles au public sur des sites, tels que data.gov. Il a été critique sur les grands contrats IT qui avançaient trop lentement et comportaient de risques d'échec. Il a démissionné au bout de 2 ans et demi.

(...)

< Les 10 documents précédentsLes 10 documents suivants >