Flux RSS
108538 documents trouvés, affichage des résultats 371 à 380.
< Les 10 documents précédents | Les 10 documents suivants > |
(26/03/2012 08:40:53)
Les entreprises restent sous-équipées en outils de collaboration
Partager des données entre partenaires (clients, fournisseurs, télétravailleurs...) voire entre collaborateurs d'une même entreprise reste toujours problématique selon une étude de l'institut Harris Interactive sponsorisée par IntraLinks. Pour 68% des répondants à l'enquête, les échanges de données, y compris volumineuses, continuent essentiellement de transiter via l'e-mail ou accessoirement de sites FTP.
Les problèmes de sécurité comme la possible infection par du code malicieux ou le détournement d'information sont connus des utilisateurs dans les deux tiers des cas sans que cela soit un frein à un usage jugé comme incontournable. A cela s'ajoute une difficulté à appréhender tout le contexte juridique d'un tel partage de données, souvent au travers de frontières d'Etats, dans plus de la moitié des cas. (...)
Le Groupe Chèque Déjeuner virtualise ses postes de travail
Le Groupe Chèque Déjeuner est présent dans 13 pays avec 2 130 collaborateurs. Il sert 21,7 millions de salariés de 193 200 entreprises avec 4,3 milliards de valeur en titres de paiements spéciaux pour un chiffre d'affaires de 290,3 millions d'euros. En France, le groupe dispose de 14 sites (un siège et 13 délégations). Il souhaitait alléger les tâches fastidieuses de gestion du parc de postes de travail, mieux intégrer les 10% de postes mobiles, se préparer à la diversité des types de terminaux (tablettes...) et accroître la sécurisation globale de son système d'information.
Depuis 2007, le Groupe Chèque Déjeuner est engagé dans une démarche de consolidation du système d'information qui a déjà abouti à centraliser l'ensemble des serveurs de l'entité française dans un seul datacenter. Le groupe a décidé de profiter de cette concentration pour centraliser la fastidieuse gestion des postes de travail en les virtualisant.
Les solutions Microsoft Remote Desktop Service et Workspace Manager de RES Software ont été retenues. Outre les fonctionnalités d'administration classiques de ce type de solution, la capacité de bien gérer la sécurité sur chaque poste, y compris en bloquant les ports USB à distance, a été un critère essentiel de choix. La DSI de 80 personnes a commencé par déployer le système auprès d'un service de taille réduite, le service juridique et contentieux (25 postes) avant d'étendre progressivement service par service (DRH, services généraux...). 90% du parc sera migré fin 2012. (...)
10 langages de développement pour secouer la IT (2e partie)
Fantom, Zimbu, X10, haXe et Chapel. La 1ère partie de cette présentation en deux volets a abordé les langages Dart, Ceylon, Go, F# et Opa. En voici cinq autres, disponibles en Open Source et toujours en cours de développement pour la plupart. Ces dix langages avant-gardistes ont été passés en revue par notre confrère d'InfoWorld, Neil McAllister. (Lire la 1ère partie)
6 - Fantom : une portabilité cross-plateforme
Faut-il développer vos applications pour les environnements Java ou .Net ? Si vous codez en Fantom, vous pouvez choisir et, même, changer de plateforme à mi-parcours, parce que ce langage est conçu dès le départ pour la portabilité cross-plateforme. Le projet Fantom ne comprend pas seulement un compilateur capable de produire du bytecode à la fois pour la machine virtuelle Java (JVM) et pour la CLI (Common Language Infrastructure) .Net, mais aussi un jeu d'API qui fait abstraction des API Java et .Net en créant une couche additionnelle de portabilité.
Il est prévu d'étendre encore la portabilité de Fantom. Un compilateur Fantom vers JavaScript est déjà disponible et les prochaines cibles pourraient inclure le projet de compilateur LLVM, la machine virtuelle Parrot et Objective-C pour iOS. Mais la portabilité n'est pas la seule raison d'être de Fantom. Comme il demeure, par nature, proche de C, on s'attend aussi à ce qu'il s'améliore du côté des langages qui l'ont inspiré. Il essaie de trouver un terrain d'entente dans certains des débats syntaxiques les plus vifs qui opposent par exemple langages typés et non typés, ou encore les interfaces et les classes. Il apporte une syntaxe simple pour déclarer des structures et sérialiser les objets. Et il inclut le support de la programmation fonctionnelle et parallèle (concurrency). Ce langage Open Source est disponible sous licence AFL (Academic Free Licence) version 3.0, pour Windows et les plateformes Unix (en incluant Mac OS X).
7 - Zimbu : adapté à tout mais il ne produit encore que du C ANSI
La plupart des langages de programmation empruntent les caractéristiques et la syntaxe de langages existants. Zimbu a puisé dans la plupart d'entre eux. Idée originale de Bram Moolenaar, le créateur de l'éditeur de texte Vim, Zimbu cherche à être un langage rapide, concis, portable et facile à lire, pouvant être utilisé pour coder n'importe quoi, de l'interface utilisateur d'une application jusqu'au noyau d'un système d'exploitation. Compte tenu de sa nature, Zimbu possède une syntaxe unique et particulière, mais fonctionnellement riche. Il utilise des expressions et des opérateurs proches de C, mais se sert de ses propres mots-clés, types de données et structures de bloc. Il supporte la gestion de la mémoire, des threads et des pipes. Sa portabilité est une préoccupation majeure. Bien que Zimbu soit un langage compilé, il produit du code ANSI C. Les fichiers natifs ne peuvent être créés que sur les plateformes disposant d'un compilateur C natif.
Malheureusement, le projet Zimbu n'en est qu'à ses débuts. Le compilateur peut créer quelques exemples de programmes, mais il ne pourra pas transformer l'ensemble du code en exécutable. Toutes les fonctionnalités proposées ne sont pas encore mises en oeuvre et certaines sont encore réalisées de façon maladroite. Les spécifications du langage devraient aussi être modifiées, avec l'ajout de mots-clés, de types et de syntaxe si nécessaire. La documentation est jeune elle aussi. Cependant, si vous vouliez l'expérimenter, des outils préliminaires sont disponibles sous licence Apache.
8 - X10 : conçu pour les architectures parallèles actuelles
Les traitements parallèles ont longtemps constitué une niche spécialisée du développement de logiciels, mais avec l'arrivée des processeurs multicoeurs et de l'informatique distribuée, le parallélisme se généralise. Malheureusement, les langages de programmation actuels n'ont pas suivi le rythme. C'est pourquoi IBM Research a développé X10, un langage conçu spécifiquement pour les architectures parallèles modernes, avec l'objectif de multiplier par dix la productivité des développeurs.
Conçu pour la programmation parallèle, il utilise le modèle PGAS (partitioned global address space) qui suppose un espace mémoire global adressable logiquement partitionné. Un modèle sur lequel s'appuie aussi le langage Chapel. Le code et les données sont séparés en portions qui sont distribuées à travers un ou plusieurs emplacements, ce qui permet de faire évoluer facilement un programme, en passant du prototype single-thread (situé à un seul endroit) jusqu'au programme multi-threads exploitant un ou plusieurs processeurs multi-coeurs dans un cluster haute performance.
[[page]]
C'est à Java que le code de X10 ressemble le plus. En fait, le runtime X10 est disponible sous la forme d'un exécutable natif et de classes pour la machine virtuelle Java. Le compilateur X10 peut produire du code source C++ ou Java. L'interopérabilité directe avec Java constitue l'un des objectifs du projet. Pour l'instant, le langage évolue, mais il a déjà atteint une certaine maturité. Le compilateur et le runtime existent pour plusieurs plateformes : Linux, Mac OS X et Windows. Parmi les outils complémentaires, on trouve un environnement de développement intégré basé sur Eclipse et un debugger, tous distribués sous EPL (Eclipse Public License).
9 - haXe : adapté à différents environnements d'exploitation
De nombreux langages peuvent être utilisés pour écrire du code portable. Des compilateurs C existent pour à peu près toutes les architectures de processeurs et le bytecode Java s'exécutera à chaque fois qu'il trouvera une JVM. Mais haXe (il faut prononcer « hex ») n'est pas seulement portable. C'est un langage multiplateforme qui peut cibler différents environnements d'exploitation, du code natif aux interpréteurs et en passant par les machines virtuelles.
Pour l'instant, les développeurs peuvent écrire des programmes en haXe puis les compiler en code objet, en JavaScript, en PHP, en Flash/ActionScript ou en bytecode NekoVM. Des modules supplémentaires pour produire du C# et du Java sont en cours de développement. En complément du langage de base, il y a la bibliothèque standard haXe, qui fonctionne de façon identique sur chaque cible, à laquelle s'ajoutent des bibliothèques spécifiques pour exploiter les caractéristiques singulières de chaque plateforme.
Similaire à celle de C, la syntaxe haXe est assez riche. Son principal avantage est qu'il s'affranchit des problèmes inhérents à chaque plateforme ciblée. Par exemple, il est strictement typé quand JavaScript ne l'est pas, il apporte des génériques et des inférences de type à ActionScript, ou encore, il permet d'éviter la syntaxe mal conçue de PHP.
Bien qu'encore en cours de développement, haXe est utilisé sous une forme commerciale par son créateur, le studio Motion Twin, spécialisé dans les jeux en ligne. Il est disponible pour Linux, Mac OS X et Windows sous une combinaison de licences Open Source.
10 - Chapel : pensé pour les supercalculateurs et le clustering
Dans le monde de l'informatique haute performance, le nom de Cray résonne comme celui d'un poids lourd. Il n'est donc pas surprenant que Chapel, le premier langage de programmation de Cray, ait été conçu en pensant aux supercalculateurs et au clustering. Chapel fait partie du programme Cascade de Cray, une initiative ambitieuse de calcul haute performance lancée avec l'agence américaine DARPA (Defense Advanced Research Project Agency). L'un de ses objectifs vise à détacher les algorithmes parallèles du matériel sous-jacents, à améliorer leurs performances sur les architectures et à augmenter la portabilité des programmes parallélisés.
La syntaxe de Chapel s'appuie sur de nombreuses sources. Au-delà des classiques C, C++ et Java, elle emprunte des concepts à des langages de programmation scientifiques tels que Fortran et Matlab. Ses caractéristiques de traitement parallèles sont influencées par ZPL et High-Performance Fortran, ainsi que par les précédents projets Cray.
L'une des fonctionnalités les plus intéressantes de Chapel, c'est son support de la programmation multi-resolution, qui permet aux développeurs de prototyper des applications avec du code très abstrait et de le compléter au fur et à mesure que la définition de la mise en oeuvre se complète. Les travaux se poursuivent sur Chapel. Actuellement, il peut s'utiliser sur les supercalculateurs Cray et sur différents clusters haute performance, mais il peut être porté sur la plupart des systèmes Unix (ce qui comprend Mac OS X et Windows avec Cygwin). Le code source est disponible sous une licence Open Source de type BSD.
VDI : quels avantages, quels inconvénients ?
Beaucoup d'entreprises continuent à faire tourner Windows XP sur un nombre important d'ordinateurs de bureau de leur parc informatique, quand ce n'est pas sur la totalité d'entre eux. Soit parce que la migration nécessite des mises à niveau matérielles coûteuses, une mobilisation importante en temps de travail pour le transfert des paramètres, et une formation de l'utilisateur. Soit parce qu'il n'y a tout simplement pas de raison impérieuse à faire passer les utilisateurs sur un nouveau système d'exploitation et à les orienter vers de nouvelles applications. Dans certains cas, les deux raisons sont liées.
Mais, si l'on considère que Microsoft a déjà cessé de livrer des correctifs pour Windows XP - hormis les correctifs de sécurité - et que l'éditeur a programmé la fin de tout support pour ce système d'exploitation pour 2014, cette stratégie ne sera pas tenable plus longtemps pour beaucoup d'entreprises.
La solution de l'infrastructure de bureau virtuel
La VDI utilise un serveur pour faire tourner des systèmes d'exploitation et des logiciels dans une machine virtuelle. Les utilisateurs accèdent à ces postes de travail virtuels depuis leurs ordinateurs PC existants. Cela permet non seulement d'éviter la mise à niveau matérielle des postes de travail, mais laisse aussi à l'utilisateur la possibilité de faire des va-et-vient entre des environnements systèmes différents, par exemple entre Windows XP et Windows 7.
Qui plus est, l'infrastructure de bureau virtuel rend les tâches administratives et de gestion beaucoup plus faciles, parce que tous les postes de travail tournent sur la même image. L'installation de l'OS, les mises à jour logicielles et l'application des correctifs se font au niveau de l'image, et tous les systèmes de bureau utilisant cette image sont automatiquement mis à jour et corrigés. Ce sont les avantages les plus évidents de la VDI. Mais il y a aussi un revers à la médaille.
Voici un aperçu des avantages et des inconvénients à utiliser une infrastructure de bureau virtuel.
1. Les bureaux de tous les utilisateurs tournent sur la même image
Les pour : Le fait que les bureaux des utilisateurs tournent sur la même image, aussi bien le système d'exploitation que les applications installées, réduit les coûts administratifs et le coût du support technique.
Les contres : Si un utilisateur a besoin d'un ensemble d'applications différentes, une configuration et des paramètres personnalisés, ou s'il veut pouvoir installer librement ses propres applications, il a besoin d'avoir une image unique pour lui tout seul. Cela peut multiplier rapidement les besoins de stockage sur le serveur VDI.
2. Les opérations de calcul se font au niveau du serveur VDI et non plus au niveau des postes de travail individuels.
Les pour : Il n'est plus nécessaire d'upgrader les postes de travail pour mettre les machines au niveau de configuration matérielle minimale requise par le nouveau système d'exploitation.
Les contres : Il faut par contre prévoir de gros investissements en matériel serveur, et probablement en stockage et en infrastructure réseau. Le coût total de ces matériels peut dépasser celui de l'achat de nouveaux PC pour chaque utilisateur.
3. Les coûts matériels sont plus faciles à maîtriser, puisque presque tout se passe au niveau du datacenter.
Les pour : Au lieu d'acheter une palette de nouveaux PC qu'il faudra répartir dans l'entreprise -voire même à l'extérieur, pour les salariés nomades ou ceux qui travaillent à distance - il faut simplement acquérir un serveur costaud, avec des alimentations redondantes et protégées contre les coupures de courant, du stockage haute performance et un réseau bien dimensionné capable de servir de manière égale tous les utilisateurs.
Les contres : L'achat d'un gros serveur représente une mise de fonds initiale élevée, comparé à l'acquisition de PC peu coûteux qui peuvent être acquis par étapes ou mis à jour au fur et à mesure. De plus, au cas où le serveur tombe en panne, tous les utilisateurs qui dépendent de son bon fonctionnement seront dans l'impossibilité de travailler. Par contre, si un seul PC tombe en panne, un seul utilisateur est affecté.
4. La maintenance d'une seule image permet de réduire les coûts de gestion et du support technique.
Les pour : L'installation de logiciels, l'application de correctifs et l'ajout de pilotes, ne se fait qu'une fois, et tout utilisateur dont la machine tourne sur la VDI profite des améliorations apportées par la mise à jour.
Les contres : Les administrateurs doivent se former au logiciel VDI pour bien connaître ses capacités et ses limites. Si le nombre d'utilisateurs ayant besoin de logiciels particuliers ou de paramètres personnalisés est important, ils vont devoir gérer une multitude d'images, ce qui peut finir par être plus compliqué que la maintenance de postes de travail individuels.
5. En cas de problèmes, il n'y a qu'un seul système à réparer.
Les pour : Les problèmes peuvent être généralement résolus au niveau du datacenter. Inutile donc de se rendre sur le poste de travail. Généralement, les images virtuelles sont accessibles depuis n'importe quel poste de travail connecté, et l'utilisateur qui a des problèmes sur son PC peut simplement changer de poste de travail et accéder à toutes ses données et ses applications de manière transparente depuis un autre ordinateur connecté à la VDI.
Les contres : Les problèmes côté serveur peuvent affecter plusieurs utilisateurs. Tous ceux qui sont connectés au même serveur ou qui tournent sur la même image virtuelle sont concernés. C'est la raison pour laquelle il est recommandé de mettre en place des serveurs redondants.
Impression : Epson mise sur le jet d'encre dans les entreprises
Pour Bruno Bonino, directeur commercial d'Epson France, la technologie d'impression laser est une technologie aboutie sans grande perspective d'évolution, l'avenir est au jet d'encre. Fort de ce constat, le constructeur japonais a développé une gamme d'imprimantes et de multifonctions jet d'encre, les WorkForce Pro, qui viennent concurrencer le laser dans les entreprises. Avec sa technologie d'impression micro piezo associée à des encres qui sèchent instantanément, résistent à l'eau, au maculage et au passage des surligneurs, Epson affirme proposer des solutions plus rapides et moins gourmandes en énergie que les périphériques laser traditionnels.
Le jet d'encre, qui ne nécessite pas de préchauffage du four, se met en route presque instantanément et consomme moins d'électricité à l'usage. Et pour rassurer les utilisateurs dans les entreprises, Epson livre avec ses WorkForce Pro des réservoirs d'encre haute capacité (3 400 pages environ). Ces imprimantes reposent en outre sur un châssis éprouvé emprunté aux modèles laser de la firme japonaise. Bien malin qui pourra déceler au premier coup d'oeil qu'il s'agit d'imprimantes jet d'encre. La WorkForce Pro WP-4525 DNF (288 euros), par exemple, est livrée avec un bac d'une capacité de 330 feuilles et dispose en standard des interfaces USB et Ethernet. Avec le WiFi, le modèle WorkForce Pro WP-4535 DWF passe à 350 euros.
Bientôt des modèles noir et blanc
Si ces modèles sont particulièrement compétitifs face à des lasers couleurs, il en va autrement avec les imprimantes lasers monochromes traditionnelles. Epson est bien conscient du problème et prévoit de lancer bientôt des modèles jet d'encre noir et blanc, selon Bruno Bonino. Et face aux réserves émises sur les désagréments expérimentés sur les imprimantes jet d'encre grand public (bourrage papier, recalibrage fréquent des têtes, prix des cartouches d'encre...), le directeur commercial se veut rassurant : « Il faut arriver à convaincre les utilisateurs que les technologies jet d'encre pro et grand public sont différentes ». Fort de sa longue expérience dans le jet d'encre professionnel, notamment avec les traceurs, la Digigraphie et l'impression industrielle (sur tissu ou composants), Epson se montre confiant sur le sujet. « Grâce notre technologie d'impression à froid micro piezo, nous plaçons très précisément les gouttelettes d'encre, et ce sans chauffage comme d'autres fabricants d'imprimantes ».
Interrogé sur la politique de consolidation des imprimantes dans les entreprises, Bruno Bonina estime que l'imprimante départementale n'est pas aussi économique qu'on le pensait. Les couts cachés comme les déplacements des employés, l'égarement de documents ou l'indisponibilité des machines finissent par agacer et nuire à la productivité de l'entreprise. Mais le jet d'encre n'est pas seulement un substitut au laser dans les entreprises. Selon Epson, il commence même à empiéter sur les imprimantes matricielles et à transferts thermiques encore utilisées dans les aéroports par exemple pour imprimer les billets et les étiquettes des bagages. « Le jet d'encre va remplacer le transfert thermique pour apporter la couleur à un coût moindre ».
(...)(22/03/2012 16:56:07)Fusion PC et imprimantes chez HP : où sont les bénéfices ?
La décision de fusionner les activités Imaging and Printing Group (IPG) et Personal Systems Group (PSG), attendue et largement commentée depuis le début de la semaine, confirme que, pour HP, le marché de l'imprimante offre moins de perspectives d'avenir que celui du PC. Selon IDC, « alors que les ventes d'imprimantes devraient augmenter de 1 à 2 % dans les prochaines années, celui du PC devrait progresser d'environ 5 % ». HP a déclaré que la réunion des deux unités va permettre de rationaliser sa chaîne d'approvisionnement, de réaliser des économies, et donc de mieux réinvestir dans l'entreprise. « Cette combinaison va rapprocher deux secteurs d'affaire où HP s'est imposé comme leader au niveau mondial, » a déclaré la PDG, Meg Whitman. « Si nous parvenons à offrir le meilleur en terme d'innovation et d'efficacité opérationnelle, nos clients, nos partenaires et nos actionnaires auront tous à y gagner, » a-t-elle ajouté.
Mais tout le monde n'est pas aussi convaincu par l'impact possible de cette fusion, notamment en terme de réduction des coûts. « De mon point de vue, rien, dans l'annonce d'aujourd'hui ne va changer le fait que HP représentera moins que la somme de ces deux parties », a déclaré Mark Fabbi, Distinguished Analyst chez Gartner. « Cela ne suffira pas de changer les meubles de place », a-t-il déclaré. Selon lui, l'entreprise ferait mieux d'engager des débats et des réflexions sur la manière d'utiliser les acquisitions logicielles faites en 2011. Selon HP, la fusion va permettre de rationaliser les ventes, le support client et la chaîne d'approvisionnement. Un avis partagé par Ezra Gottheil, analyste senior chez Technology Business Research. « La fusion va permettre de mettre en commun différentes activités tournées vers le consommateur, notamment la chaîne d'approvisionnement, la force de vente et les lancements de produits, » a-t-il convenu. « C'est un aspect positif. Car, ces dernières années, l'entreprise a souffert de son cloisonnement et n'est pas parvenue à tirer pleinement profit des synergies potentielles que lui offrait sa position : à savoir, être l'un des plus importants fournisseurs d'informatique au monde. »
Des synergies à développer
« La combinaison des unités Printing et Personal Systems Group permettra probablement à HP de dégager des marges bénéficiaires plus importantes, et particulièrement pour la division Personal Systems Group, en difficulté l'an dernier, et qui avait même failli être vendue, » a déclaré l'analyste. Cependant, pour Mark Fabbi de Gartner, en raison de la faible capacité de cette division à dégager des marges, « nous ne pensons pas que cela offre beaucoup de possibilités pour réduire les coûts, si ce n'est dans certaines activités globales. Côté acheteur dans l'entreprise, c'est souvent un acheteur différent pour les PC et les imprimantes et les produits sont vendus dans différents secteurs (consommateur/ vente de détail), de sorte que les synergies sont maigres. »
La dernière fusion ayant eu lieu chez HP date de 2005. Elle concernait déjà la réunion des départements PC et Imprimantes. Ce fut aussi l'une des dernières mesures prises par Carly Fiorina en tant que PDG. Mark Hurd, qui lui a succédé peu après, est revenu sur cette décision. Son successeur, Léo Apotheker, a voulu mettre plus de distance entre les groupes et sortir la division PC de HP pour en faire une entreprise distincte. Carly Fiorina avait nommé Viyomesh Joshi, qui dirige actuellement l'Imaging and Printing Group (IPG), à la tête de ces deux groupes, mais HP a déclaré mercredi que ce dernier allait prendre sa retraite. « Le fait de voir que Viyomesh Joshi va être écarté est une perte pour HP. C'était l'un des dirigeants les plus dynamiques de HP et ils vont regretter son enthousiasme et son énergie », a déclaré Mark Fabbi.
[[page]]
L'idée de Meg Whitman est de placer Todd Bradley et son groupe dans un rôle dominant. Depuis que celui-ci a pris le contrôle du groupe PC en 2005, les ventes ont augmenté d'environ 30 %, pour atteindre 39,6 milliards de dollars. Dans le même temps, les ventes du groupe imprimantes étaient en baisse, à 25,8 milliards de dollars l'an dernier, soit un milliard de dollars de moins que lors de l'exercice 2005. L'an dernier, la performance des deux groupes a baissé, même si les ventes du groupe IPG ont donné de moins mauvais résultats que les ventes de PC. Les recettes d'IPG sont restées stables en 2011, après une croissance de 1,5 % en 2010, tandis que les recettes du groupe PC ont baissé de 0,9 % en 2011, après avoir progressé de 4,8 % en 2010.
« HP abandonne presque le créneau des imprimantes bas de gamme. Ce qui reste rentable pour l'entreprise, ce sont l'encre, le toner et le papier, » a déclaré Ezra Gottheil. En effet, les fournitures pour l'impression restent un des secteurs les plus rentables pour HP. IPG a affiché une marge opérationnelle de 15,4 %, contre 5,9 % pour le groupe PC. Cependant, les marges d'IPG sont en baisse depuis 2009, tandis que, sous la direction de Todd Bradley, les marges du groupe PC sont en hausse. « Le fait de rapprocher le département Imprimantes avec celui du PC pourrait contribuer à stimuler les ventes de périphériques et de fournitures, » a estimé Ezra Gottheil. « Le département Imprimantes de HP pourrait également vendre des imprimantes plus grosses pour remplacer les systèmes d'impression traditionnels, et ce secteur continuera probablement à bénéficier de sa propre force de vente, » a-t-il ajouté.
D'autres réorganisations ont également été annoncées par HP. Notamment, le constructeur va fusionner l'activité Global Accounts Sales d'HP avec le groupe rebaptisé Enterprise Group, dirigé par David Donatelli. Celui-ci comprend les serveurs, le stockage, le réseau et les services informatiques.
(...)(22/03/2012 16:38:31)Outlook 15 : prêt pour les tablettes tactiles
La prochaine version de Microsoft Outlook, qui fait partie d'Office 15, sera sans aucun doute orientée vers le tactile et vise l'unification avec les autres produits Microsoft, notamment un Hotmail natif, plus d'intégration aux réseaux sociaux, une nouvelle fonctionnalité du nom de Peek, un menu « People » à la Windows Phone, et bien sûr l'optimisation tactile.
C'est du moins ce que met en avant Paul Thurrott, qui a pu avoir en main la preview d'Outlook 15 qu'il a testée en même temps que la prochaine version de Microsoft Office. Le blogueur nous fait partager ses impressions sur son site dédié à Windows. C'est ainsi que selon Paul Thurrott, « si Outlook 15 est encore une application de bureau traditionnelle, plusieurs changements semblent préparer les utilisateurs à un usage sur tablette tactile. » Office 15 est encore en bêta privé et subira sans doute quelques modifications avant qu'Outlook 15 ne soit prêt pour sa sortie finale, mais voici les éléments sur lesquels le blogueur nous invite à être attentifs.
Exit le Social Connector
Il semble que Microsoft veuille supprimer l'add-on Social Connector d'Outlook, introduit pour la première fois dans Outlook 2010. L'extension permet d'intégrer un compte Hotmail avec des comptes de réseaux sociaux comme Facebook et LinkedIn. Dans le prochain Outlook, il sera possible de configurer ces comptes via les paramètres par défaut du logiciel. Un choix tout à fait pertinent, non seulement parce que cela simplifie la mise en oeuvre, mais aussi parce que l'objectif de Microsoft est de mettre Outlook 15 au niveau de Windows 8. En effet, la prochaine version du système d'exploitation de Microsoft va transformer les PC en plate-forme intégrée, mélangeant l'environnement de bureau et l'environnement web. Par exemple, les Tuiles « Photos » et « People » présentes dans l'écran de démarrage Metro de Windows 8 intégreront les informations provenant des comptes en ligne Facebook, Flickr, et SkyDrive.
Tout voir avec « Peeks »
Paul Thurrott met aussi l'accent sur une nouvelle fonctionnalité appelée « Peeks ». Ce terme un peu fourre-tout regroupe plusieurs fonctions différentes. Par exemple, si l'on envoie un e-mail depuis Outlook, « Peeks » ajoute un onglet « People » dans le bas de la fenêtre qui contient les informations du contact auquel est adressé le mail, y compris ses informations de réseautage social. Dans les versions précédentes d'Outlook, cette fonction était activée quand on avait installé l'add-on Social Connector.
La nouveauté de « Peeks » , c'est qu'il permet d'avoir différents aperçus dans une petite fenêtre directement à l'intérieur d'Outlook. Par exemple, en passant le curseur de la souris au-dessus de l'icône Calendrier, on fait surgir l'aperçu du calendrier. L'action reproduit exactement ce qui se passe avec les vignettes de la barre des tâches, une fonctionnalité introduite par Microsoft depuis Windows 7. On ne sait pas comment et si cette fonction sera accessible sur les terminaux tactiles.
Réponses en ligne
Outlook ne vous dérangera plus avec ses fenêtres pop-up lorsque vous répondez à un mail. En effet, la fenêtre de réponse se positionne en ligne. Paul Thurrott estime que cette modalité est adaptée au fonctionnement de l'application Outlook Web Access d'Office 365. Mais c'est aussi, selon lui, un autre clin d'oeil aux appareils tactiles sur lesquels il est difficile de gérer de multiples fenêtres ouvertes en même temps, surtout si l'on travaille sur une tablette équipée d'un écran de 10 pouces.
En vrac
Paul Thurrott indique qu'Outlook 15 comprendra une barre pour la Météo locale dans la vue Calendrier, que les contacts ont été renommés « People », comme dans Windows Phone et dans l'écran de démarrage de Windows 8. À l'image de ce qui se passe pour l'ensemble de la suite Office 15, Microsoft a inclus un mode adapté à l'affichage tactile qui augmente la taille des éléments du menu pour les rendre plus faciles à manipuler dans le cas où la navigation dans Microsoft Outlook se fait avec le doigt et non avec la souris.
(...)(22/03/2012 15:01:16)Adobe renforce les fonctions de marketing numérique de ses produits
Adobe a ajouté à sa suite marketing des outils pour diffuser de la publicité à travers les sites de réseautage social et vers différents types de terminaux, ainsi que des fonctions de suivi. Ces améliorations montrent que l'éditeur consacre beaucoup d'efforts au marketing numérique. Déjà, l'an dernier, Adobe avait réalisé plusieurs acquisitions dans le but d'ajouter ce type de fonctionnalités à ses produits. Cette semaine, l'entreprise a rassemblé 4 000 spécialistes du marketing numérique et des responsables des médias pour montrer dans quelle direction elle comptait orienter ses développements. Par exemple, la technologie d'Efficient Frontier, acquise par Adobe, a été intégrée à sa suite Digital Marketing. Elle va permettre aux professionnels de mener des campagnes sur plusieurs fronts : « campagnes sur les réseaux sociaux, campagnes de recherche - pour informer, communiquer, présenter - et campagnes d'affichage, » comme l'a expliqué Adobe.
Des outils d'analyse et de suivi des réseaux sociaux
L'entreprise a également présenté Social qui bénéficie de nouvelles capacités de marketing prédictif. Selon la firme, ces capacités vont aider à mettre plus facilement en évidence des modèles comportementaux à partir de l'analyse de grandes quantités de données et à mieux en tirer profit. On trouve par exemple une fonction d'analyse virtuelle et un moteur de modélisation prédictive, lequel sera disponible plus tard cette année. Grâce à la technologie d'Efficient Frontier, Social va pouvoir combiner les médiaux postés sur les réseaux sociaux avec de la surveillance, l'achat de publicité sur ces mêmes réseaux avec des fonctions analytiques. De même, les services marketing pourront utiliser une plate-forme unique pour gérer, mesurer et optimiser leurs campagnes dans les médias sociaux. Par exemple, ils pourront importer des données d'analyse à partir de Facebook, de Twitter, de Pinterest et de Google+, surveiller les sentiments exprimés dans les conversations, recevoir des alertes sur des tendances pertinentes, créer et déployer des applications sociales, générer des concours ou des questionnaires.
Développement d'apps pour mobile en HTML5
La première version de Social sera commercialisée à partir du second semestre de l'année 2012, et d'autres fonctionnalités seront ajoutées avant la fin de l'année. Selon l'éditeur, Social sera intégré avec d'autres produits de la suite Digital Marketing. Adobe a également annoncé la disponibilité d'une version actualisée de son pack Web Experience Management (WEM). La mise à jour inclut CQ 5.5, un outil utilisé pour créer, gérer et fournir du contenu personnalisé. La version 5.5 a été intégrée avec PhoneGap pour permettre aux utilisateurs de créer des applications mobiles en HTML5, et donc multi plates-formes. L'entreprise Nitobi Software, à l'origine de PhoneGap, a été acquise par Adobe en octobre de l'année dernière. Et avec Hybris, Adobe prévoit d'intégrer des fonctions d'e-commerce à sa solution WEM. L'intégration est actuellement en bêta test. La solution sera commercialisée à partir du deuxième trimestre de cette année
(...)(22/03/2012 09:37:11)Deezer passe à l'écoute de titres hors connexion Internet
Deezer annonce la mise en place d'un mode d'écoute de musique hors connexion à Internet, à destination de ses abonnés Premium+. Ce service est désormais accessible à partir de n'importe quel ordinateur, grâce à la technologie HTML5. Les utilisateurs peuvent charger leurs albums et leurs playlists depuis leur navigateur en quelques minutes. Leur musique devient alors accessible partout, sans nécessiter de connexion Internet et sans installer de logiciel tiers.
Dans un premier temps, le mode hors connexion de Deezer n'est disponible que sur Chrome, en attendant qu'il le soit sur les autres navigateurs. Pour en profiter, il suffit de choisir une playlist ou un album, puis de cliquer sur le bouton associé "Mode hors connexion". Cela lance automatiquement le chargement des titres.
Cette fonctionnalité s'inscrit dans la continuité du mode hors connexion déjà disponible sur les applications Deezer mobiles. Le principal concurrent de Deezer, Spotify, dispose déjà d'une fonctionnalité similaire. Les deux services d'écoute de musique en streaming ne cessent d'ailleurs de s'aligner l'un sur l'autre, comme en témoigne également leur lancement commun de cartes cadeaux, à l'automne dernier.
(...)(22/03/2012 09:32:15)Le 1er tweet a déjà 6 ans
C'est le 21 mars 2006 que Jack Dorsey, l'un des co-fondateurs de Twitter, a envoyé le tout premier "tweet" depuis la plateforme de microblogging, en pleine expérimentation et alors baptisée twttr. Six ans plus tard, le service recense près de 500 millions d'inscrits dans le monde. Chaque jour, environ un million de comptes sont créés, tandis que s'échangent plus de 175 millions de messages.
Ce tout premier tweet signé Jack Dorsey (@jack) annonçait sobrement le lancement du projet :"just setting up my twttr" ("je viens juste d'installer mon twttr"). Le service a été officiellement mis en ligne un peu plus tard, au mois de juillet 2006, avant d'être renommé Twitter l'année suivante.
Au 31 janvier 2012, la France comptait 5,2 millions d'inscrits sur Twitter (source : Semiocast). Au niveau mondial, le site approcherait désormais les 500 millions de comptes ouverts, dont plus de 100 millions pour les seuls États-Unis.
(...)< Les 10 documents précédents | Les 10 documents suivants > |