Flux RSS
Open Source
1843 documents trouvés, affichage des résultats 61 à 70.
< Les 10 documents précédents | Les 10 documents suivants > |
(04/11/2011 09:36:17)
Open Data, le partage de données reste toujours associé à un risque
Ce cabinet a réalisé une étude baptisée Open Data : quels enjeux et opportunités pour l'entreprise ? qui se télécharge sur son site. Cette étude permet de faire le point sur les attentes, les motivations comme sur la situation de l'Open Data, tant sur les consommateurs de données que sur les offreurs, côté privé comme public.
Le livre blanc qui intègre cette étude est préfacé par Carlo Ratti, du M.I.T., qui rapproche le mouvement de l'Open Data et la problématique du Big Data. En effet, ouvrir toujours plus de données ne peut qu'accroître dans des proportions considérables le volume d'informations disponibles. Le point commun entre les deux phénomènes est aussi des plus classiques : les peurs s'opposent aux opportunités considérables.
L'Open Data connu mais méconnu
Selon l'étude Bluenove, 47% des répondants connaissent le concept d'Open Data. Mais combien en connaisse réellement la signification ? Il s'agit de rendre accessible (ouvrir) des informations en sa possession. Ces données peuvent alors être utilisées par des tiers pour créer de la valeur. Le cas classique est la création d'un service pratique par une start-up pour téléphone mobile à partir d'informations géographiques rendues disponibles par une collectivité locale. Mais ce cas classique est très loin d'être le seul à pouvoir être envisagé.
L'ouverture des données publiques est lancée et le portail Data.gouv.fr offrira bientôt un accès unifié et très libre aux données publiques. En Italie, une entreprise privée, le producteur d'électricité Enel, a ouvert certaines de ses données.
Partager par obligation ou par intérêt
Dans certains cas, l'ouverture des données est liée à une obligation légale, réglementaire ou contractuelle. Si ce type d'obligation concerne surtout le secteur public, il peut aussi avoir un impact sur des entreprises privées. « La Communauté Urbaine de Bordeaux a exigé que nous ouvrions certaines données de l'impact environnemental de la collecte des ordures réalisée par notre filiale SITA » témoigne Valérie Guimet, innovation ecosystem manager de Suez Environnement. 40% des répondants à l'enquête menée par Bluenove sont convaincus de l'intérêt de partager des données dans le domaine environnemental contre 37% dans le domaine technique, 26% dans l'opérationnel et 26% également dans le marketing. « Seuls 4% des répondants déclarent ne pas être prêts à partager des données internes avec des tiers » relève Martin Duval.
Cette prédominance de l'environnemental, porteur d'image positive pour l'entreprise, est assez logique quand on observe les motivations et les freins à l'ouverture des données. 59% des entreprises attendent en effet de l'ouverture de leurs données un développement de leur notoriété ou une amélioration de leur image.
[[page]]
Ceci dit, il reste que les motivations majeures tant à partager des données qu'à utiliser des données partagées par des tiers sont au nombre de trois : améliorer la satisfaction client (63% des répondants pour partager, 65% pour réutiliser), développer l'innovation (60% pour partager, 69% pour réutiliser) et améliorer l'offre de services ou de produits (59% et 70%).
La Poste réfléchit actuellement à partager davantage de données liées au courrier. Ces données ne sont pas nécessairement fiables et le partage pourrait viser à en améliorer la qualité dans une logique gagnant-gagnant avec ses utilisateurs. « Partager les données relatives aux plis non-distribués pourrait nous aider à faire baisser ce taux de non-distribution en ayant recours aux services des tiers qui ont intérêt à l'amélioration de nos services » mentionne ainsi Bernard Haurie, directeur de l'innovation et du développement des services du groupe La Poste. Mais il précise aussitôt : « nous allons très doucement car il ne s'agit pas de partager n'importe quoi n'importe comment, par exemple en portant atteinte aux droits individuels, mais aussi pour garantir que le partage aura une certaine pérennité ».
L'ouverture des données, comme le rappelle l'étude Bluenove, créé un écosystème de trois acteurs : l'émetteur des données rendues publiques, les réutilisateurs qui vont créer un outil et permettre un usage à partir de ces données, et les consommateurs finaux qui vont bénéficier de cet outil ou de cet usage. De fait, « changer brutalement sa politique de partage de données ou tromper sur la qualité des données partagées déstabiliserait l'écosystème de l'entreprise et porterait gravement atteinte à son image » explique Martin Duval.
Pas tout, tout de suite, avec tous
Le partage des données peut être limité, notamment dans les personnes ayant accès à ces données. Ainsi, Jérôme Introvigne, directeur marketing du groupe Poult, le leader français du biscuit sous marque de distributeur, indique : « nous avons un gros besoin d'innovation et nous voudrions développer une véritable co-innovation avec d'autres entreprises non-concurrentes et des laboratoires de recherche ». Mais certainement pas ouvrir tout à tous les vents.
L'innovation est aussi le moteur du partage de données à la SNCF. Patrick Ropert, directeur de la communication de la SNCF, expose : « nous transportons un million de personnes par jour mais chacune attend un service individualisé. Cela n'est possible qu'en recourant à des services innovants développés par des tiers avec nos données. Aux Etats-Unis, il existe une application qui croise des données issues des transports publics avec des données du marché immobilier pour permettre à chacun d'optimiser le choix de son lieu de résidence. »
[[page]]
Cependant, partager ses propres données comme utiliser les données de tiers restent des démarches perçues comme porteuse de risques. Le besoin de contrôler les données partagées est ainsi le premier frein à l'adoption d'une démarche d'ouverture cité par 60% des répondants. Assez logiquement, 52% des répondants estiment que cela risquerait de donner des informations à des concurrents et 48% craignent les aspects juridiques soulevés.
La réutilisation des données partagées par d'autres, notamment des collectivités locales, est, quant à elle, surtout liées à des problématiques d'accès et de qualité : la fraîcheur incertaine des données (60% des répondants) voire leur qualité propre (51%) sont ainsi citées à côté de la dispersion des données disponibles (58%) et la méconnaissance des données disponibles (57%) voire simplement de l'endroit où les récupérer (53%).
Assez bizarrement, la pérennité de la disponibilité des données n'est pas citée parmi les items les plus importants. Sans doute est-ce lié au fait que, aujourd'hui, les données partagées sont essentiellement publiques et du fait d'une démarche politique de longue haleine.
Un problème d'organisation et de technologie
Mais partager ses données pose aussi un autre problème de base : qui décide quoi partager ? Qui décide quoi réutiliser ? « La question est abordée de façon très transverse dans l'entreprise et si, aujourd'hui, il n'existe pas de Chief data officer, les procédures comme les attitudes devraient beaucoup bouger dans les mois à venir » prophétise Martin Duval.
Valérie Guimet ajoute : « ce que nous retenons de l'expérience bordelaise, c'est aussi que le partage de données ne se fait pas en appuyant sur un bouton. Il faut faire un vrai travail sur les formats et la pureté des données pour qu'elles soient utiles et utilisables par des tiers. »
Logiquement, Bluenove recommande de préparer minutieusement l'ouverture de ses données comme la réutilisation des données de tiers. Cela passe déjà par un choix (ou une acceptation) d'un modèle de partage : partage limité ou total, gratuit ou payant, ciblé ou en « mode public »... Pour débloquer la démarche et éviter son enlisement, Bluenove invite également à se lancer rapidement avec un partage limité en attendant d'étendre la démarche sur plus de données ou des modèles plus audacieux. L'ouverture, bien entendu, doit être animée, comme n'importe quelle démarche communautaire si l'on souhaite que son écosystème joue le jeu. Enfin, même si le ROI direct n'est pas l'objectif, définir des outils pour mesurer le retour sur investissement attendu est nécessaire pour justifier la démarche. Ce ROI est en général indirect, par l'apport secondaire du service proposé par un tiers.
A ce jour 43% des répondants déclarent avoir une envie de pratiquer l'open-data mais seulement 17% ont une vraie démarche en cours. Force est de constater que le sujet est loin d'être mature.
Une solution de GED Open Source à la DGAC
La DSNA (Direction des Services de la Navigation Aérienne), une importante branche de la DGAC (Direction générale de l'aviation civile), souhaitait faciliter l'accès à plus de 1 To de documents pour tous ses agents situés sur l'ensemble du territoire français, y compris l'outre-mer. Elle a donc lancé le projet Géode dans cette optique. Celui-ci est en service depuis fin 2010.
Après appel d'offres, la DSNA a choisi la GED Open Source d'Alfresco. Celle-ci permet un accès, tant en lecture qu'en mise-à-jour, à la base documentaire via une simple interface web. Des fonctionnalités ont été personnalisées par exemple pour permettre une recherche de documents en trois clics maximum.
La base documentaire est répliquée sur de multiples sites afin de faciliter sa consultation partout dans le monde et notamment dans l'outre-mer malgré les imperfections du réseau.
(...)
Java Community Process : VMware out, Twitter et Azul Systems arrivent
VMware n'est plus membre du comité exécutif du Java Community Process SE / EE, qui voit par contre débarquer Twitter, selon les résultats des élections finalisés cette semaine. Azul Systems, le concepteur de la machine virtuelle Java Zing, a également obtenu un siège au sein du conseil du JCP, qui supervise et encourage le développement du langage de programmation Open Source. Ericsson, SAP et Intel ont été réélus, tout comme IBM, Nokia et SK Telecom reconduit au sein du comité Java ME, tandis que ARM et Werner Keil font leur entrée pour la première fois
VMware reste toutefois bien représenté au sein de l'instance Java avec sa division SpringSource, qui vend une gamme de produits pour développer et déployer des applications Java.
Oracle fait office de poids lourd au sein du comité
Près de 23 % des membres éligibles se sont exprimés à l'occasion de cette élection, selon un communiqué d'Oracle posté cette semaine sur le blog officiel Aquarium. « C'est beaucoup plus que les 11 % obtenus lors de l'élection du comité spécial 2011 mais probablement moins que ce que l'on pouvait espérer », indique le blog. Oracle a pris le contrôle de Java suite au rachat de Sun Microsystems. Il détient donc un siège permanent au sein du comité, mais il ne domine par le JCP, selon un document interne au comité.
« Oracle, et d'autres membres du Comité exécutif (CE) servent de cautions technologiques pour accompagner le travail des Expert Groups (EG). Ce comité ne surveille pourtant pas au jour le jour les activités des EG. Le comité a toutefois la possibilité d'examiner le travail de chacun des groupes experts à des points bien définis afin de vérifier que les spécifications de Java sont bien respectées. Il s'agit d'éviter une fragmentation de Java comme l'ont connu Linux et plus récemment Android.
Oracle intraitable sur ses brevets
Pourtant, Oracle a défendu agressivement sa participation dans Java par le biais
d'actions en justice contre Google pour violation de sa propriété intellectuelle dans l'OS mobile Android. Et dans le passé, certains ont prétendu qu'Oracle avait tenté d'influencer - en coulisses - les résultats des élections au JCP.
Le comité exécutif a également perdu des membres prestigieux tels que l'Apache Software Fondation, qui a quitté le navire suite à ce qu'il considérait comme un contrôle indu d'Oracle sur Java.
(...)(02/11/2011 15:24:10)
Ubuntu voit son avenir sur les smartphones et tablettes
Canonical travaille avec les constructeurs pour porter Ubuntu sur les smartphones, les tablettes et les télévisions connectées, a déclaré son fondateur Mark Shuttleworth. L'éditeur n'a rien annoncé de particulier, mais son fondateur souhaite amener la distribution Linux au-delà du poste de travail fixe d'ici à 2014, date prévue pour la version 14.04. Les premiers produits apparaitront « au cours des 18 prochains mois » précise Mark Shuttleworth lors d'un entretien avec des journalistes.
Proposer rapidement un SDK
Les constructeurs devraient obtenir rapidement un SDK pour qu'ils puissent fabriquer des prototypes et les mettre à disposition des développeurs d'applications. Mark Shuttleworth indique que Canonical avait reçu des demandes de la part de certains fabricants pour trouver une alternative à des plateformes de plus en plus intégrées et verrouillées comme celles de Microsoft, Apple ou Google. Le fondateur met en avant l'interface graphique unifiée baptisée Unity, qui remplace Gnome. Cette interface peut être portée sur des smartphones et tablettes.
HP teste des serveurs avec 288 puces ARM Calxeda
Selon Hewlett-Packard, les serveurs en cours de développements basés sur l'architecture basse consommation ARM, seraient capables de réduire les besoins en énergie et en espace de 90% dans les entreprises exécutant certaines applications hébergées sur le web. Ces serveurs, construits autour d'un processeur 32 bits de Calxeda sous licence ARM, sont destinés aux géants de l'Internet comme Yahoo et Facebook, mais aussi à d'autres entreprises exécutant des applications cloud à grande échelle pour effectuer des tâches comme l'analyse de données, les services web et la diffusion de contenu online.
Les serveurs de HP intègrent 288 puces Calxeda ( sur base Cortex-A9) montées en racks serveurs 4U, soit 2 800 processeurs pour un rack complet, et partagent une alimentation, un système de refroidissement et la gestion de l'infrastructure. La suppression d'une part importante des câblages et des systèmes de commutation, présents dans les serveurs traditionnels, et l'utilisation de processeurs ARM basse consommation, permet, selon HP, de réduire à la fois la consommation et l'espace utile de façon spectaculaire. « Les premiers serveurs ARM seront livrés au cours du premier semestre 2012, » a déclaré Glenn Keels, directeur marketing de l'HyperScale Business Unit de HP. En précisant toutefois que ceux-ci seront réservés à des fins de test et d'évaluation seulement, et que HP n'avait pas, pour l'instant, programmé de date quant à leur mise éventuelle en production.
« Nous allons installer cette technologie sur site et permettre aux utilisateurs de tester le bon fonctionnement de leurs applications, » a déclaré le directeur marketing. Reste que HP franchit une étape majeure, puisque l'entreprise devient ainsi le premier constructeur important à annoncer un serveur à base d'ARM. L'enjeu est également important pour Calxeda, une start-up d'Austin, Texas, qui a mis au point sa technologie dans le plus grand secret et n'a même pas annoncé encore son premier produit.
Plusieurs architectures sont envisagées
D'ailleurs, « l'annonce faite par HP ne se limite pas à un nouveau serveur, » comme l'a précisé Glenn Keels. Le système Calxeda sera le premier d'une famille de serveurs très performant sur le plan énergétique. « Parallèlement au projet Calxeda, HP va continuer à développer d'autres serveurs Redstone en utilisant des puces basse énergie d'autres fondeurs, y compris les processeurs Atom d'Intel, » a indiqué le directeur marketing. « Il s'agit là beaucoup plus que d'un serveur, » a-t-il encore ajouté.
« Il s'agit d'une infrastructure, d'un programme d'habilitation auprès des clients. Il s'agit aussi de rassembler les partenaires de l'industrie derrière un projet visant à l'efficacité énergétique extrême. Tout cela va évoluer au cours des prochains trimestres et des années à venir. » Comme l'a déclaré Glenn Keels, « HP livrera pour tests son premier système ARM à 30 ou 40 de ses plus gros clients seulement. » Les autres clients auront accès aux laboratoires de HP aux États-Unis, en Chine et en France pour y tester leurs applications et voir si elles tournent correctement sur ce nouveau matériel.
Des puces ARM 32-bit à à 1,4 GHz
La plate-forme Redstone se compose d'un châssis rack serveur 4U (7 pouces). A l'intérieur, HP a mis 72 petites cartes serveur, intégrant chacune quatre processeurs Calxeda, 4 Go de RAM et 4 Mo de cache L2. Chaque processeur, basé sur l'architecture ARM Cortex-A9, tourne à 1,4 GHz et dispose d'un switch crossbar de 80 gigabits pour les échanges. Si les clients souhaitent plus de capacité de stockage que de puissance de calcul, les cartes serveur peuvent être remplacées par des disques durs de 2,5 pouces ou des SSD. Selon Glenn Keels, « un demi-rack de serveurs Calxeda permet d'abattre autant de travail que 10 racks équipés de serveurs x86, pour l'exécution de certaines applications, comme Hadoop ou Apache Web Server. » Avec un autre avantage, « les serveurs Calxeda ne nécessitent que 9 kilowatts, soit 10 fois moins d'énergie que les serveurs x86. »
[[page]]
Hewlett-Packard n'est pas le seul à travailler sur des serveurs adaptés aux environnements à très grande échelle. SeaMicro propose un serveur 10U du nom de SM10000. Celui-ci intègre 512 coeurs Intel Atom et utilise le même principe d'infrastructure partagée que le Redstone de HP. Dell construit des serveurs destinés à de gros clients et intégrants divers types de processeurs basse énergie. L'entreprise expérimente aussi des serveurs intégrant des puces ARM.
Les serveurs à base de processeurs ARM posent aujourd'hui plusieurs défis. Tout d'abord, il n'existe pas actuellement de processeur ARM 64-bit, ce qui limite la quantité de mémoire disponible que les serveurs d'HP peuvent utiliser, et par conséquent le type d'applications et de VM qu'ils seront en mesure d'exécuter. ARM vient d'annoncer son premier processeur 64-bit, mais celui-ci ne sera pas prêt avant 2014. L'usage de processeurs 32-bit réduit aussi le choix dans le logiciel serveur, dans une offre déjà relativement maigre.
« Il y a une version Fedora Linux de Red Hat pour processeurs ARM 32-bit, » a indiqué Glenn Keels, et « Canonical a annoncé une version 32-bit d'Ubuntu pour ARM, » a-t-il annoncé. Ces limitations permettent de dire que, pour la plupart des clients, les serveurs x86 traditionnels occuperont pour quelque temps encore une place dominante. « Nous n'allons pas du tout réduire nos environnements traditionnels x86. Ils vont continuer à être les bêtes de somme de nos centres de calcul. Au moins pour le reste de la décennie, » a déclaré Glenn Keels.
Oracle propose une version d'évaluation de sa base NoSQL
Une version d'évaluation de l'édition Enterprise d'Oracle NoSQL Database, récemment annoncée, peut être téléchargée depuis quelques jours sur le site OTN (Oracle Technology Network) de l'éditeur. Cette base NoSQL, qui repose sur Berkeley DB, est l'un des composants clé de l'offre Big Data Appliance que la société va livrer au cours du premier trimestre 2012. Elle conviendra aux clients d'Oracle « qui récupèrent d'importants volumes d'informations sans savoir encore comment ils vont les traiter et veulent capturer ces données de façon plus fluide », a expliqué Marie-Anne Neimat, vice-présidente, responsable du développement des bases de données chez Oracle, et fondatrice de TimesTen. Des propos rapportés par nos confrères d'IDG News Service.
Ces dernières années, les solutions de ce type se sont multipliées afin de contourner l'architecture SQL typique pour permettre aux bases de s'étendre plus facilement et d'améliorer leurs performances. Elles sont utilisées pour stocker des informations générées par l'activité des systèmes informatiques (les logs), ou bien remontées par divers capteurs et compteurs, ou encore tirées des réseaux sociaux et des sites de e-commerce, rappelle l'éditeur. Pour l'analyste Curt Monash, de Monash Research, les bases NoSQL sont également adaptées aux grandes entreprises qui exploitent des bases Oracle, les solutions relationnelles ne constituant pas le meilleur choix pour certains types de tâches. Curt Monash estime qu'il y a bien une place pour une option NoSQL dans les comptes qui ont choisi Oracle. C'est donc tout à fait normal que l'éditeur cherche à la coopter, écrit-il sur son blog.
NoSQL convient aussi pour stocker des données qui ne sont pas essentielles, afin de soulager les bases plus structurées. Curt Monash rappelle à ce sujet un problème récemment rencontré par la banque JP Morgan Chase. Cette dernière avait stocké sur la même base des données financières transactionnelles et des informations sur les utilisateurs. Les transactions financières ont été ralenties par l'afflux sur le site web d'utilisateurs venus effectuer des vérifications sur le site après un crash. En conservant les données de ces derniers sur une base séparée, éventuellement NoSQL, ce problème aurait pu être évité, estime l'analyste.
L'administrateur ajuste la réactivité
Oracle NoSQL repose sur la version Java de Berkeley DB, base Open Source développée par l'Université de Californie Berkeley, très utilisée dans les systèmes embarqués. Elle utilise un modèle de données clé/valeur simple, ce qui signifie qu'un programme peut aller chercher la donnée requise en fournissant la clé appropriée ou un identifiant numérique. Si elle n'offre pas la possibilité d'effectuer des requêtes subtiles et fortement structurées comme on le ferait avec une base relationnelle SQL, elle n'impose pas un schéma sous-jacent figé. Il est donc possible d'ajouter des colonnes au fur et à mesure que de nouveaux types d'informations sont récupérés, explique Marie-Anne Neimat, d'Oracle.
(.../...)
[[page]]
Le logiciel permet par ailleurs aux administrateurs d'ajuster la rapidité les temps de réponse en fonction du niveau de cohérence qu'ils veulent obtenir sur la base (suivant le temps nécessaire pour stocker les informations afin que chaque utilisateur connecté dispose de la même vue sur les données). « Quand une mise à jour se fait, elle peut être appliquée à un seul noeud, à la majorité des noeuds, ou à la totalité. Cela permet de gérer plus facilement la cohérence, indique Marie-Anne Neimat. La base va pouvoir être dimensionnée à un rythme presque linéaire, ce qui signifie que la capacité peut s'accroître de façon uniforme au fur et à mesure que l'on ajoute des serveurs au cluster. Oracle a construit un cluster de 300 noeuds avec sa base de données, quoique, en théorie, il n'y ait pas de limite à la taille du cluster qui pourrait être construire », a ajouté Marie-Anne Neimat.
La localisation de toutes les données sera tracée et conservée par une bibliothèque cliente qui peut être reliée à une application. La bibliothèque Java dirige les requêtes vers le noeud qui conserve la copie de la donnée. Les programmeurs font interagir leurs applications avec la base de données à travers une API Java.
Clés principales et clés secondaires
Les clés principales peuvent elles-mêmes avoir des clés secondaires qui dirigent vers différents champs au sein du même enregistrement. Ces clés secondaires peuvent être utilisées pour ajouter des champs de données aux enregistrements existants. « Vous disposez de flexibilité sur la façon d'associer les attributs et les enregistrements », indique Marie-Anne Neimat. « Vous n'êtes pas encore sûrs de ce que vous voulez faire des données, mais vous savez que vous souhaitez les conserver pour les analyser plus tard ».
« Les enregistrements qui partagent la même clé racine sont tous sur la même partition, tous sur le même noeud. Vous pouvez mettre à jour un grand nombre d'enregistrements, faire des insertions, y accéder ou les supprimer en utilisant la clé principale », complète-t-elle. Les administrateurs peuvent interagir avec la base de données à partir d'une console web qui permet de gérer et de surveiller la topologie, ainsi que de faire de l'équilibrage de charges entre les différents noeuds.
Oracle va proposer une version communautaire gratuite de la base et une version commerciale qui sera enrichie de fonctions supplémentaires. Pour l'instant, l'éditeur propose gratuitement une version d'évaluation.
Illustration : Oracle NoSQL Database
Virtualisation imbriquée et support OpenRISC pour le dernier noyau Linux
Le développeur américano-finlandais a profité du Kernel Summit, qui se tient actuellement (23-25 octobre 2011) à Prague pour publier la dernière version du noyau de Linux, la 3.1. Une particularité de cette mise à jour : pour la première fois, le kernel sera temporairement disponible sur le service d'hébergement et de gestion de développement de logiciels GitHub, le temps de remettre en ordre sa maison habituelle, Kernel.org, et réparer les dégâts causés par une intrusion récente repérée dans ses serveurs.
Linux 3.1 apporte à l'hyperviseur KVM (Kernel-based Virtual Machine) intégré au noyau plusieurs nouveautés dont le support de la virtualisation imbriquée. Cette fonctionnalité, basé sur le Nested VMX d'AMD permet de lancer une instance à l'intérieur d'une autre instance. Linux KVM permet également de profiter de la technologie SMEP (Supervisory Mode Execute Protection) des processeurs prochaine génération Ivy Bridge d'Intel, ce qui devrait réduire certains défauts de performance généralement associés aux clients virtuels et permet de protéger les systèmes invités.
Ajuster la mémoire allouée à une VM
Les utilisateurs de l'hyperviseur Xen gagnent aussi quelques fonctionnalités supplémentaires : Linux 3.1 sera la première version du noyau à permettre aux machines virtuelles Xen de reconnaître des périphériques connectés directement à un bus PCI. Cette fonction était auparavant possible uniquement après l'application d'un patch Xen. Autre ajout, le Balloon Driver de Xen, qui permet de faire du « self-ballooning », c'est à dire d'ajuster et de répartir la quantité de mémoire allouée à une machine virtuelle invitée.
Côté processeurs, Linux 3.1 est la première version du Kernel à pouvoir être exécutée par la famille de processeurs 32-bit OpenRISC 1000. Issue de la communauté OpenCores, l'architecture OpenRISC, est un projet soutenu par des bénévoles qui cherchent à concevoir des puces - des IP Cores - sous licence libre. Linux 3.1 intègre aussi un patch qui permet de prendre en charge la dernière version du processeur Sparc T3 d'Oracle.
Crédit photo : D.R. (...)(25/10/2011 10:27:19)La ville de Toulouse rejoint l'APRIL
L'association de promotion et de recherche en informatique libre (APRIL) vient d'indiquer que la ville de Toulouse l'a rejoint le samedi 22 octobre 2011. A cette date, le député-maire, Pierre Cohen a en effet signé la convention d'adhésion dans le cadre de La Novela (« festival des savoirs partagés »), lors de la manifestation Toulouse Numérique.
La Ville Rose est la première grande ville à sauter le pas d'un tel soutien officiel au logiciel libre en tant que tel. Il y a quatre ans, la première commune à avoir adhéré était beaucoup plus modeste puisqu'il s'agissait de Pierrefitte-sur-Seine.
Wikipedia indique : « Avec 439 553 habitants au 1er janvier 2008, [Toulouse] est la quatrième commune la plus peuplée de France, après Paris, Marseille et Lyon. En 2008, l'agglomération regroupait 864 936 habitants2, tandis que l'aire urbaine en regroupait 1 202 8893. » L'encyclopédie libre accorde, à la même date, 28 871 habitants à Pierrefitte-sur-Seine.
Le député-maire de Toulouse, Pierre Cohen, a soutenu à de nombreuses reprises l'emploi de logiciels libres dans sa commune. L'APRIL a ainsi rappelé que Pierre Cohen a signé par deux fois le Pacte du Logiciel Libre (élections législatives de 2007 et municipales de 2008).
Toulouse était déjà membre depuis novembre 2006 de l'Adullact (Association des Développeurs et des Utilisateurs de Logiciels Libres pour les Administrations et les Collectivités Territoriales). Cette dernière association a un rôle plus opérationnel, notamment en gérant de la mutualisation de développements, et moins politique que l'APRIL.
Crédit Photo: D.R
< Les 10 documents précédents | Les 10 documents suivants > |