Quelle a été selon vous la contribution la plus importante du centre de Cambridge ? Rick Rashid : C'est un peu comme me demander lequel de mes enfants j'aime le plus. C'est une question à laquelle il est difficile de répondre. Il y a un certain nombre de choses dont je suis content. En particulier, les travaux de Cambridge ont eu un impact direct dans les travaux sur la genèse de .Net et notamment sur la définition de la CLR. On peut aussi tracer à Cambridge l'origine des technologies pair à pair de Vista. La liste pourrait être longue. Mais très franchement ce n'est pas la raison pour laquelle nous faisons de la recherche fondamentale. Notre but n'est pas de créer de nouveaux produits, mais d'être là lorsque le monde change. La recherche nous permet d'être agiles, de changer lorsque c'est nécessaire, de nous préparer face à l'irruption de nouvelles technologies. Le fait d'avoir un réservoir de personnes brillantes au sein de la société permet de mieux évoluer face aux changements brutaux. A ce titre les investissements de Microsoft en recherche sont parmi les plus lucratifs pour la société. "On investit dans la recherche pour être encore là dans dix ans" Vous savez, quand nous avons commencé, l'une des choses les plus difficiles était de convaincre des chercheurs de venir travailler pour Microsoft. Je me rappelle d'un pari en 1992 avec un de mes meilleurs amis professeur au MIT - qui me demandait pourquoi j'allais chez Microsoft, une société qui, disait-il pourrait ne plus être là dans cinq ans. Le pari était de savoir si Microsoft ou Digital Equipment seraient encore là dans dix ans. Six ans plus tard, DEC, l'un des titans de l'informatique de l'époque, n'était plus. C'est pour cela que l'on investit dans la recherche fondamentale, pour être encore là dans dix ans... Il y a un certains nombre de sujets sur lesquels nous avons travaillé, qui n'avaient a priori aucun intérêt pour la société et qui, quelques années plus tard, se sont révélés être essentiels pour son avenir. C'est pour des raisons similaires que des gouvernements investissent dans la recherche fondamentale afin que leur pays se prépare à l'avenir, qu'il ait un réservoir de personnes talentueuses et formées. Le Royaume Uni et notamment Cambridge ont été un des berceaux des recherche sur la construction d'un "ordinateur" avec les travaux de chercheurs comme Newton. C'est aussi en Angleterre que, pendant la guerre, de grands progrès ont été effectués avec les travaux de Turing qui ont largement défini l'algorithmie moderne ainsi que les fondamentaux de l'architecture d'un ordinateur. Certains considèrent qu'il n'y a pas eu d'évolution fondamentale au cours des 60 à 70 dernières années, que nous vivons encore largement sur les acquis de Von Neumann et Turing et qu'il faudra une évolution fondamentale des architectures informatiques pour voir une vraie évolution du logiciel. Qu'en pensez-vous ? Rick Rashid : C'est une question très large. Nous évoluons en permanence. Les concepts de base des automates de calculs datent des années 1600 et 1700. Il y a aujourd'hui des recherches lourdes autour du quantum computing qui ont le potentiel de changer fondamentalement la façon dont nous approchons l'informatique. Mais cela ne veut pas dire que notre connaissance des systèmes informatiques ne progresse pas hors de ces domaines. En fait, la recherche en informatique a beaucoup progressé au cours des récentes années. Nous avons aujourd'hui une bien meilleure compréhension de ce qu'est un système informatique. Notre compréhension de ce qu'est un programme a évolué de façon spectaculaire au cours des cinq dernières années. Nous pouvons désormais faire des affirmations formelles sur un programme contenant plusieurs centaines de milliers de lignes de code et prouver son fonctionnement. Nous n'étions pas capables de le faire jusqu'alors. Nous avons aussi une bien meilleure compréhension des types de données. L'usage de méthodes statistiques a aussi permis de faire évoluer des pans entiers de la recherche informatique par exemple en matière de "machine learning". Notre discipline a donc considérablement évolué même si elle reste contrainte par des architectures. Andrew Herbert : Je me souviens que, lorsque j'ai commencé ma carrière informatique, le premier ordinateur que j'ai utilisé aurait pu être une machine de Turing. Le nombre d'instructions était tellement restreint que je crois que je pourrais encore les réciter de tête. Si je regarde un processeur moderne, il me faudrait de multiples couches de machines de Turing pour expliquer ce qu'il se passe. C'est un modèle bien plus riche. Rick Rashid : En fait je ne suis pas sûr que Von Neumann ou Turing reconnaîtraient leurs petits en voyant un ordinateur moderne. Tout a beaucoup évolué
Entretien : dix ans de recherche chez Microsoft
0
Réaction
Newsletter LMI
Recevez notre newsletter comme plus de 50000 abonnés
Commentaire