Intel a investi 16,7 Md$ en 2016 pour acquérir le fabricant de FPGA Altera, tandis qu'AMD a dépensé plus de 35 Md$ en 2020 pour s'emparer de Xilinx, mais les deux entreprises ont peu ou rien à montrer pour ces investissements. Pour le quatrième trimestre, le chiffre d'affaires du segment embarqué d'AMD (comprenant l'activité FPGA) s'est élevé à 923 M$, en baisse de 13 % par rapport au trimestre de l'année précédente. Pour l'ensemble de l'année, le chiffre d'affaires de cette activité a été de 3,6 Md$, en recul de 33 % sur un an. Intel ne s'en est pas mieux sorti : pour le quatrième trimestre, Altera a généré un chiffre d'affaires de 429 M$, en progression de 4 % par rapport au trimestre précédent. Pour ce premier trimestre, la firme de Santa Clara prévoit une baisse séquentielle du chiffre d'affaires d'Altera. Un retour sur investissement médiocre pour les deux entreprises.
Les FPGA, remarquables parce qu'ils peuvent être reprogrammés pour de nouvelles tâches de traitement, semblent avoir perdu de leur éclat dans l'engouement autour de l'IA générative. Les GPU sont à la mode, ou dans certains cas, des circuits personnalisés spécialement conçues pour l'inférence. Alors, où cela laisse-t-il les FPGA ? Sur le bord de la route, semble-t-il. Intel a scindé l'unité commerciale Altera en une société distincte, tandis qu'AMD n'a pas mentionné les FPGA lors de son dernier appel sur les résultats. Une partie du problème est que les FPGA sont spécialisés dans une seule tâche. Intel et AMD utilisent leurs FPGA pour concevevoir des SmartNIC, des cartes réseau haut de gamme. « Je vois ces choses comme des cartes réseau extrêmement puissantes et rien de plus, ou très peu au-delà », a déclaré Alvin Nguyen, analyste principal chez Forrester Research. « Je pense que l'IA et l'IA générative ont aidé à détourner l'attention de l'utilisation des FPGA. Et je pense qu'il y avait déjà des mouvements dans ce sens avant la révolution de l'IA générative, qui ont accéléré la tendance à ne pas regarder les FPGA pour les applications haut de gamme. Je pense que maintenant, c'est [tout sur] Deepseek et c'est un peu le bon moment pour remettre les compteurs à zéro », a-t-il ajouté.
L'effet Deepseek
L'une des raisons pour lesquelles Deepseek AI a tant secoué Wall Street est que l'entreprise chinoise a atteint des performances comparables à celles de ChatGPT et de Google Gemini sans dépenser des milliards de dollars pour l’entrainement en utilisant des GPU Nvidia H100, ce qui était d’ailleurs impossible pour cause d’embargo sur ces composants. Cela a été réalisé en utilisant des GPU moins performants, les H800, considérablement moins chers que leurs homologues haut de gamme. Cela signifie que tout n'est peut-être pas perdu pour les FPGA. « Après que Deepseek ait montré que l'on pouvait utiliser des circuits couramment disponibles, les FPGA pourraient redevenir précieux », a déclaré M. Nguyen. Mais, ajoute-t-il, « ils ne seront pas précieux pour tous les charges de travail IA comme les LLM, où vous avez besoin de la plus grande quantité de mémoire, de la plus grande bande passante réseau, de la plus grande capacité de calcul disponible en termes de GPU. » L'analyste suggère que Deepseek montre que l'on n'a pas nécessairement besoin de milliards de dollars de GPU Nvidia de pointe ; on peut se contenter d'un FPGA ou d'un CPU ou utiliser des GPU moins performants. « Je pense que c'est un peu un moment "wahou" intéressant du point de vue de l'IA, pour montrer qu'il y a un nouveau seuil bas qui est fixé. Si vous pouvez utiliser des CPU avec beaucoup de mémoire, ou dans ce cas, si vous pouvez regarder les FPGA et obtenir quelque chose de très spécialisé, vous pouvez monter un cluster à moindre coût. »
Cependant, Bob O'Donnell, président et analyste en chef de Techpinions, n'est pas d'accord avec la comparaison. « Les FPGA sont utilisés dans un grand nombre d'applications différentes, et ils ne sont pas vraiment comparables avec les GPU. Ils sont un peu différents », a-t-il souligné. Le problème avec les FPGA est qu'ils ont toujours été extrêmement difficiles à programmer et très spécialisés. Par conséquent, très peu de personnes savent vraiment comment les exploiter. Mais pour ceux qui le font, il n'y a pas de remplacement, et ils ne sont généralement pas utilisés pour les mêmes types de tâches que les GPU, a-t-il précisé. Si l’analyste s’interroge toujours sur le retour sur investissement d’Intel suite au rachat d’Altera, il estime qu'AMD en a eu, car l'unité de traitement neuronal (NPU) d'AMD pour l'accélération de l'IA dans ses CPU provient de la technologie Xilinx. « C'était l'idée, d'utiliser une partie de la propriété intellectuelle de Xilinx et de l'intégrer dans un PC. En fait, AMD a été le premier à avoir une sorte de NPU. Ils étaient bien en avance dans le jeu », a indiqué l’analyste. Ce dernier rappelle que les les affirmations de Deepseek concernant l'utilisation de matériel bas de gamme sont toujours d’actualité . « Mais il est juste de dire que cela a soulevé la question de savoir si l'on peut exécuter des modèles puissants sur beaucoup moins de matériel que ce que l'on nous disait nécessaire », a ajouté l’analyste.
Commentaire