Les unités de traitements graphique et tensoriel (GBU et TPU) sont pour l’intelligence artificielle ce que le cerveau est pour l’homme. A travers leur puissance de calcul complexe, les GBU et les TPU sont le moteur même de l’essor du développement de l’IA. D’où la croissance de leur demande, qui subsistera aussi longtemps que les intelligences artificielles vont se développer. Ce mini guide vous donne les informations essentielles à retenir sur les processeurs GPU et TPU.
GPU et TPU, c’est quoi ?
Les GPU (Graphics Processing Units) désignent les unités de traitement graphique, et les TPU (Tensor Processing Units) les unités de traitement tensoriel. Voici les particularités de chacun de ces processeurs.
L’unité de traitement graphique (GPU)
A l’origine, les GPU sont développés pour améliorer la qualité des images et des graphiques dans les ordinateurs. Leur fonction consiste à décomposer des problèmes complexes en plusieurs tâches et à les résoudre de façon simultanée, plutôt qu’une à une. Reposant sur système de traitement parallèle, leur puissance s’est progressivement étendue aux systèmes informatiques, et notamment à l’intelligence artificielle.
Les GPU s’imposent aujourd’hui comme des systèmes indispensables pour déployer des modèles d’apprentissage profond des IA.
L’unité de traitement tensoriel (TPU)
Contrairement aux GPU dont la création remonte dans les années 1980, les TPU ont été mis au point récemment (en 2016) par Google. Ils constituent une sorte de circuit intégré, propre à une application (Application-specific integrated circuit – ASIC) permettant d’accélérer des charges de travail dans le domaine de l’apprentissage automatique.
Les TPU sont donc créés dans le but de pallier les exigences croissantes en matière de calcul, à savoir les opérations tensorielles. Leur architecture optimisée permet une installation centralisée, ce qui aide à l’exécution efficace et rapide des réseaux neuronaux complexes à travers la multiplication matricielle.
Combien coûtent les GPU et les TPU ?
N’étant pas tout à fait développés avec les mêmes technologies, les GPU et les TPU ont des coûts très différents. Mais ceux des GPU sont plus flexibles, en ce sens que ce sont des processeurs qui peuvent aussi se vendre à l’unité. Ce n’est pas le cas des TPU, qui sont quant à eux proposés sous la forme d’un service cloud, avec l’intermédiation de fournisseurs comme Google Cloud Platform (GPC).
A titre indicatif, le coût d’un GPU oscille entre 8 000 et 15 000 dollars, notamment sur des modèles comme GPU NVIDIA V100 et GPU NVIDIA A100. Il existe cependant aujourd’hui des modèles cloud de GPU. Leur tarification horaire s’évalue à environ 2,48 dollars pour le GPU NVIDIA V100, et 2,93 dollars pour le NVIDIA A100.
Dans le même temps, la Google Cloud TPU V3 coûte le double par heure (environ 4,50 dollars), et la Google Cloud TPU V4 encore plus (environ 8 dollars l’heure). Cette différence de prix pourrait se justifier par l’ancienneté des GPU dont l’efficacité technologique est loin d’égaler la technologie à grande échelle des TPU.
GPU et TPU : quelle efficacité énergétique ?
Pour évaluer l’efficacité énergétique des GPU et des TPU, il faut prendre en considération leur architecture et le type d’application auquel ils sont dédiés. Plusieurs tests ont démontré que les TPU sont plus économes par rapport au GPU sur le plan énergétique.
On remarquera que le GPU NVIDIA A100 est plus énergivore, consommant environ 400 watts par carte. La Google Cloud TPU v3 consomme en revanche seulement 150 watts par puce.