Actualités

Google a développé une puce dédiée au machine learning

Tout le monde connait déjà les acronymes CPU (Central Processing Unit) et GPU (Graphics Processing Unit). Il faudra désormais vous faire avec les TPU (Tensor Processing Unit). Rassurez-vous, vous n’avez pas besoin de changer de PC pour en profiter. Cette puce d’un nouveau genre possède une fonction très particulière : le machine learning.

C’est lors de la conférence Google I/O que Sundar Pichai, le patron du géant du web, a présenté cette nouvelle puce conçue par les ingénieurs de la firme de Mountain View. Il explique qu’elle offre de meilleures performances par watt que les puces existantes. Elle ne va pas remplacer les GPU actuellement utilisés, mais être ajoutée pour accélérer les processus de machine learning.

Alors que la loi de Moore est en train d’atteindre ses limites après avoir dicté pendant 40 ans l’évolution de la puissance des processeurs, Google affirme que son TPU procure un gain de puissance équivalent à trois générations futures de processeur selon la loi de Moore. Il faut comprendre que cela correspond à une avancée technologique équivalente à près de 7 ans.

Urs Hölzle, vice-président senior de Google pour l’infrastructure technique, a déclaré que le TPU peut augmenter la vitesse des processus de machine learning, mais que certaines fonctions nécessitent encore des processeurs et des GPU. Il révèle également que cela fait deux ans que le développement de cette puce a commencé.

Il indique que des milliers de puces sont déjà en cours d’utilisation, qu’elles sont capables de tenir dans le même espace que les disques durs dans les racks des centres de données, ce qui simplifie son déploiement. Il précise que tous les systèmes n’ont pas encore besoin d’être équipés d’un TPU à l’heure actuelle.

Le terme « heure actuelle » est important dans sa phrase. En effet, il est bon de rappeler que l’intention de Google est de généraliser au maximum le machine learning. À l’instar de la fonction Smart Reply de Gmail, cette intelligence artificielle qui vise à apprendre en réalisant des tâches est déjà en production.

Dans un billet de blog, l’ingénieur Norm Jouppi explique qu’il ne faut pas considérer le TPU comme un CPU ou un GPU, à savoir une puce capable de faire des opérations, mais comme une puce d’accélération. Il faut comprendre qu’elle sert à accélérer des tâches spécifiques au machine learning, que cela soit pour la reconnaissance vocale, la traduction ou la compréhension des requêtes.

Alors que d’autres entreprises se sont aussi lancées dans l’utilisation du machine learning pour leurs services, comme Microsoft pour son Skype Translator, Diane Greene, la responsable de l’activité cloud de Google, a indiqué que l’intention de la firme de Mountain View n’est pas de commercialiser cette puce. Cette décision consiste certainement à ne pas vouloir aider la concurrence, mais vraisemblablement aussi un moyen pour ne pas divulguer le prix de son développement.

À croire l’analyste Patrick Moorhead, tout ne sert pas encore clair au sujet du TPU, notamment des fonctions que la puce serait le mieux à même de remplir. On devrait en savoir plus à ce sujet cet automne, c’est ce qu’a promis Urs Hölzle en indiquant qu’un document sur la puce sera publié en fin d’année.

Si cet article a captivé votre intérêt, vous trouverez certainement les prochains tout aussi passionnants. Assurez-vous de ne rien manquer en vous abonnant à linformatique.org sur Google News. Suivez-nous aussi sur Facebook et Twitter.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page