Intel prévoit un processeur spécifiquement conçu pour l’apprentissage profond, nettement plus rapide que les GPU actuels

Le domaine de l’intelligence artificielle est en ébullition, ces dernières années, sur la flamme des réseaux neuronaux profonds. La limite principale à l’épanouissement complet de ce domaine est souvent la puissance de calcul : l’apprentissage d’un réseau neuronal profond actuel peut durer plusieurs jours, plusieurs semaines, même sur des architectures très bien adaptées — actuellement, les processeurs graphiques (GPU) fournissent la plupart de la puissance des machines dans le domaine.

Intel ne veut pas rester en arrière : le fondeur américain prévoit de sortir ses puces Lake Crest, spécifiquement prévues pour ce type de calculs, pendant la première moitié de 2017. En quelques chiffres, les spécifications prévues relèvent du superlatif : 32 Go de mémoire HBM2 intégrée au processeur, avec une bande passante de 1 To/s. L’accès à la mémoire centrale se fera aussi avec une bande passante de 1 To/s. Les prévisions d’Intel sont d’accélérer d’un facteur 18 les calculs par rapport à la solution actuelle la plus rapide avec cette puce — son successeur, attendu à l’horizon 2020, devrait avoir un facteur d’accélération de l’ordre de 100 par rapport au meilleur matériel actuel.

Cette vitesse n’est atteinte que par une combinaison astucieuse de composants logiciels et d’optimisations matérielles, issues du rachat de Nervana. Les ingénieurs se sont focalisés sur deux opérations très courantes pour les réseaux neuronaux profonds actuels : le produit matriciel et la convolution. Ces deux opérations correspondent également à une bonne partie du code de calcul scientifique habituel (même si la convolution est plus orientée traitement de signal). Ainsi, même si la recherche sur les réseaux neuronaux se porte sur d’autres algorithmes et structures pour les réseaux, ce matériel devrait toujours être adapté.

Il s’agit d’un exemple assez frappant de spécialisation du matériel pour des tâches très spécifiques. Intel propose maintenant une gamme assez large de produits donnant de très bons résultats pour l’apprentissage profond : depuis les processeurs “standard”, pouvant effectuer n’importe quel type de calcul (Core, Xeon), jusqu’à ces cartes hyper spécialisées (Lake Crest), en passant par les Xeon Phi (orientés calcul très parallèle, avec de très nombreux cœurs) et les FPGA Arria 10 (processeurs reconfigurables).

D’un point de vue technique, ces puces Lake Crest pourront agir comme coprocesseur (comme les Xeon Phi de première génération). Les parties de calcul des différents cœurs sont cependant entièrement différentes : l’architecture Flexpoint est prévue pour augmenter le niveau de parallélisme des opérations d’un facteur 10. Une puce Lake Crest devrait contenir douze unités de calcul, chacune présentant plusieurs cœurs. Elle devrait aussi avoir douze liens vers d’autres processeurs pour faciliter l’intégration dans les centres informatiques.

Sources et images : Intel’s Lake Crest Chip Aims At The DNN/AI Sector – 32 GB HBM2, 1 TB/s Bandwidth, 8 Tb/s Access Speeds, More Raw Power Than Modern GPUs, Nervana – Neue Details zu Intels Plattform für Künstliche Intelligenz.

Advertisements

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s