Intel préparerait son GPU dédié

Intel tente depuis longtemps de se créer une place sur le marché fort lucratif des processeurs graphiques — de plus en plus lucratif, d’ailleurs, depuis l’explosion de l’apprentissage profond et des cryptomonnaies. La première tentative date de 1998, avec la 740, une carte graphique AGP à la performance décevante ; les évolutions successives sous la marque Extreme Graphics n’étaient pas mieux reçues. En 2006, Intel tente de percer avec son architecture Larrabee : au lieu d’utiliser des cœurs de calcul extrêmement nombreux (plusieurs centaines, voire milliers) et spécifiques, l’idée était d’utiliser un grand nombre de cœurs (plusieurs dizaines) totalement indépendants ; l’idée a fait un flop comme carte graphique, mais est réapparue sous la forme de la ligne de produits Xeon Phi. Les premiers composants graphiques véritablement utiles sont apparus en 2010, avec l’intégration aux processeurs Core, sous les marques HD Graphics, puis Iris Pro/Plus Graphics et UHD Graphics.

Cependant, la firme de Santa Clara a récemment recruté Raja Koduri, un gros contributeur au renouveau d’AMD du côté des cartes graphiques. De plus, certains processeurs viennent avec une carte Radeon, sous licence d’AMD. Ces quelques éléments semblent indiquer qu’Intel est de plus en plus sérieux au niveau de la puissance des cartes graphiques.

Il semblerait que les douzième et treizième générations de processeurs graphiques portent les noms de code Arctic Sound et Jupyter Sound. Ces deux puces seraient entièrement développées par Intel et reliées au processeur central par un lien EMIB (les deux seraient disposées dans le même boitier). On s’attend à les voir vers 2020, mais un retard n’est pas à exclure.

Source : Arctic & Jupiter Sound: Intel bestätigt die Entwicklung von eigenständigen GPUs unter Raja Koduri.

Advertisements

Samsung annonce une mémoire HBM2 avec un débit de 2,4 Gb/s par pin

Le CES est l’occasion rêvée par bon nombre de constructeurs d’annoncer leurs nouveaux produits de haute technologie. Samsung a ainsi annoncé Aquabolt, sa nouvelle puce de mémoire HBM2. En quelques mots comme en cent, cette nouvelle génération est bien plus rapide que la précédente, avec un débit maximum de 2,4 Gb/s par pin et huit banques de mémoire empilées par puce. Avec cette technologie, il sera donc possible de proposer des cartes graphiques avec trente-deux gigaoctets de mémoire et une bande passante de 1,2 To/s dans le tout haut de gamme (avec quatre puces de HBM2, donc).

L’autre amélioration concerne la consommation d’énergie : ces puces fonctionnent avec une tension de 1,2 V. La génération précédente fonctionnait soit à 1,2 V (et un débit de 1,6 Gb/s et par pin), soit à 1,35 V (à 2 Gb/s). La consommation énergétique pourrait ainsi baisser de cinquante pour cent par rapport à la génération précédente.

Ces améliorations sont dues à la conception de la connexion entre les différents étages de la puce (TSV, through-silicon via) : on compte en effet pas loin de cinq mille de ces liens. Le contrôle de la dissipation de chaleur a aussi été amélioré.

Reste à voir si toute cette puissance sera réellement utilisable : même si la génération précédente pouvait fonctionner à 2 Gb/s, AMD la configurait pour n’utiliser que 1,9 Gb/s et NVIDIA… 1,75 Gb/s.

À la concurrence, SK Hynix lance aussi sa mémoire avec les mêmes spécifications, tant en termes de débit que de tension de fonctionnement.

Sources : Samsung Unleashes Fastest Ever HBM2 ‘Aquabolt’ Capable Of Achieving 2.4 Gbps On 1.2v, Increasing Performance Per Watt By 50%, SK Hynix va aussi lancer une HBM à 2.4 Gbps.

Production de GDDR6 : Samsung et SK Hynix dans la danse

Les nouvelles s’enchaînent au niveau de la prochaine génération de mémoire “conventionnelle” pour cartes graphiques, la GDDR6. Micron avait fait la première annonce, avec une qualification de son processus de fabrication — mais pas encore de grands volumes de production.

Samsung sera donc le premier à dégainer sa production de masse. Ses puces de mémoire sont fabriquées sur un processus 1x nm (que Samsung décrit comme le plus avancé, sans préciser exactement le X). La densité par rapport au nœud précédent (20 nm) est doublée : chez Samsung, à taille égale, une puce de mémoire GDDR5 montait à huit gigaoctets ; maintenant, en GDDR6, il faut compter seize gigaoctets. Le débit par pin annoncé est de dix-huit gigabits par seconde (septante-deux gigaoctets par puce), pour une tension de 1,35 V (par rapport à 1,55 V, cela représente une économie de l’ordre de trente-cinq pour cent en puissance).

SK Hynix a par la suite annoncé ses propres puces de GDDR6. La densité est moindre que chez Samsung (huit gigaoctets par puce), tout comme les débits : de dix à quatorze gigaoctets (jusque cinquante-six gigaoctets par puce) — le gain par rapport à la GDDR5X, par exemple, est donc minime. Par contre, les gains pourraient être plus marqués au niveau de la consommation énergétique : SK Hynix propose des modèles à 1,35 V, comme Samsung (pour des débits de douze à quatorze gigabits par seconde), mais aussi à 1,25 V (dix à douze gigabits par seconde).

Sources : Samsung Begins Mass Producing Fastest 18 Gbps GDDR6 Memory For High Performance Graphics Cards – Up To 24 GB of VRAM, 864 GB/s Bandwidth, La GDDR6 annoncée disponible chez SK Hynix.

Fuites sur les prochains processeurs Intel de 8e génération pour ordinateur portable

Ces derniers jours, quelques fuites ont précisé les plans d’Intel pour sa prochaine génération de processeurs pour ordinateurs portables. Jusqu’à présent, seuls des processeurs pour ordinateurs de bureau avaient été annoncés, avec des quantités disponibles très faibles fin de l’année dernière. La nouveauté principale de cette huitième génération est le nombre de cœurs disponibles : le bas de gamme passe à quatre cœurs (au lieu de deux) et le haut de gamme à six (au lieu de quatre). Cependant, peu d’informations avaient filtré sur l’offre pour ordinateurs portables.

Les récentes fuites ont d’abord concerné les modèles à très basse consommation, puis le haut de la gamme. Ainsi, on verra des i9 sur des ordinateurs portables, dans une gamme intermédiaire entre les i7 et les Xeon. Petit tour d’horizon.

La puce la plus haut de gamme sera le i9 8950HK : six cœurs, une consommation de 45 à 65 W (inchangée depuis plusieurs générations), avec une fréquence maximale en turbo de… 4,8 GHz, certes pour un seul cœur (4,3 GHz tous cœurs actifs). Cela représente une belle évolution, 700 MHz par rapport à la génération précédente. Côté Xeon, le haut de l’affiche est tenu par le E-2186M, très similaire sur les caractéristiques. La carte graphique intégrée sera la 630 UHD, à une fréquence maximale de 1,1 GHz.

Le niveau juste inférieur est constitué par les i7 8850H et E-2176M, avec des fréquences maximales de 4,4 et 4,3 GHz respectivement, ainsi que trois mégaoctets de cache en moins par rapport aux processeurs les plus chers (neuf par rapport à douze). La gamme i5 H contiendra deux processeurs à quatre cœurs, les 8400H et 8300 H.

Du côté des modèles à faible consommation (série U), on dénombrera deux processeurs : les i3 8121U et 8130U, avec deux cœurs, une fréquence maximale de 3,4 GHz, mais néanmoins la technologie HyperThreading (désormais, comme toute la gamme de processeurs Intel).

Ne reste plus qu’à attendre les annonces officielles… et surtout la disponibilité au grand public.

Sources et tableau : Intel Notebook Coffee Lake-H Core i9, Core i7, Core i5, Xeon Mobility Lineup Including 4.8 GHz Core i9-8950HK 4.8 GHz CPU Leaked – Upcoming Desktop Parts Get Pricings Revealed, Possible Intel 10nm Cannonlake and Coffee Lake Six Core Mobility Processors Leaked – Cannonlake Parts With Dual Core CPU, Gen 10 Graphics On Board.

NVIDIA interdit l’utilisation de ses cartes graphiques GeForce dans les centres informatiques

Dans bon nombre de domaines, les cartes graphiques sont devenues d’extrêmement précieuses alliées pour effectuer les calculs lourds : le rendu graphique (comme les films d’animation), bien évidemment, mais aussi les simulations physiques, le cassage de chiffrements, les cryptomonnaies, ainsi que l’apprentissage profond. Pour tous ces usages loin de l’utilité première des cartes graphiques (afficher des images à l’écran et offrir une puissance de calcul adaptée pour les calculer), NVIDIA propose plusieurs gammes de produits, les Tesla et les Quadro.

Cependant, bon nombre de grands consommateurs de ces cartes graphiques préfèrent s’orienter vers les modèles grand public GeForce, nettement moins chers : par exemple, Ultra Render ou Redstation. Ils possèdent certes certaines fonctionnalités en moins (comme le calcul sur des nombres à virgule flottante sur soixante-quatre bits), ainsi que du support, mais cela ne les rend pas inutiles pour autant.

Évidemment, la situation ne plaît guère à NVIDIA, car ce genre de comportement limite ses marges. Depuis Noël, les conditions de téléchargement des pilotes GeForce ont été mises à jour pour interdire cette utilisation :

No Datacenter Deployment. The SOFTWARE is not licensed for datacenter deployment, except that blockchain processing in a datacenter is permitted.

On peut remarquer l’exception faite des cryptomonnaies, étant donné que, pour cette application précise, les cartes GeForce ont un avantage non négligeable en termes de performance par coût, à un point tel que le minage a été une des raisons des pénuries de GPU : ces clients sont extrêmement sensibles à la question du coût et se détourneraient immédiatement de produits non concurrentiels.

La formulation de NVIDIA est cependant très vague : qu’est-ce qu’un déploiement en centre informatique ? Quelques machines utilisées dans un laboratoire de recherche pourraient-elles être considérées comme telles ? Ou bien cette clause n’est-elle prévue que pour limiter les trop grosses commandes de cartes ?

Source : Nvidia untersagt Geforces in Rechenzentren.

Qualification de la GDDR6 chez Micron

On en parlait déjà il y a six mois : la GDDR6 doit arriver début 2018. Justement, les besoins en mémoire des cartes graphiques “grand public” ne cessent d’augmenter : 4K et réalité virtuelle augmentent considérablement la quantité d’informations à stocker sur la carte. Les besoins en bande passante augmentent de manière similaire. La mémoire HBM est prévue pour marquer le coup sur ces deux critères… mais à un prix prohibitif. C’est pourquoi les fabricants de puces mémoire et de processeurs graphiques lorgnent du côté d’une évolution des GDDR pour leurs produits en dehors du très haut de gamme.

La GDDR6 n’apporte pas grand-chose à la GDDR5X, si ce n’est d’être propulsée par plusieurs sociétés : la GDDR5X était l’apanage de Micron, pour augmenter la performance de la GDDR5 tout en gardant un très haut niveau de compatibilité. Au contraire, Samsung et HK Hynix produiront également de la GDDR6, avec des caractéristiques en performance très légèrement améliorées : une bande passante jusqu’à 14 Gbps (au lieu de 12 pour la 5X), des modules jusque 16 Go. L’empreinte physique des modules de GDDR6 évolue d’ailleurs légèrement : au niveau extérieur, on passe de 14×10 mm à 14×12 mm. Au niveau du protocole de communication, là où la GDDR5x utilisait un seul canal en QDR, la GDDR6 en utilise deux en parallèle.

Cette GDDR6 s’approche très rapidement du marché. En effet, Micron a annoncé que sa qualification était terminée : la production est prête à être lancée. De même, les puces de 8 Go en GDDR5 chez Micron (la norme précédant la GDDR5X, donc la plus répandue aujourd’hui) sont désormais gravées avec un processus à 10 nm, plus fin que l’actuel (18 nm), avec quelques gains en performance.

Sources : Graphics memory exploded in 2017. What’s next for 2018?, Micron a terminé la qualification de sa GDDR6.

Augmenter le nombre de lumières de Qt 3D

Bien que Qt 3D gère sans problème des scènes avec un très grand nombre de sources lumineuses grâce à des techniques de rendu différé, les matériaux par défaut du module Qt 3D Extras sont, quant à eux, limités à seulement huit lumières : de fait, ils sont très liés à un mode de rendu direct. Quelques trucs et astuces permettent de définir plus de sources de lumière dans le code, mais le rendu, lui, n’en utilisera jamais plus de huit. Par exemple, dans cette vidéo, le code définit cent lumières, mais seulement huit parmi elles sont utilisées pour le rendu, les huit plus proches en fonction de l’état de la scène.

Cette limitation est assez gênante pour Qt 3D, même s’il est possible d’utiliser d’autres techniques de rendu pour gérer plus de lumière (c’est notamment le cas du Qt 3D Studio Runtime). Elle est due à OpenGL ; plus précisément, au nombre d’implémentations d’OpenGL, sur du matériel extrêmement divers, des cartes graphiques modernes très haut de gamme à des puces bon marché utilisées dans certaines applications embarquées : parfois, les limitations en termes de quantité de données transférables sont énormes… et Qt 3D doit fonctionner raisonnablement bien sur tout ce matériel.

Les derniers développements à ce sujet utilisent le “graphe de shader“, apparu il y a peu dans Qt 3D. La technique implémentée est assez basique : sur des cartes qui en sont capables, toutes les lumières sont utilisées ; sur du matériel nettement moins puissant, le nombre d’instructions des shaders est fortement réduit (et le nombre de lumières gérées en même temps).

Ce graphe de shader est une véritable révolution pour Qt 3D. Il permet de générer des shaders à la volée, en utilisant une structure similaire au graphe des matériaux de la plupart des applications de modélisation 3D actuelles. Chaque nœud de ce graphe de shader correspond à une fonction : il s’agit d’un calcul à effectuer entre une série d’entrées et une série de sorties. Par exemple, le nœud d’une surface prend en entrée les angles d’incidence et de réflexion d’un rayon de lumière sur la surface, la couleur de ce rayon et de la surface, pour calculer la contribution à la luminosité. En connectant suffisamment de ces nœuds dans un graphe, on définit le flot de calculs effectués par un shader, que Qt 3D transforme alors dans un langage de programmation qui dépend du matériel et de l’API utilisés.

Pour le cas particulier des sources de lumière, il devient très facile de créer un nœud pour chaque source de la scène. Ensuite, le code généré peut être aussi efficace que possible pour gérer toutes ces lumières (avec un shader par source de lumière plutôt qu’un seul programme qui itère sur toutes les sources).

Source : Increasing the number of lights in Qt 3D.