Broadcom lance son premier commutateur à 25,6 Tb/s

La compétition dans les centres informatiques pour le matériel réseau n’est pas neuve. Autrefois, elle portait sur les capacités techniques du matériel ; désormais, avec l’avènement de l’informatique en nuage, le coût devient plus plus important. Broadcom vient de lancer sa première puce pour la commutation dans les réseaux Ethernet avec une capacité de commutation maximale de plus de vingt-cinq térabits par seconde, baptisée Tomahawk 4.

Celle-ci peut monter à soixante-quatre ports Ethernet à quatre cents gigabits chacun (en faisant la somme, on tombe sur vingt-cinq térabits et six cent gigabits par seconde) ou deux cent cinquante-six ports à seulement cent gigabits par seconde chacun. Elle est constituée de trente et un milliards de transistors et est fabriquée par TSMC sur un processus en sept nanomètres. La puce intègre cinq cent douze composants de sérialisation-désérialisation (SerDes) en PAM4.

L’intérêt d’un tel matériel est multiple, mais se résume à une diminution du nombre de commutateurs nécessaires pour desservir une même quantité de matériel informatique : pour connecter deux cent cinquante-six machines, pour un débit de cent gigabits par seconde chacune maximum, il suffit d’un seul Tomahawk 4. Le matériel actuel ne peut monter, pour de tels débits, qu’à cent vingt-huit ports : il faut donc mettre deux étages de commutateurs pour garantir une connectivité entre toutes ces machines. Le temps de commutation restant équivalent par paquet, la latence d’une communication est divisée par trois. De plus, la consommation énergétique de l’installation est diminuée de septante-cinq pour cent, tout comme le coût d’achat.

Cette puce dispose de fonctionnalités de gestion de la charge, de mise en tampon et de contrôle de la congestion améliorées. La mémoire tampon pour les paquets qui ne peuvent pas être immédiatement transmis sur le lien souhaité est globale à la puce, pour éviter de mettre à disposition de la capacité sur les ports qui n’en ont pas besoin. De plus, cette puce intègre quatre cœurs de calcul ARM à un gigahertz, pour effectuer de l’instrumentation avancée dans le réseau (ces cœurs étant entièrement programmables), au centre des opérations de traitement des paquets Ethernet. La puce intègre aussi nativement une application de suivi statistique, avec une télémétrie intrabande IFA 2.0, une mesure de la qualité des liens et un suivi des pertes de paquet et de la congestion. Pour aller plus loin, Broadcom libère l’API pour ses commutateurs, sous le nom de Broadcom Open Network Switch APIs (OpenNSA, une généralisation de OpenNSL).

Sources : EETimes, WccfTech, The Next Platform.

La puce Cisco Silicon One vise les services infonuagiques à grande échelle

Cisco est un grand fabricant de matériel pour les réseaux informatiques, notamment en entreprise et dans les centres informatiques. Par exemple, l’entreprise fabrique des commutateurs et des routeurs Ethernet à très haut débit. Cependant, les centres infonuagiques requièrent de plus en plus de bande passante : le matériel actuel est toujours suffisant (c’est pourquoi les dépenses en matériel réseau ont tendance à diminuer, ces derniers temps), mais les plans de Cisco sont plus ambitieux.

D’où la dernière annonce en date : la puce de routage Silicon One Q100, qui travaille directement avec des flux optiques et propose déjà une bande passante qui peut monter à dix térabits par seconde (le double des solutions de routage actuelles) — la prochaine itération devrait monter à vingt-cinq térabits par seconde. Cette puce gère jusque cent et huit ports Ethernet à cent gigabits par seconde, avec une consommation énergétique très réduite (à peine onze watts par gigabit par seconde de débit).

datasheet-c78-742571_1.png

Le processeur Silicon One Q100 est véritablement prévu pour des réseaux à très haut débit, avec notamment de grandes possibilités de mise en cache des paquets sur les liens en situation de congestion. En outre, elle est entièrement programmable à l’aide de P4, un langage de programmation prévu pour simplifier la configuration avancée de routeurs. Il s’agit d’un effort de développement de cinq années (avec un coût de l’ordre du milliard de dollars), qui a consisté à repenser complètement l’architecture matérielle des routeurs. Notamment, tous les composants d’un routeur sont intégrés dans cette même puce, ce qui a pour effet de simplifier la conception des routeurs. Par rapport aux autres processeurs pour routeurs, Cisco a décidé d’utiliser de la mémoire HBM, qui propose une très haute bande passante ; cette mémoire est utilisée pour la mise en tampon et pour étendre les tables de routage.

De plus, Cisco change partiellement son fusil d’épaule : le Silicon One Q100 ne sera pas uniquement utilisé dans le matériel Cisco, le processeur sera également disponible individuellement, pour ceux qui souhaitent réaliser leurs propres routeurs. Les premiers routeurs Cisco à l’utiliser composent la série 8000. Ils peuvent être utilisés individuellement ou bien être empilés pour augmenter le nombre de ports disponibles (et la bande passante totale disponible). La série est accompagnée d’une nouvelle version du système d’exploitation IOS XR, numérotée 7. Celle-ci est bien plus modulaire que les précédentes, avec la possibilité d’installer des paquets supplémentaires par le système RPM.

datasheet-c78-742571_3.png

Source : NetworkWorld.

Cisco acquiert Exablaze, spécialiste des communications à très faible latence

Cisco est une entreprise bien connue pour son matériel réseau, notamment ses routeurs et commutateurs. La société américaine vient d’acheter Exablaze, spécialisée dans les communications réseau à très faible latence. Parmi ses clients, on retrouve notamment la spéculation boursière à très haute fréquence, pour qui une milliseconde peut représenter des millions d’euros de pertes.

Exablaze construit des commutateurs et routeurs dont le seul objectif est de limiter la latence des communications. Pour ce faire, l’entreprise se base sur des FPGA, des processeurs reprogrammables très flexibles : un commutateur physique comme l’ExaLINK Fusion L1 (qui travaille à la couche 1) peut effectuer une opération de commutation (peu importe le port d’entrée ou le groupe de ports de sortie) en moins de cinq nanosecondes en moyenne. Ce délai correspond approximativement à un mètre de fibre optique.

Pour des besoins plus avancés, Exablaze fournit aussi des commutateurs plus classiques, fonctionnant à la couche 2 (Ethernet) : l’ExaLINK Fusion L2 Switch peut effectuer une commutation en une centaine de nanosecondes. En plus, la société fournit du matérial spécifique pour la mesure sur le réseau, comme des cartes réseau avec une précision temporelle pouvant descendre sous la centaine de picosecondes ou encore des SSD pour la capture de paquets à très haut débit.

L’objectif de ce rachat est, à terme, de rapprocher les gammes de produits et notamment de développer la prochaine génération de commutateurs, en se focalisant sur le segment actuellement bien à la mode de l’intelligence artificielle.

Source : Cisco, Exablaze.

Intel brevette de nouvelles techniques d’interconnexions entre pucettes

Il semblerait que l’avenir des microprocesseurs soit aux pucettes, c’est-à-dire de petits composants plus spécialisés mis côte à côte dans un même boîtier. AMD, Intel et NVIDIA se sont tous lancés dans l’aventure, AMD et Intel ayant déjà des produits en vente basés sur ce concept (des FPGA pour Intel, des CPU pour AMD ; bientôt des GPU pour Intel). Ils sont reliés à l’aide d’un interposeur (en silicium ou autre matériau) ou d’une interconnexion, une partie souvent chère à réaliser, chacun ayant sa propre technique pour ce faire (comme Foveros d’Intel). De plus, cette partie de la fabrication est souvent plus dangereuse.

C’est pour cela qu’Intel, notamment, continue ses recherches sur le sujet. Le dernier brevet publié dans le domaine propose de remplacer les interposeurs en silicium par de simples ponts en silicium (intégré dans le substrat des pucettes ou ajouté par la suite). Puisqu’ils ne relient que les bords des pucettes, ils peuvent être bien plus petits que des interposeurs. Une telle manière de concevoir des processeurs permettrait de concevoir un type de pucette une fois pour toutes, sans devoir réimplémenter la fonctionnalité sur les nouveaux processus de fabrication de semi-conducteurs (sauf si cela se justifie) : les coûts en recherche et développement pourraient diminuer de moitié avec ce genre d’approche !

Intel Silicon Bridge configurations

Une des propositions d’Intel dans ce brevet est que certaines pucettes pourraient jouer un double rôle : en tant que pucettes actives et interconnexions. Par exemple, la mémoire embarquée serait un bon candidat : cette zone de mémoire serait alors accessible facilement aux différentes pucettes qui lui sont connectées.

Source : le brevet en question.

Samsung se prépare à utiliser la microarchitecture RISC-V dans ses processeurs pour l’automobile et la 5G

RISC-V a vraiment le vent en poupe : outre SiFive qui opère de plus en plus dans le domaine et Western Digital qui libère ses cœurs, voilà Samsung qui annonce utiliser les cœurs conçus par SiFive pour une série de ses prochaines puces. La première application sera dans la 5G, pour le traitement du signal des ondes millimétriques (la grande avancée de la 5G qui permettra d’augmenter fortement le débit proposé, à défaut d’une portée bien plus petite). Les premiers exemplaires de ces puces arriveront en 2020 dans les téléphones 5G haut de gamme de la marque.

En sus, Samsung prévoit d’utiliser cette microarchitecture pour d’autres processeurs intégrés, notamment pour les opérations d’“intelligence artificielle” sur des images, pour la gestion de la sécurité et pour d’autres tâches de contrôle. À part pour les téléphones, Samsung prépare de tels processeurs pour l’automobile.

Samsung a d’ailleurs récemment annoncé avoir commencé à produire des processeurs RISC-V pour des tests dès 2017, c’est-à-dire que l’entreprise travaille dessus depuis de nombreuses années et estime désormais arriver à un point où ils peuvent remplacer des conceptions ARM plus traditionnelles.

Source : AnandTech.

Western Digital dévoile deux nouveaux cœurs RISC-V : les SweRV Core EH2 et EL2

RISC-V est une microarchitecture libre qui a le vent en poupe. À part SiFive, Western Digital est la seule société à proposer des cœurs RISC-V — et la seule, tout court, à le faire gratuitement, sous licence libre. D’ailleurs, Western Digital vient de proposer deux nouveaux cœurs de calcul à destination des microcontrôleurs, dans sa gamme SweRV : les Core EH2 et Core EL2.

Le modèle EH2 exécute les instructions reçues dans l’ordre et a une largeur de bus de trente-deux bits. Il est prévu pour des contrôleurs SSD, tout comme son prédécesseur, le EH1, mais avec une taille réduite, grâce à un processus de gravure amélioré en seize nanomètres (à peine 0,067 mm², par rapport au 0,11 mm² du EH1, gravé en vingt-huit nanomètres). Le EH2 peut exécuter deux fils d’exécution simultanément. Son pipeline est constitué de neuf étages. En ce qui concerne la performance, il peut atteindre 6,3 points au test CoreMark par mégahertz, selon les simulations internes de Western Digital (par rapport à 4,9 points par mégahertz pour la génération précédente).

Le EL2 vise un autre compromis : quand le EH2 vise des microcontrôleurs à haute performance, le EL2 est prévu pour occuper le moins de place possible. Ce cœur est surtout prévu pour remplacer les composants logiques simples et les machines à état. Il fonctionne aussi en trente-deux bits et son pipeline est constitué d’à peine quatre étages. En comparaison, il occupe à peu près le tiers de la place d’un cœur EH2, mais atteint à peine 3,6 points CoreMark par mégahertz.

Ces cœurs seront utilisés dans des produits Western Digital dans le futur proche, mais la firme n’a pas souhaité donner plus de détails.

Source : Western Digital.

Intel achète la jeune pousse Habana

Le monde des processeurs orientés réseaux neuronaux fait une série de bonds et de rebonds. Entre les nouvelles sociétés qui sans cesse se créent et celles qui se font racheter à bon prix, difficile de suivre toutes les évolutions. La dernière en date concerne Intel et Habana (inutile de dire qui a acheté qui…), une transaction à deux milliards de dollars américains.

Habana est une jeune pousse israélienne qui développe les gammes de puces Gaudi et Goya. Goya est orientée inférence et est déjà disponible commercialement en volume. Elle peut fournir un haut débit et une latence compatible avec les applications en temps réel, sans consommer trop d’énergie. Gaudi, au contraire, est prévue pour l’entraînement de réseaux neuronaux, qui nécessite des traitements assez différents (travail sur un grand nombre d’échantillons à la fois, pas un seul comme en inférence). La production est à l’échelle des échantillons. Un système constitué de processeurs Gaudia pourrait proposer une diminution des temps de calcul par un facteur quatre par rapport à un nombre équivalent de cartes graphiques. L’un des points forts de la technologie de Habana est sa facilité de programmation, notamment permise par un haut niveau de contribution à des composants libres comme Linux.

D’un certain point de vue, les produits de Habana sont très similaires à ceux de Nervana, un autre rachat d’Intel de société spécialisée dans les puces pour réseaux neuronaux, ou encore de Movidius, avec cette fois la spécificité de la vision par ordinateur pour intégration dans des périphériques à très faible consommation. En comparaison, les produits de Habana sont prévus pour être aussi généralistes que ceux de Nervana, mais plus efficaces pour les traitements d’images (sans contrainte trop forte de consommation énergétique, contrairement à Movidius). Intel complète donc son portefeuille de technologies (et de brevets) dans le domaine.

Techniquement, Habana continuera à exister comme une entité indépendante, ses dirigeants ne changent pas. Habana sera intégrée dans l’unité Data Platforms Group, à côté de Movidius et de Nervana. Aucune intégration n’est prévue avec les puces Nervana pour le moment, les décisions seront prises en fonction des besoins des clients. L’annonce ne précise pas la place de Habana dans l’initiative oneAPI, mais cet ajout devrait se faire sans accroc.

Source : Intel.

Imec fabrique des transistors plans en molybdène d’à peine 22 nm

Imec est un laboratoire de recherche industrielle en nanoélectronique. Fondé en 1984 à Louvain (Belgique), il effectue des recherches fondamentales dans les semi-conducteurs, l’informatique quantique, etc. L’un de leurs derniers résultats concerne l’utilisation d’un nouveau matériau semi-conducteur, le disulfure de molybdène (symbole chimique : MoS₂), pour créer des transistors. Jusqu’à présent, l’industrie s’est intéressée à de nombreux matériaux pour remplacer le silicium, comme les nanotubes de carbone, mais aucun n’est arrivé dans nos ordinateurs…

Les chercheurs d’Imec ont réussi à créer des transistors MOSFET avec une performance intéressante, tant pour des circuits logiques que pour de la mémoire. Ils présentent un effet de canal court moins prononcé que les transistors équivalents en silicium, qui en limite la miniaturisation. Ces transistors sont constitués de plusieurs couches : une source, un diélectrique et un drain. Lorsque la longueur du transistor s’approche de l’épaisseur du diélectrique, les effets de canal court se produisent. L’un de ces effets est la saturation de la vitesse des électrons, à cause de l’intensité du champ électrique à l’intérieur du transistor : plus l’intensité du champ électrique est grande, plus les électrons se déplacent vite ; cependant, si l’intensité est trop grande, la vitesse sature et n’augmente plus : les électrons interagissent trop avec leur environnement, ils évacuent leur surplus d’énergie sous la forme de phonons et de photons.

L’inconvénient actuel de ces transistors, pour leur moment, est leur taille : ils sont bien plus grands que les transistors de silicium actuels. Par exemple, la taille minimale actuelle du canal d’un transistor en silicium est de dix-huit nanomètres, tandis que les transistors de molybdène fabriqués par Imec font trente nanomètres. Ce n’est pas nécessairement un problème pour une recherche aussi fondamentale : les chercheurs ont en réserve une série de techniques systématiques pour réduire la taille de ces transistors, aidés en cela par les faibles effets de canal court. Ils prévoient notamment de réduire l’épaisseur de l’oxyde formant la porte logique, utiliser une architecture à base de doubles portes, réduire la taille du canal et des défauts aux interfaces. Surtout, la mise en production de ce type de transistor est d’ores et déjà étudiée sur la plateforme interne d’Imec.

Source : Tom’s Hardware.

Intel et la production de semi-conducteurs : la route au 1,4 nm est dessinée jusqu’en 2029

L’industrie des semi-conducteurs discute énormément des processus de fabrication actuels : les plus grands noms en sont à une finesse de gravure de sept nanomètres (ce que ces sept nanomètres représentent exactement dépend énormément de l’entreprise, c’est un nom plus marketing qu’autre chose…), les prochaines évolutions devraient la porter à cinq, puis trois nanomètres. Intel vient de dévoiler ses plans pour ses prochains processus de production, en dépassant largement les trois nanomètres annoncés par ses concurrents : la route sera longue jusqu’au nanomètre quatre cents picomètres (1,4 nm), processus attendu pour 2029.

Dans les dix prochaines années, comme la majorité de ses concurrents, Intel envisage de proposer un processus fortement améliore toutes les deux années : le dix nanomètres est arrivé cette année, mais en faible volume (processus équivalent au sept nanomètres à la concurrence, peu ou prou, qui est en train de débarquer) ; le sept nanomètres est prévu pour 2021, le cinq en 2023, le trois en 2025, le deux en 2027 et, finalement, le nanomètre quatre cents picomètres en 2029. C’est la première fois qu’Intel parle explicitement d’une finesse de gravure aussi petite : cela représente à peine douze atomes de silicium.

Un point étonne dans ces plans : Intel ne prévoit plus forcément d’être le meilleur au niveau de la fabrication des semi-conducteurs. Être l’un des meilleurs suffit désormais à la firme, tout comme ses plans pour la domination au niveau des processeurs.

Les processus continueront d’évoluer, ils ne resteront pas fixes pendant deux ans : pour chacun, Intel prévoit au moins deux optimisations, notées avec + et++ (sauf pour le dix nanomètres, vu qu’Intel finalise le développement du 10+ : on verra le 10++ en 2020 et le 10+++ en 2021). Ces améliorations itératives porteront sur tous les points importants d’un processus de fabrication de semi-conducteurs : la densité de transistors par millimètre carré de puce produite, la consommation énergétique de ces transistors ou encore la fréquence maximale qu’ils peuvent atteindre.

Chaque fois, Intel prévoit des possibilités de rétropédalage : si un processus de fabrication prend trop de temps de développement, il devrait être possible de faire passer les puces conçues sur un processus légèrement plus ancien et continuer à sortir des nouveautés. Cependant, Intel continue d’affirmer que les puces sont conçues avec un processus de fabrication particulier en tête.

Pour se tenir plus facilement à ce planning très agressif, Intel prévoit des équipes totalement distinctes entre les processus de fabrication, pour limiter l’impact qu’un retard aurait sur les processus futurs. Ce n’est pas vraiment une nouveauté, Intel ayant déjà bien explicité que les retards du processus en dix nanomètres n’auront pas vraiment d’impact sur celui en sept nanomètres, leurs ressources étant totalement distinctes. D’ailleurs, les changements entre processus ne seront pas aussi fondamentaux que précédemment : si le passage du quatorze au dix nanomètres a permis de fortement augmenter la densité de transistors au millimètre carré (presque un facteur trois), Intel envisage de conserver un facteur de deux de génération en génération. Cet objectif sera probablement plus facile à atteindre

Le processus en sept nanomètres est en voie de finalisation, les autres ne sont pas du tout au même niveau d’avancement. Le sept nanomètres utilisera à coup sûr la lithographie à rayons ultraviolets extrêmes. Le cinq nanomètres est prévu pour 2023, quand ASML devrait sortir une nouvelle génération de machines pour la lithographie à ultraviolets extrêmes : celle dite “high NA”, c’est-à-dire avec une ouverture très grande. En optique (notamment pour les appareils photo), l’ouverture caractérise la capacité d’une lentille à absorber la lumière venant d’un grand nombre de directions ou, de manière équivalente, à voir les détails à une distance donnée (en lithographie, on utilise les lentilles dans l’autre sens, pour émettre une lumière de manière précise). Ces machines pourront dessiner des motifs bien plus précis sur des galettes de silicium, sans nécessiter plusieurs expositions. Après le cinq nanomètres, néanmoins, Intel n’a pas de plans très précis : on pourrait avoir droit à un nouveau type de transistor, de nouveaux matériaux, etc.

Source : Anandtech.

Les systèmes optiques du futur utiliseront peut-être des interrupteurs entre photonique et plasmonique

Les réseaux informatiques actuels demandent une bande passante de plus en plus importe, que seule la fibre optique semble permettre. Cependant, pour des réseaux à grande échelle, du matériel de commutation est indispensable pour envoyer les paquets à l’endroit où ils sont attendus. Ces commutateurs optiques sont pour le moment très gros et consomment énormément d’énergie, trop pour suivre le mouvement de l’électronique photonique, qui consiste à intégrer des composants optiques à l’intérieur des puces en silicium utilisées pour réaliser les processeurs actuels. L’autre option est de transformer les signaux optiques en signaux électriques, de les traiter comme s’ils venaient d’un canal en cuivre, puis de les réémettre dans le domaine optique : c’est une perte de temps énorme, qui limite les débits.

Un nouveau commutateur nanooptoélectromécanique (donc, de petite taille, qui travaille dans le domaine optique, avec un comportement mécanique) pourrait changer la donne. Celui-ci pourrait être créé dans des puces de silicium traditionnelles, avec une logique CMOS : il occuperait une place d’à peine une dizaine de microns carrés et nécessiterait une tension d’alimentation d’un volt. On pourrait donc profiter de tous les avantages des communications en fibres optiques, y compris pour un réseau local, sans devoir passer impérativement par un réseau cuivré.

Son principe de base est de trouver un point commun entre les photons et les électrons. Les premiers (des particules de lumière) traversent tout à la vitesse de la lumière (au sens propre), ce qui leur permet de transporter de l’information très vite. Cependant, cette vitesse n’est atteignable que parce que les photons interagissent très peu avec leur environnement : il faut beaucoup d’énergie pour les dévier. Au contraire, les électrons (des particules chargées qui transportent l’électricité) interagissent de manière beaucoup plus forte, au prix d’un ralentissement certain (et d’une consommation énergétique supérieure pour leur déplacement).

Sketch of hybrid nano-opto-electro-mechanical switches shifting red and green input beams from waveguides on the sides to waveguide carrying blue light from top to bottom.

Le commutateur proposé est constitué d’un disque au niveau d’une intersection en T entre deux guides optiques, situés à la perpendiculaire. La couche supérieure du disque est une membre d’or de quarante nanomètres, posée sur un morceau d’alumine, lui-même déposé sur une couche de silicium. Cette structure sert de guide d’onde courbé qui peut transférer de la lumière vers l’une ou l’autre sortie, sans jamais transformer les photons en électrons.

La magie se situe dans la feuille d’or : les électrons oscillent et excitent les électrons de cette feuille d’or. Ces vibrations produisent des plasmons qui vibrent à la même fréquence que la lumière. Ces derniers restent confinés entre l’or et le silicium, ce qui crée un effet optoélectromécanique concentré. Si on n’applique aucune tension électrique à ce commutateur, la lumière transite dans un sens, avec très peu de pertes. Au contraire, dès qu’on applique une tension de l’ordre du volt, les charges statiques poussent la feuille d’or plus près du silicium, ce qui a pour effet de changer la forme du guide d’onde : la lumière est redirigée.

Ce procédé peut fonctionner très vite, avec des décisions de commutation prises plusieurs millions de fois par seconde. Cependant, le côté mécanique apporte une certaine limitation : il est impossible de réagir endéans la picoseconde, ce qui empêche l’utilisation d’un tel mécanisme dans des émetteurs optiques.

Source : IEEE.

Plus de détails : la publication complète.