Question:
Pourquoi ne faisons-nous pas des processeurs avec des milliers de couches pour utiliser l'espace dans la troisième dimension?
Ethan
2020-07-27 12:38:02 UTC
view on stackexchange narkive permalink

Je me demande pourquoi ne faisons-nous pas des processeurs tels que des processeurs avec des milliers de couches empilées pour utiliser l'espace dans la troisième dimension maintenant que nous avons des transistors en trois dimensions. Pour être clair, je fais référence à la fabrication d'un processeur en forme de prisme rectangulaire.

Pour être clair, il y a beaucoup de choses dont je ne suis pas au courant en ce qui concerne la fabrication de processeurs, je ne suis pas un ingénieur électrique ou informatique, mais je suis très curieux. Je suis conscient des problèmes de chauffage que cela causerait compte tenu d'un emballage encore plus dense de transistors et des problèmes de fabrication compte tenu du fait que vous auriez à graver au laser autant de silicium, mais contrairement à l'augmentation de la taille en largeur et en hauteur, il n'y aurait pas de problèmes avec tirer le meilleur parti des plaquettes de silicium circulaires, et contrairement à cela, vous garderiez les pièces très proches, ce qui signifie que cela ne ralentirait pas la vitesse de l'électricité passant d'une partie du processeur à l'autre car le processeur en a déjà des milliers de transistors empilés horizontalement et verticalement.

Je suis curieux de savoir si vous pourriez résoudre les problèmes de chauffage en déposant de fines couches de dissipation thermique intermittentes, tout en conservant le débit vertical. Et résoudre partiellement les problèmes de fabrication en utilisant des plaquettes gravées séparément toutes les 10 couches environ. Cela pourrait-il être possible ou y a-t-il beaucoup de problèmes auxquels je ne pense pas (et je suis sûr qu'il y en a)? Merci.

Comment imaginez-vous le fonctionnement de ces «fines couches de dissipation thermique»?Un dissipateur thermique ne «dissipe» pas vraiment la chaleur, car il la «détruit», il la conduit simplement.Une couche à l'intérieur de la pile ne peut aider qu'en conduisant la chaleur sur les côtés de la matrice, et c'est un * long * chemin à parcourir (au moins plusieurs millimètres), ce qui le rend horriblement inefficace.
Pourquoi ne faisons-nous pas 1000 gâteaux en couches?Après un certain nombre de couches, il commence à se désagréger, impossible de le réparer avec du glaçage.
@old_timer Votre exemple est mal choisi: https://en.wikipedia.org/wiki/Mille-feuille
Je n'ai rien vu de couche 10-20-100-1000, même lorsque vous pliez la pâte plusieurs fois, cela ne donne pas une couche uniforme, surtout après le traitement (cuisson).Dans les deux cas, chaque couche a des incohérences qui s'amplifient sur chaque couche suivante (voir les réponses ci-dessous) si vous pouvez résoudre le problème de chaleur, alors vous avez le problème d'empilement.Comme un gâteau.Un gâteau de 50 étages à des fins de prix / récompenses, bien sûr, mais produisez-les en masse, pas tellement.Certainement pas une couche 1000.
puis il y a aussi le coût, les masques représentent une grande partie du coût d'une puce, si un petit nombre de couches est une poignée à des dizaines de millions, alors 1000 couches valent ... plus que ne vaut l'entreprise.Et c'est si vous pouviez trouver du matériel pour le faire.c'est une question idiote.nous fabriquons simplement des modules multi-puces communs au-delà des produits haut de gamme.Si votre processus fait la moitié de la taille du précédent, cela équivaut à l'empilement deux fois plus haut.ce n'est donc pas comme s'ils ne faisaient rien pour augmenter la densité et les performances par "puce"
(tout l'argent n'est pas dans les masques, sans essayer de le sous-entendre, les outils de développement à eux seuls représentent des millions de dollars)
@TooTea Je suis d'accord que ce serait "horriblement inefficace" Je pensais juste que si vous pouviez en quelque sorte faire fonctionner un câblage de dissipateur de chaleur Thickkk directement hors du processeur et le brancher autour d'un radiateur avec un ventilateur, il serait peut-être possible de tirer suffisamment de chaleur pour le faireviable.Mais c'est bien sûr une supposition complète et la chaleur impliquée pourrait très bien être insensée, alors je m'attends à ce que cela ne fonctionne pas aussi bien.
En général, la conductivité thermique dépend de la zone perpendiculaire à la direction du transfert de chaleur.Étant donné que la chaleur doit atteindre les bords, ces couches de «dissipateur thermique» devront être assez épaisses.Je suppose que c'est de l'ordre du millimètre.Tous les tubes de liquide de refroidissement seront à peu près identiques.La séparation des couches ne sera donc pas trop éloignée des emplacements PCIe.
@James_pic Mille-feuille n'est qu'un nom.Les gâteaux réels ont 10 à 20 couches de dessus (regardez les images sur la page à laquelle vous avez lié).
Les bâtiments @old_timer sont normalement de 10 à 20 à 160 couches / étages.Les impressions 3D sont des centaines de couches.Les diamants sont naturels et imprimés en 3D avec un nombre incalculable de couches.
Six réponses:
Neil_UK
2020-07-27 13:54:38 UTC
view on stackexchange narkive permalink

Les deux principales raisons sont le rendement et la chaleur.

Rendement.Chaque fois que vous effectuez une étape du processus, vous obtenez moins de 100% de perfection.Disons que vous obtenez 99% de perfection par étape.Dans un processus en 20 étapes, vous seriez tombé à 82%.Dans un processus avec 1000 étapes, vous seriez tombé à 43 ppm, 43 builds réussis pour chaque million de wafers démarrés.

Chaleur.Nos conceptions existantes sont déjà limitées par la rapidité avec laquelle nous pouvons extraire la chaleur du fond de la matrice.Ainsi, ni l'opportunité de générer plus de chaleur, ni la possibilité de générer cette chaleur plus loin de l'endroit où elle peut être dissipée, ne nous sont d'aucune utilité réelle.

Cela dit, certains appareils se développent dans la 3ème dimension, liant plusieurs plaquettes finies ensemble, ce qui atténue le problème de rendement.Ces wafers empilés ont tendance à être de la mémoire, qui n'utilise rien comme la puissance d'un processeur, ce qui atténue le problème de chaleur.

Vous pouvez empiler des pièces fabriquées séparément.Le vrai problème est la chaleur.
J'ai entendu parler de DRAM empilée sur le dessus, et nous en verrons peut-être plus car ils ont déjà passé les tests.C'est peut-être le seul moyen pratique de construire vers le haut jusqu'à ce que vous atteigniez une limite de dissipation thermique.
Le flash est souvent empilé, utilisant 16 dés ou plus empilés ensemble.Ici, la chaleur est moins un problème car les couches supplémentaires sont pour la capacité - vous n'accédez qu'à une couche à la fois.C'est moins facile à faire pour les processeurs où vous vous attendez à ce qu'ils soient tous occupés en même temps.
Comme vous l'avez dit à la fin, je pensais qu'ils empileraient / lieraient des plaquettes finies ensemble comme empiler 100 i7 ou i3 les uns sur les autres pour obtenir un i7-100 ou un i3-100, ces processeurs ont déjà environ 10 couches, c'est donc làvous en obtenez 1000, et cela coûterait bien sûr 100 fois celui d'un i3 ou d'un i7 existant et les gains de performances ne seraient pas exactement de 1 à 1, mais les améliorations de la densité l'emporteraient sur la perte de performances pour les producteurs de super-ordinateurs.Et si vous pouviez réparer le chauffage avec une ligne épaisse de dissipateur de chaleur en couches intermittentes directement sur un radiateur (gros si) Alors, oui.
@Ethan722 Un processeur haut de gamme a bien plus d'un milliard de transistors avec plus de 20 cœurs.Ce que les ingénieurs veulent, ce ne sont pas des processeurs empilés, mais une couche supplémentaire de dram ou de flash, même sous forme de dés séparés.Ce que vous proposez ne se produira pas de notre vivant.Une densité extrême crée TOUJOURS trop de chaleur pour être viable.
Notre limite de calcul actuelle est très rarement à la puissance de traitement du processeur.L'accès aux données est le principal goulot d'étranglement, et ce depuis des décennies.Pour un ordinateur typique, la mise à niveau du disque dur au SSD et la mise à niveau de la RAM donnent le meilleur rapport qualité-prix. Il y a une raison pour laquelle les annonceurs soulignent le "GRAND HERTZ" du processeur et vous donnent un ordinateur avec 2-4 Go de RAM;le système se dégradera très rapidement et vous penserez que vous en avez besoin d'un nouveau, quand une mise à niveau de 100 $ de RAM le fera durer encore 5 à 10 ans.
@Ethan722 (pas un expert en EE, juste un technicien qui passe par là) La dissipation thermique est un problème beaucoup plus important que votre commentaire ne le laisse entendre.Un seul AMD Threadripper 3990x peut émettre environ 280W de chaleur.Si vous pouviez en quelque sorte les empiler 100 de haut, vous parlez maintenant de dissiper (280W * 100) = 28KW de chaleur.
Intel conçoit actuellement quelque chose de similaire avec sa technologie d'empilage Foveros.
Les processeurs @Ethan722, se heurtent aux limites thermiques depuis environ 20 ans.Un processeur plat émet plus de chaleur par millimètre carré qu'un brûleur de cuisinière;votre "CPU empilé" proposé dépasserait celui d'un réacteur nucléaire.
analogsystemsrf
2020-07-27 13:02:01 UTC
view on stackexchange narkive permalink

L'élimination de la chaleur est le problème.

Certaines puces ont déjà une densité d'énergie plus élevée qu'un réacteur nucléaire.

Pensez à un sèche-cheveux ---- 1 500 watts avec un ventilateur air_blast pour refroidir les bobines de tungstène.Et les bobines brillent en rouge terne.

Densité de puissance, sûrement.Cela signifie qu'ils ont également une densité de puissance plus élevée que le soleil, non?
Dans ce contexte, le terme «réacteur nucléaire» désigne une réaction de ** fission ** contrôlée.Un réacteur ** à fusion ** serait comparable au soleil - mais tout circuit fonctionnant à des niveaux de puissance comparables ne durerait pas longtemps.
[Apparemment] (https://physics.stackexchange.com/questions/370899/suns-power-density-compared-to-a-compost-heap) la densité de puissance du soleil n'est pas vraiment impressionnante
@ManfP Oui, mais cela peut durer 10 milliards d'années avec une charge, alors c'est quelque chose ...
@J ... ce qui est pratique car chaque fois que vous vous en approchez avec un câble de chargement USB, il fond.
@user253751 Votre propre corps a une densité de puissance supérieure à celle du soleil.
Felix S
2020-07-27 13:00:52 UTC
view on stackexchange narkive permalink

Mais que retireriez-vous de cela?

  1. Le nombre de transistors par mm² de masque que vous obtiendrez serait toujours le même, vous auriez juste plus de masques
  2. L'alignement de plusieurs masques est beaucoup plus difficile, plus les masques doivent être alignés.
  3. Vous auriez probablement besoin de plusieurs couches d'interconnexion supplémentaires pour chaque couche de transistor supplémentaire
  4. Établir une connexion entre les couches est plus difficile que d'établir une connexion au sein d'une couche.
  5. La dissipation thermique serait pire
Certains ordinateurs, par exemplehttps://en.wikipedia.org/wiki/Titan_(supercalculateur) ont utilisé des topologies de connexion 3D, donc la distance entre de nombreux nœuds est moindre.1023 cœurs sur des plaquettes de 50 μm empilés les uns sur les autres auraient beaucoup moins de distance entre eux qu'une grille 2D de 32 cœurs par côté, suffisamment pour partager des horloges GHz, etc.
pjc50
2020-07-27 13:41:14 UTC
view on stackexchange narkive permalink

Les transistors sont beaucoup plus faciles à réaliser sur la couche inférieure, car la structure traditionnelle implique des structures "n-well" ou "p-well".

Aussi: Planarisation.

La couche de "substrat" inférieure est polie mécaniquement à un très haut degré de planéité.Les couches suivantes sur le dessus sont gravées et déposées, mais chaque fois est loin d'être parfait.Il y a un risque que des erreurs s'additionnent et que les entités ne s'alignent pas correctement sur une "masse" dans la surface.

Overmind
2020-07-27 15:51:55 UTC
view on stackexchange narkive permalink

Il y a 2 raisons principales:

  1. Dissipation thermique - cela nécessite une surface de contact. Cette surface transfère la chaleur du CPU au système de refroidissement. S'il s'agit de 3D, il devient extrêmement difficile d'évacuer la chaleur des sous-couches car la surface de contact serait nettement inférieure à celle nécessaire pour maintenir le transfert thermique.

  2. Rendements - ils sont de toute façon faibles dans de nombreux cas. Lorsque nVidia essayait les GTX 285/295, ils avaient des rendements initiaux inférieurs à 2% et après stabilisation du processus, ils étaient encore inférieurs à 10%. Cela signifiait qu'ils devaient couper des parties de la puce pour faire des cartes de classe inférieure à partir de la bonne partie restante. Et c'était avec un processus 2D standard qui était juste surdimensionné. Essayer de mettre quoi que ce soit en 3D aurait des rendements encore plus faibles si nous ignorions la partie chauffante.

De plus, adapter complètement le processus de fabrication (en supposant que tout le reste va bien) n'est pas quelque chose que beaucoup seraient prêts à aller de l'avant alors qu'il y a plus à avoir de la technologie actuelle.

HBM Memory a réussi à faire les choses par piles. Ce n'est pas vraiment de la 3D, cela s'appelait 2.5D en raison de seulement quelques couches et c'est une solution coûteuse. La taille du package est grande et présente des défis de gestion thermique (même si la chaleur générée est nettement inférieure à celle des processeurs). La technologie avancée d'emballage de puces qui connecte verticalement les matrices de puce DRAM à l'aide d'électrodes qui pénètrent les matrices de microns d'épaisseur à travers des trous microscopiques est venue à la rescousse dans ce cas.

HBM - beaucoup de belles images d'empilage / d'interposition disponibles en ligne.Les mémoires Flash NAND ne sont pas non plus mentionnées dans d'autres réponses - elles sont devenues verticales de manière importante, avec [128 couches de cellules empilées verticalement] (https://www.google.com/search?q=128+layer+nand+flash + coupe + transversale).Puisque seulement 1 des 128 pourrait être actif, la chaleur n'est pas un problème.
Les NAND ne sont pas traités en continu avec la plupart de leurs «cellules», ce qui peut être très bien du point de vue de la chaleur.
user5216459
2020-07-29 18:37:34 UTC
view on stackexchange narkive permalink

Le fait est que les scientifiques d'aujourd'hui ne comprennent pas pourquoi les choses deviennent chaudes même lorsque des énergies spécifiques sont appliquées pour obtenir un résultat spécifique.

Tout dépend du potentiel d'énergie quantique pour obtenir le retournement d'un transistor (surchargé / sous-chargé) qu'ils ne peuvent pas perfectionner à cause des forces universelles qui agissent sur votre puce même si elle est blindée, les forces interagissent toujours avec ces potentiels, ces interactions sont au mieux supposées au mieux et ne semblent pas prendre en compte leur réflexion, le gaspillage d'énergie est émis depuis tous les axes de la géométrie et non directement le long du chemin de moindre résistance, ainsi que les harmoniques de la substance l'énergie est la fuite n'est pas parfaite sur le plan géométrique, mais ce n'est qu'un autre problème.

Je m'éloigne du sujet, l'empilement 3D nécessiterait des collecteurs de déchets intermédiaires qui absorbent l'énergie résiduelle de la puce au lieu d'extraire passivement les déchets.

Pensez à chaque transistor comme étant surchargé par des fluctuations dans le temps qui provoquent une émission comme une centrale électrique lors de la rupture d'un éclateur, l'énergie doit aller quelque part avant que la connexion ne soit rompue sur la première connexion mais comme ce n'est pas le cas, le transistor provoque une émission qui irradie l'énergie sous forme de chaleur en raison du crash spontané de l'énergie résiduelle qui tente de déclencher le transistor mais ne peut pas et donc elle est réfléchie ou l'énergie continue simplement à entrer en collision avec la géométrie du processeur jusqu'à ce qu'elle ne soit plus l'énergie et chaque fois qu'elle se reflète, elle se décompose en dégageant de la chaleur ..

L'astuce est d'avoir un traitement de ruissellement comme une pile de cartes dans un triangle, chaque nez de cette pyramide de cartes est suivi du début à la fin et l'énergie restante serait déchargée vers un autre processeur qui est juste là pour REMPLIR LE EXIGENCE d'absorber l'énergie résiduelle, le cas échéant.

La raison pour laquelle vous voulez qu'un autre processeur récupère l'énergie perdue est que l'énergie doit se dissiper et fonctionner naturellement, le chemin de moindre résistance se produit à de nombreuses échelles et formes, le timing est très important, plus votre horloge est rapide, plusle temps dont vous disposez pour jouer avec l'énergie dont vous disposez.

Je serais ravi d'entendre la personne qui a voté à la baisse mon commentaire et d'essayer d'expliquer différemment et de savoir pourquoi ils ont voté à la baisse, mais je doute fort que j'entende ce qu'ils pensent.
Ce n'est pas moi qui vous ai critiqué, mais il y a quelques éléments dans votre réponse qui n'ont tout simplement pas de sens ou qui sont tout simplement faux.L'énergie s'écrase sur les transistors?L'énergie ne parvient pas à déclencher les transistors?L'énergie en panne?Et la chaleur provenant de ça?Les gens d'aujourd'hui ne comprennent pas pourquoi les choses deviennent chaudes?Une synchronisation plus rapide réduit la consommation d'énergie?
Que sont les «collecteurs de déchets»?Ce n'est pas un terme standard d'EE et vous n'expliquez jamais ce qu'ils sont ou comment ils fonctionnent.Idem pour "traitement de ruissellement".Une bonne réponse doit être compréhensible pour les autres en utilisant une terminologie standard lorsque cela est possible et en définissant des termes dans la mesure du possible.
Eh bien, la réponse est incohérente.S'il essaie de dire quelque chose, il essaie d'en dire trop avec trop peu.


Ce Q&R a été automatiquement traduit de la langue anglaise.Le contenu original est disponible sur stackexchange, que nous remercions pour la licence cc by-sa 4.0 sous laquelle il est distribué.
Loading...