Le calculateur, du tube au transistor au circuit intégré
par Jean-Luc Dormoy
Deux histoires sont à écrire pour suivre les développements de la loi de Moore, une pour chacun de ses versants. Nous entreprenons ici celle du premier versant : mettre de plus en plus de transistors sur une même surface de silicium.
Histoire technologique de la loi de Moore
L’histoire dite « technologique[1] », c’est-à-dire celle du premier versant, est à ce jour une histoire de physiciens du solide, de chimistes, d’opticiens pour le volet scientifique, et une formidable histoire d’ingénierie et pour la mise en place de la production. Il a fallu passer par un nombre considérable de résolutions de problèmes pour arriver aux tailles de miniaturisation de transistors d’aujourd’hui, autour de 28 nm[2]. Ces progrès ont été obtenus grâce à des financements de plus en plus importants d’équipes de R&D massives et concentrées. En outre, les moyens de production, machines et usines, ont suivi cette course, avec là aussi une tendance au gigantisme.
Jusqu’à présent, ce premier versant repose sur deux piliers :
- la capacité de fabriquer des circuits dont le composant élémentaire, le transistor, est de plus en plus petit
- la capacité de les produire en masse à un coût surfacique constant ou au moins ne dévorant pas le gain obtenu grâce à la diminution de la taille du transistor.
Ce second point est important. L’énoncé populaire de la loi de Moore indique que le nombre de transistors par unité de surface double tous les 18 mois. Mais pour que cela ait une conséquence économique il faut que l’unité de surface « chargée » d’un circuit opérationnel reste d’un coût sensiblement constant ou en croissance sous linéaire.
Nous voyons maintenant comment cela s’est réalisé depuis environ 50 ans.
Les circuits intégrés : premiers pas et évolution
La formulation de la loi de Moore a été rendue possible et reste à ce jour attachée à la notion de circuit intégré. Un circuit intégré est un circuit comprenant des composants électroniques et mis en œuvre sur une puce unique, en deux dimensions.
Les circuits intégrés ont été rendus possibles par deux découvertes, celle des semi-conducteurs, et celle du transistor. Avant ces deux découvertes, on pouvait déjà réaliser des circuits logiques grâce à des composants électroniques, dont le plus important était le tube à vide. Les premiers ordinateurs ont d’ailleurs été réalisés grâce à ces tubes, ainsi l’ENIAC, un des premiers ordinateurs, et le premier aux Etats-Unis, comprenait 17 000 tels tubes. Mais ces tubes étaient gros, peu fiables, consommaient une énergie importante et chauffaient beaucoup. Les progrès en informatique auraient été impossibles si aucun substitut au tube à vide n’avait été trouvé.
Le transistor a été inventé en 1947 par trois chercheurs de la compagnie Bell Telephone, John Bardeen, William Shockley et Walter Brattain. Le nom transistor a été déterminé par un comité directeur de 26 personnes des Bell Labs, comme signifiant transfer resistor. Les trois chercheurs ont reçu de la part de leur employeur chacun 1 dollar pour leur découverte, ce qui constituait la récompense standard à cette époque aux Bell Labs. Comme le dira plus tard Bill Shockley dans une interview « le monde ne serait pas assez riche pour nous payer 1 cent pour chaque transistor utilisé ». Ce qui est exact pour 2010, avec une estimation du nombre moyen de transistors par puce à 1 million (hypothèse basse), et 15 milliards de chips vendus dans le monde, cela ferait 150 000 milliards de dollars, soit environ 3 fois le PIB mondial. Mais ces trois chercheurs recevront tout de même le prix Nobel de physique en 1956 pour leur découverte.
Le transistor n’est pas le seul objet dans le bestiaire des composants électroniques, qui comprend aussi des résistances, des capacitances, des diodes, etc., mais c’est le plus important. Car il peut agir comme un interrupteur commandé par un courant, ce qui explique son utilisation dans les circuits logiques. Le transistor a d’autres fonctions importantes, comme l’amplification, qui sert par exemple dans ces objets des années 60 que l’on appelait aussi transistor, à savoir des appareils récepteur de radio miniaturisés par rapport aux postes à lampes. En outre il peut stabiliser une tension, moduler un signal, etc. Bref, c’est un composant à beaucoup faire, et tout particulièrement des circuits logiques.
Le transistor est mis en œuvre en utilisant des semi-conducteurs. Les premiers transistors utilisaient souvent le germanium, mais le silicium s’est ensuite imposé comme matériau de choix. Le silicium est l’élément de numéro 14 et de symbole Si dans la table de Mendeleïev, que l’on trouve sous forme naturelle comme oxyde SiO2 appelé silice, qui compose notamment le sable. Après l’oxygène, le silicium est l’élément le plus abondant dans la croûte terrestre. La silice est utilisée depuis environ 3 000 ans pour faire le verre[3]. Aujourd’hui, le silicium sert donc aux puces électroniques, mais aussi aux panneaux solaires[4]. Comme le germanium et la forme diamant du carbone, le cristal de silicium (pur) a une maille de type diamant.
Le silicium est un semi-conducteur, c’est-à-dire un matériau beaucoup moins conducteur que les métaux – pratiquement un isolant – mais pour lequel la probabilité qu’un électron participe à un courant électrique est néanmoins suffisamment importante. Lorsqu’une tension est appliquée aux bornes d’un semi-conducteur, un courant électrique faible apparaît causé par le déplacement des électrons de la bande de valence, qui sont proches dans un semi-conducteur de la bande de conduction, et les « trous » qu’ils laissent par leur déplacement. Il existe d’autres semi-conducteurs utilisés dans l’industrie de l’électronique, comme l’arséniure de gallium, un exemple de matériau « III-V », car le gallium et l’arsenic sont respectivement dans les colonnes « III » et « V » de la table de Mendeleïev, alors que les semi-conducteurs comme le silicium et le germanium sont dans la colonne « IV »[5].
Le transistor constitue un énorme progrès par rapport aux tubes électroniques. Il est plus petit, plus léger, consomme beaucoup moins, se satisfait de tensions faibles – il fallait des centaines de volts pour les tubes –ne réclame pas de temps de chauffage pour se mettre en route, est fiable et dure beaucoup plus longtemps.
On va donc rapidement produire toutes sortes de transistors, que l’on assemble avec d’autres composants électroniques sur des cartes pour remplir diverses fonctions. Parmi celles-ci, on réalise des circuits logiques. Pourtant, si le progrès par rapport aux circuits comportant des tubes à vide est patent, les progrès en complexité possible des circuits sont limités par les capacités de manipulation des composants petits mais macroscopiques et d’intégration manuelle ou automatique au circuit sur la carte.
En 1949, un ingénieur allemand de Siemens, Werner Jacobi, va déposer un brevet pour un appareil amplificateur réalisé sur un semi-conducteur et comportant ce qui va s’appeler ensuite un circuit intégré. Le circuit de Jacobi comportait 5 transistors, et n’a jamais eu d’application commerciale. Des propositions existent aussi en Grande-Bretagne dans les années 50.
Les tentatives fructueuses viendront indépendamment de Jack Kilby et Robert Noyce en 1957 et 1958 aux Etats-Unis. Kilby montre à ses collègues du Lab de Texas Instrument le premier circuit intégré opérationnel en septembre 1958, financé par un contrat de l’armée américaine – le programme Micro-Module. Ce circuit n’avait qu’un transistor et quelques autres composants électroniques sur une tranche de germanium.
Le circuit intégré sera pendant encore quelques années plus un objet de curiosité que pris au sérieux par l’industrie. Cela changera notamment avec la réalisation du contrôle du missile Minuteman[6] par un circuit intégré en 1962, et la création par Kilby de la première calculatrice de poche, qui constituera un produit vedette de TI. Kilby recevra le prix Nobel de physique en 2000 pour son invention.
Indépendamment, donc, Robert Noyce invente également le circuit intégré dans ce qui va devenir la Silicon Valley, en Californie – il sera plus tard surnommé le « maire de la Silicon Valley ». Son premier chip sera en silicium. Après avoir quitté Beckman Instrument, une société qui emploie Bill Shockley, un des pères du transistor, il crée Fairchild Semiconductor, avec Gordon Moore parmi ses collaborateurs. Fairchild sortira le premier circuit intégré commercial. Puis lui-même et Gordon Moore quittent Fairchild en 1969, et, rejoints par Andy Grove, ils fondent Intel. C’est alors qu’il est à Fairchild que Gordon Moore publiera son fameux papier sur ce qui est devenu la « loi de Moore » en 1965.
Les circuits intégrés sont ensuite passés par une série de générations permettant une intégration toujours plus poussée : SSI, MSI, LSI et enfin VLSI[7].
Les circuits SSI n’avaient que quelques transistors. Ces circuits ont néanmoins fait l’objet d’un marché US passant de 4 millions de dollars en 1962 à 312 millions en 1968, en grande partie pour des applications militaires. Les circuits MSI à la fin des années 60 comportaient des centaines de transistors, et les LSI au milieu des années 70 des dizaines de milliers. Les premiers microprocesseurs comportaient quelques milliers de transistors[8].
Les VLSI sont arrivés dans les années 80, et ont commencé avec des puces comportant des centaines de milliers de transistors. Aujourd’hui, certains processeurs complexes comportant plusieurs milliards de transistors. On n’a plus trouvé nécessaire de créer de nouvelles appellations qualifiant l’extrême intégration.
On est passé dans cette évolution d’un stade où il était encore nécessaire d’assembler plusieurs circuits intégrés sur une carte électronique pour obtenir une unique fonction cohérente, par exemple un ordinateur personnel, à un stade où on intègre l’ensemble de la carte sur une puce unique, parce que l’on dispose d’une abondance de place et de transistors ! Ainsi, les chips de réseau, de son, et désormais graphiques sont sur le même chip que le processeur principal d’un PC. D’ailleurs ce processeur n’est plus seul, on parle de multiprocesseur – multicore, et demain de manycore, lorsqu’il y aura 100 ou 1000 processeurs sur une même puce.
[1] Le terme « technologique » recouvre évidemment de nombreuses réalités. Les gens de la nanoélectronique se le sont appropriés pour en faire un synonyme de leur activité de développement « hardware » de la loi de Moore.
[2] nm = nanomètre, ou un milliardième de mètre, un millionième de millimètre, un millième de micron. Un atome d’hydrogène fait un dixième de nanomètre, un atome de silicium 3 (très approximativement).
[3] Qui serait utilisé sous la forme naturelle de l’obsidienne depuis 100 000 ans !
[4] Ou sous forme de composés organiques dans les silicones.
[5] Le carbone est également situé dans cette colonne « IV », mais ses propriétés chimiques servent surtout à construire les briques… de la vie.
[6] Le Minuteman, un missile nucléaire inter-continental, sera le premier objet à voir son contrôle mis en œuvre par un ordinateur embarqué. Il y a toujours 450 Minutemen III en service aujourd’hui. Le terme « minutemen » vient des combattants et miliciens américains de la guerre d’Indépendance, qui déclaraient « être prêts en 2 minutes ».
[7] Small Scale Integration, Medium Scale Integration, Large Scale Integration, Very Large Scale Integration.
[8] Donc comparables aux 17 000 tubes à vide de l’énorme ENIAC.
Moore’s Law and the Future of [Technology] Economy de Jean-Luc Dormoy est mis à disposition selon les termes de la licence Creative Commons Attribution – Pas d’Utilisation Commerciale – Partage à l’Identique 3.0 non transposé.
Basé(e) sur une oeuvre à mooreslawblog.com.