Les origines de la loi de Moore
par Jean-Luc Dormoy
Le raisonnement économique de la baisse de coût conséquence de l’universalité d’une machine universelle produite en grande quantité puis adaptée à l’application par logiciel est à l’origine de la loi de Moore, et a été retrouvé par Gordon Moore et ses équipes dans le contexte du développement des circuits intégrés de la microélectronique dans les années 60.
Au début des années 1960, Moore, ingénieur dans une petite société de composants silicium, Fairchild Semiconductors, est confronté comme toute l’industrie à une difficulté majeure. Pour réaliser un circuit utile dans une application réalisant une certaine fonction pour laquelle il y a un marché, il convient d’assembler des sous fonctions. L’idée de base de toute ingénierie est de réaliser une bibliothèque de sous fonctions un tant soit peu générales, réutilisables dans plusieurs fonctions, et ensuite de mettre en place un processus de conception et de production capable à faible coût de produire des systèmes complets utilisant des sous fonctions de la bibliothèques astucieusement agencées.
Or, malgré un effort considérable et de nombreuses tentatives, cela s’avérait impossible. La raison fondamentale était que les applications étaient trop variées, avec un nombre de pièces par marché trop petit pour rendre ce système rentable.
Gordon Moore, puis Intel lorsqu’il eut créé cette société avec d’autres, se sont donc tournés vers une autre solution : ne produire qu’un petit nombre de produits, non pas adaptés à des fonctions particulières, mais au contraire paramétrables après production aux applications du marché.
Il y eut deux tels produits : le microprocesseur, et la mémoire. En réalité, la mémoire est un sous composant d’un calculateur universel, mais on était déjà capable à cette époque d’assembler des systèmes de calcul incorporant à la fois un microprocesseur ayant sa propre mémoire pour les besoins stricts de l’exécution des instructions du programme en cours, et de la mémoire « de masse » aux capacités plus grandes, stockant les informations en attente ou de façon permanente.
Moore retrouvait donc de façon pratique les possibilités économiques du calcul universel.
Sur cette base, Moore explique même qu’il est possible d’avoir une approche commerciale extrêmement agressive, où l’on vend un nouveau modèle de processeur initialement à perte. Cela permet d’accélérer les ventes et le développement de nouveaux marchés – grâce à l’impetus ainsi apporté aux créateurs d’applications à base de logiciel – en conséquence d’augmenter le volume de la production, ce qui conduit à des gains d’échelle permettant de faire passer rapidement les coûts sous la barre de la rentabilité.
Autrement dit, Intel s’est mis à investir dans le développement du marché de ses puces en attirant rapidement les véritables « vendeurs » de ses systèmes, les offreurs d’applications.
Intel n’a pas gardé ce processus « secret ». Au contraire, il était préférable de faire savoirurbi et orbi au maximum de développeurs d’applications qu’Intel allait leur fournir avant tous les autres, et à un coût imbattable, les composants de base leur permettant de développer des services ouvrant de nouveaux marché, et de devenir ainsi riches – pourvu qu’ils soient assez rapides et imaginatifs. Gordon Moore a donc publié en 1965 son innovation industrielle, dans un papier resté fameux. La loi de Moore est le contraire d’un brevet, elle ne marche que parce qu’elle est connue et crue par tous.
L’architecture financière sera systématisée avec la création de la roadmap de l’ITRS –International Technology Roadmap for Semiconductors, organisation mondiale regroupanttous les industriels du silicium, qui rappelons-le sont des concurrents. Perfectionnement de la première mise en œuvre de la loi de Moore, les sommes de la phase initiale de « vente à perte » seront plutôt utilisées dans une phase préliminaire de R&D avec un objectif annoncé de performance des futures puces à l’intention des développeurs de services. Cela systématise l’approche, accélère encore le processus d’innovation, mais surtout, point essentiel, en continuant de faire savoir aux développeurs d’applications que les nouveaux produits de calcul de base vont bien arriver à une date fixée à l’avance. En outre, toute l’industrie des composants adoptera la loi de Moore, amplifiant encore les cycles d’innovation et la crédibilité de la roadmap. Les concurrents d’Intel y ont gagné, bien sûr, mais Intel également et de quelle façon ! Intel est aujourd’hui (chiffres 2009, pas sa meilleure année) une société ayant 80 000 employés, 35 milliards de dollars de chiffre d’affaire, qui dépense environ 5 milliards en investissements et 6 en R&D.
La promesse de la loi de Moore, base du financement et des cycles d’innovation rapide de toute l’industrie des technologies de l’information, était en place.
On notera que la stratégie de Moore est l’inverse d’une stratégie de « conquête de marché » classique. Dans ces stratégies, on considère que le marché est donné, avec une certaine taille, et que l’action que l’on va conduire devrait avoir pour conséquence de conquérir une certaine part de ce marché, voire de le faire croître, mais à produit ou service constant. En outre, dans une vision malthusienne, l’expansion du marché utilise des ressources de moindre qualité et donc avec des rendements décroissants.
La stratégie de Moore consiste au contraire à créer le marché et à son expansion la plus rapide possible, sa conquête étant une conséquence de second ordre : comme le marché est créé grâce à l’existence de nos produits, il les adopte, avant que les concurrents, nécessairement moins rapides, ne constituent une concurrence sérieuse. La rapidité ainsi que l’ouverture constituent deux traits essentiels de la loi de Moore vue comme stratégie industrielle.
Moore’s Law and the Future of [Technology] Economy de Jean-Luc Dormoy est mis à disposition selon les termes de la licence Creative Commons Attribution – Pas d’Utilisation Commerciale – Partage à l’Identique 3.0 non transposé.
Basé(e) sur une oeuvre à mooreslawblog.com.