La « pyramide de Feynman » : le développement d’écosystèmes en couches sous l’effet de la loi de Moore

par Jean-Luc Dormoy

Richard Feynman avait présenté le 29 décembre 1959 un papier resté fameux intitulé « There is plenty of room at the bottom ». Il est considéré aujourd’hui comme le papier fondateur des nanotechnologies. L’idée maîtresse est qu’il y a « beaucoup de place en bas », c’est-à-dire dans la conception et réalisation d’objets de plus en plus petits, jusqu’à l’échelle atomique.

La mise en œuvre de la loi de Moore, avec la miniaturisation planifiée des composants de l’électronique, donne une première réalité à ce programme[1].

Par contre, ce qui ne pouvait pas être perçu à l’époque du papier de Feynman, c’est que ces développements allaient provoquer l’apparition de domaines applicatifs entièrement nouveaux, et donc de marchés de services.

"There is plenty of room at the bottom", inspiré de Feynman

« There is plenty of room at the bottom », inspiré de Feynman

Le schéma de la Figure 10 reprend en l’adaptant le schéma initial de Feynman, en plaçant les marchés apparus jusqu’à aujourd’hui. Il nous servira dans les articles qui suivent et traitent de l’infrastructure et des écosystèmes de support au raisonnement.

Le schéma est celui d’une pyramide qui se développe vers le bas. Chaque niveau dans la pyramide correspond à un type d’application, à un type d’usage, à un marché, et comme déjà introduit, à un type de plate-forme d’exécution. En outre, chaque niveau correspond à un niveau de prix auquel est vendu un exemplaire de machine chargée d’applications de ces marchés. Enfin, leur correspond également une taille de ces marchés en nombre d’exemplaires vendus. Les chiffres indiqués aussi bien pour les prix que les quantités sont métaphoriques, ils évoluent dans le temps, c’est leur relation mutuelle que nous souhaitons indiquer.

Cette pyramide ne s’est pas constituée en un jour, elle est le résultat du développement des technologies de l’information en tant qu’industrie depuis leur début après la seconde guerre mondiale puis sous l’impulsion de la loi de Moore à partir des années 60.

La pyramide s’est développée vers le bas sous l’impulsion de la loi de Moore pour atteindre à chaque époque un certain niveau. Par exemple, au début des années 80, on en est arrivé au stade du PC. La loi de Moore a en effet fourni une puissance de calcul suffisante à un niveau de prix acceptable pour qu’un ordinateur personnel puisse constituer une offre viable sur un premier marché – encore réduit. On voit apparaître d’abord des techno fans, souvent chevelus à cette époque, qui aiment assembler des « home brewed computers », c’est-à-dire des ordinateurs personnels bricolés « à la maison » (les mythiques garages californiens). Ils adaptent et réinventent les outils développés jusque là sur les marchés supérieurs existants – à l’époque le marché des mainframes, des gros serveurs auxquels les employés d’une entreprise accèdent à travers des consoles. On voit ainsi apparaître un nouveau langage, Basic, pour lequel deux jeunes diplômés de Harvard, Bill Gates et Steve Ballmer décident de vendre un interpréteur via une société nouvellement créée, Microsoft. D’autres fournissent des machines complètes aussi « amicales avec l’utilisateur » que possible, dans le nouveau contexte d’une informatique personnelle, ainsi Steve Jobs, Wozniak et d’autres avec les premiers Lisa d’Apple Computer, également une nouvelle société.

Quelque chose comme l'industrie des TI en 1980

Quelque chose comme l’industrie des TI en 1980

Ces machines intéressent les techno fans – qu’on n’appelle pas encore les geeks – mais pour dépasser ce premier cercle il est nécessaire de trouver des services réellement utiles sur un ordinateur personnel – et qui ne pourraient pas trouver leur mise en œuvre dans le cadre bien établi des mainframes d’entreprise.

L'Apple 1, avec une caisse en bois

L’Apple 1, avec une caisse en bois

Ce sera Visicalc. Visicalc est la première version de ce qu’on a appelé ensuite le tableur, c’est-à-dire ces logiciels revisitant la notion de feuille de calcul, permettant des applications complexes de comptabilité ou plus généralement de calcul. C’est une « application tueuse », (killer application) c’est-à-dire qu’elle est tellement séduisante pour une catégorie assez large de clients potentiels qu’elle justifie dans leur esprit l’achat de la plate-forme d’exécution permettant de la faire tourner : un ordinateur personnel. Aux yeux des acheteurs, un service unique paie pour l’infrastructure.

A Visicalc seront rapidement associés les traitements de texte, qui permettent de taper des textes seul (sans secrétaire !) avec un confort incroyable pour l’époque (les premières interfaces Wysiwig – What You See Is What You Get) ou une sophistication sans limite (le langage et le logiciel TeX de Donald Knuth pour les textes scientifiques). A cela s’ajoutent rapidement des logiciels de schémas et de dessin, puis des logiciels de présentation, rendant caduques les slides – littéralement la confection puis projection de diapositives photo.

Comme on le sait, l’intégration de ces applications dans une suite unique, Office, sera une des sources de la fortune de Microsoft.

Mais assez pour ce détour côté service, nous entreprendrons le voyage complet plus tard.

Car si Microsoft est connu pour sa suite Office, il l’est encore plus pour son système d’exploitation et interface de base Windows. En réalité, Gates et Balmer n’avaient pas imaginé initialement pour Microsoft de fabriquer et de vendre un système d’exploitation – ils avaient donc leur outil de création de programmes Basic. C’est IBM qui leur en a donné l’idée, en cherchant un tel système pour leur futur PC. Gates et Balmer ont alors trouvé un programmeur dans la « vallée » prêt à céder son prototype pour quelques milliers de dollars, qui deviendra DOS. Ayant néanmoins le nez creux, ils introduiront dans le contrat avec IBM une clause leur permettant d’équiper des ordinateurs personnels « clones » d’un IBM PC, mais non IBM.

La pyramide d'aujourd'hui, jusqu'aux appareils mobiles et aux systèmes embarqués

La pyramide d’aujourd’hui, jusqu’aux appareils mobiles et aux systèmes embarqués

Ensemble de fait avec Intel, qui lançait ses processeurs à architecture dite x86, Microsoft allait devenir le fournisseur de la plate-forme de référence pour les ordinateurs personnels avec DOS devenu Windows. Le passage par des impasses historiques comme OS2 ne l’en a pas empêché, non plus qu’une réputation de moindre qualité par rapport au concurrent Apple, qui lui n’avait pas laissé la possibilité d’équiper des ordinateurs d’autres fournisseurs de son système d’exploitation.

Microsoft allait devenir riche – et les vendeurs d’applications pour PC Intel-Windows encore plus riches, nous y reviendrons. IBM allait manquer de disparaître, sans l’action résolue de Louis V. Gerstner, qui a « fait danser un éléphant »  pour réinventer cette compagnie lorsqu’il a été son CEO au plus fort moment de sa crise au début des années 90.

Donc, en 1980, la frontière applicative et en terme d’écosystème était l’ordinateur personnel.

Aujourd’hui en 2010, la frontière s’est déplacée vers le bas, et plusieurs niveaux, ou écosystèmes, ont été ajoutés en 30 ans à la pyramide – avec dans une certaine mesure une redéfinition des niveaux existants, nous y reviendrons.

Parmi celles-ci on trouve l’écosystème des appareils mobiles, qui étend en fonctionnalité celui des téléphones mobiles, et celui des systèmes embarqués. Ceux-ci sont ces systèmes informatiques « enfouis » dans des appareils ordinaires, et qui y remplissent des fonctions d’intelligence dont l’utilisateur peut ignorer l’origine digitale. Cela concerne les objets de transport – avions, trains, voitures – les usines, les systèmes dans les grands bâtiments tertiaires, les centrales ou réseaux électriques, etc. Ils sont arrivés dans la maison avec la connexion à l’Internet et la convergence avec le multimédia – « boxes » Internet et « set top boxes » pour la télévision par satellite, câble ou ADSL.

Ces « écosystèmes frontières » constituent pour les TIs les marchés de masse du moment. Imaginons bien qu’en 2011 six milliards d’appareils mobiles sont en utilisation, pour 7 milliards d’êtres humains (soit, compte tenu des doublons, quelque chose comme 2 êtres humains sur 3 équipés d’un appareil mobile).

Quant aux systèmes embarqués, retenons simplement le nombre de chips vendus au même moment : environ 15 milliards. La plupart des ordinateurs sont donc aujourd’hui des ordinateurs embarqués. On estime qu’une personne dans un pays développé interagit avec plusieurs centaines de systèmes embarqués chaque jour. Une voiture peut en comporter plusieurs dizaines.

En outre, le lecteur sait que chacun de ces écosystèmes ne reste pas figé. Ainsi, on a vu apparaître récemment (depuis 2010) pour les appareils mobiles des smart phones, possédant plus de fonctionnalités qu’un simple téléphone, puis de véritables ordinateurs mobiles, où l’utilisateur peut enrichir son appareil « d’apps » logicielles téléchargées selon un modèle d’affaires ou un autre.

De la même façon, les systèmes informatiques sous le capot de votre voiture vivent une histoire semblable bien que moins connue; une infrastructure générique, appelée AUTOSAR, apparaît, sur laquelle des services logiciels distribués s’exécutent pour répondre à vos commandes – de l’appui sur le frein au déclenchement des essuie-glaces – avec une intelligence grandissante.

Ce rapide retour sur l’histoire de l’industrie des TI, que nous allons maintenant creuser, va nous permettre de tirer des caractères généraux et des enseignements pour l’avenir.

Pour cela, il nous faut d’abord décrire avec force détail ce dont est constitué une plate-forme d’exécution et l’infrastructure qui lui sert de support. On pressentira dans la description qu’au sein d’un même écosystème, l’infrastructure « vit » sous l’impact de la loi de Moore, pour se complexifier et passer par des états, que nous appelons modèle de maturité, sur lesquels nous nous appesantissons ensuite.


[1] Nous disons « première », car les nanotechnologies et la biologie synthétique constituent probablement d’autres mises en œuvre à venir, qui suivront peut-être d’autres lois de Moore à définir.

Richard Feynman. There’s plenty of room at the bottom. Papier présenté au congrès de l’American Physical Society à Caltech le 29 décembre 1959.

Louis Gerstner. J’ai fait danser un éléphant : l’ancien président d’IBM raconte la renaissance de Big Blue. Village mondial, 2003.

Licence Creative Commons
Moore’s Law and the Future of [Technology] Economy de Jean-Luc Dormoy est mis à disposition selon les termes de la licence Creative Commons Attribution – Pas d’Utilisation Commerciale – Partage à l’Identique 3.0 non transposé.
Basé(e) sur une oeuvre à mooreslawblog.com.