Moore's Law and The Future of [Technology] Economy

Why and how innovation should become mainstream economic impetus

De quoi est fait une infrastructure [3] ? De systèmes mis en réseau : les systèmes distribués…

Qu’est-ce qu’un système distribué ?

Jusqu’à présent nos avons considéré une machine seule, or chacun sait qu’aujourd’hui les nœuds de calcul sont connectés par des réseaux de toutes sortes. Ces réseaux peuvent être très locaux, comme Bluetooth ou les LAN – Local Area Networks – ayant pour support de l’Ethernet, du WiFi ou du CPL[1], ou globaux – on dit WAN, pour Wide Area Network – comme l’Internet à base d’ADSL, de fibre optique ou de réseau sans fil 3G, demain LTE ou WiMax. Sur ces réseaux en tant que supports physiques, on fait circuler de l’information sous forme de paquets en utilisant généralement le protocole de l’Internet, IP – Internet Protocol.

L’Internet, dont il est désormais connu qu’il a été initialement financé par l’armée américaine en 1969 – il s’appelait l’ARPANET – puis utilisé par les universités, a vu son expansion commerciale lancée en 1993 sous l’administration Clinton-Gore. On parlait à l’époque « d’autoroutes de l’information ». En sus des applications de courrier électronique et de transfert de fichiers déjà existantes à l’époque, le fait majeur ayant motivé son décollage a été l’explosion du web à partir de sa création par Tim Berners-Lee en 1991 au CERN, en Suisse. Le web repose aussi sur un protocole, http, et un standard de ce que l’on appelle l’hypertexte, html, et permettent d’échanger du contenu de toute nature, indépendamment des machines supports. Le web est donc une infrastructure logicielle s’exécutant au-dessus de l’infrastructure de l’Internet. Lire la suite »

De quoi est fait une infrastructure [2] ? De logiciel et d’outils logiciels de base…

Le miracle de l’informatique est, si l’on voulait être ironique, que l’on peut réaliser un même système de façon aussi complexe qu’on le souhaite. Evidemment, il n’y aurait pas de gain à cette fuite de la simplicité si elle ne s’accompagnait d’un gain en généralité. Chaque progrès de l’infrastructure correspond à une généralisation de la plate-forme d’exécution et à une extension de ses utilisations potentielles.

Tout d’abord la « machine nue » s’est vite avérée impraticable. Le langage dans lequel le logiciel doit être exprimé (le « langage machine ») est très difficilement appréhendable par l’être humain. On a donc inventé des langages dits « de haut niveau » pour faciliter la tâche du programmeur. Il s’est agi d’assembleurs, qui restent proches de la machine, mais utilisent autre chose que des « 0 » et des « 1 », puis de langages plus évolués, pour lesquels on a conçu des compilateurs et des interpréteurs capables de les exécuter par traduction en langage machine avant ou pendant leur exécution.

L’autre constatation a été qu’il était nécessaire pour tout programme d’introduire de façon répétitive certaines fonctionnalités, qui relevaient de tâches génériques à l’exécution de tout programme – comme la façon dont la machine doit réagir en cas d’erreur, dont elle doit communiquer avec l’extérieur via des périphériques, ou de la façon de structurer la mémoire en fichiers – ou qui facilitaient la gestion de la machine indépendamment des logiciels qui s’exécutent – comme de donner l’accès à plusieurs utilisateurs. On a alors regroupé toutes ces fonctions en un ensemble cohérent et autonome, le système d’exploitation.

Lire la suite »

De quoi est fait une infrastructure [1] ? De circuits…

Nous entamons ici un long tunnel passant à travers les huit ou dix articles qui suivent montrant toutes les dimensions des infrastructures modernes en technologie de l’information. Celles-ci vont du tout petit objet digital à des infrastructures comprenant des centaines de millions de noeuds sur l’Internet. L’universalité de l’ordinateur est bien sûr le fondement rendant possible la construction de ces infrastructures les unes au-dessus des autres, et la loi de Moore fournit les ressources en puissance de calcul, mémoire, et connectivité réseau à coût acceptable.

De circuits

Comme déjà mentionné, nous ne reprenons pas la vue habituelle qui sépare les systèmes informatiques en hardware d’un côté et software de l’autre. Cette vision considère que tout ce qui est sur la puce est du hardware, et tout ce qui hors de la puce, relevant du logiciel et de la programmation, est du software. Il y a de vraies raisons scientifiques et techniques justifiant cette catégorisation; ainsi, les disciplines universitaires sont considérées comme différentes, entre les départements (aux Etats-Unis et dans beaucoup d’autres endroits dans le monde) « d’Electrical Engineering » et de « Computer Science ». Cependant, ces deux disciplines sont tellement liées, et les concepts se déplaçant souvent de l’une à l’autre, on a souvent créé des départements mixtes « EE & CS » pour « Electrical Engineering & Computer Science ». Lire la suite »

La discipline de la loi de Moore

L’industriel proposant des composants d’infrastructure doit se tenir à la discipline de la loi de Moore s’il veut survivre. Supposons des cycles d’innovation de base de 3 ans, c’est-à-dire les cycles nécessitant des approches technologiques très différentes[1], et pas seulement de l’adaptation des cycles précédents; il est donc nécessaire d’avoir pour 3 ans d’investissement de R&D en caisse. S’il s’avère que la proportion des dépenses de R&D et des dépenses opérationnelles (production, vente, administration) est de 1/3 pour 2/3, cela signifie qu’il faut qu’un produit de durée de vie de 3 ans soit rentable en moins de deux ans, pour que la troisième année constitue la partie de la marge finançant l’étape suivante.

En conséquence, les industriels engagés dans une loi de Moore sont apparemment à tout instant extrêmement riches : ils ont un an de revenus en caisse. La tentation pourrait être extrêmement forte pour un gestionnaire borné de distribuer cette manne apparente, ou de l’utiliser à des opérations correspondant à ses mythes personnels favoris. S’il fait cela, il condamne la société à court terme – un cycle. Lire la suite »

Formation et maturation d’un écosystème [3]

Pour finir, examinons les interactions entre domaines. En effet, ils sont tout sauf étanches, particulièrement pour ce qui concerne l’infrastructure du point de vue des technologies et du savoir-faire.

Tout d’abord, comme on l’a vu, un nouveau domaine est fréquemment ouvert par des applications mise en œuvre sur des plates-formes constituées de circuits spécifiques, puis passe graduellement à des plates-formes programmables, fermant donc le domaine aux ASIC. Mais alors où passe l’industrie des ASIC ? Tout simplement dans le prochain domaine en passe de s’ouvrir en bas de la pyramide. Autrement dit, les technologies d’ASIC sont des explorateurs de nouveaux marchés et de nouvelles applications ! Il ne faut donc pas voir chez les industriels proposant ce type de produit une pauvreté technologique par rapport aux plates-formes complexes, mais l’obligation d’une agilité marketing exceptionnelle ! Lire la suite »

Formation et maturation d’un écosystème [2]

En résumé, que voyons-nous ? En quelque sorte le passage obligé dans l’histoire de chaque niveau de la pyramide de Feynman par une série d’états, que pour simplifier nous limiterons au nombre de quatre :

  • L’état « ASIC », le temps des circuits spécifiques
  • L’état « SoC » (System on Chip), celui de la programmation de certaines fonctionnalités, les autres restant sous forme d’ASIC Lire la suite »

Formation et maturation d’un écosystème [1]

A chaque nouvelle étape conduisant au développement d’un nouvel écosystème, une histoire semblable se répète, et cette histoire peut être caractérisée par l’évolution des plates-formes d’exécution et des infrastructures sous-jacentes utilisées dans le domaine. Il est d’ailleurs amusant de constater que chaque nouveau domaine procède ainsi à une sorte de récapitulation de l’histoire du calcul et de l’informatique[1]. Lire la suite »

La « pyramide de Feynman » : le développement d’écosystèmes en couches sous l’effet de la loi de Moore

Richard Feynman avait présenté le 29 décembre 1959 un papier resté fameux intitulé « There is plenty of room at the bottom ». Il est considéré aujourd’hui comme le papier fondateur des nanotechnologies. L’idée maîtresse est qu’il y a « beaucoup de place en bas », c’est-à-dire dans la conception et réalisation d’objets de plus en plus petits, jusqu’à l’échelle atomique.

La mise en œuvre de la loi de Moore, avec la miniaturisation planifiée des composants de l’électronique, donne une première réalité à ce programme[1].

Par contre, ce qui ne pouvait pas être perçu à l’époque du papier de Feynman, c’est que ces développements allaient provoquer l’apparition de domaines applicatifs entièrement nouveaux, et donc de marchés de services.

"There is plenty of room at the bottom", inspiré de Feynman

« There is plenty of room at the bottom », inspiré de Feynman

Lire la suite »

Les écosystèmes et l’infrastructure, introduction

Le schéma de base du calcul universel, avec une machine matérielle capable d’exécuter un logiciel pour en adopter le « comportement », était sans doute vu aux débuts de l’informatique comme à la fois théorique et pratique : on a un ordinateur, sur lequel on fait tourner un logiciel pour conduire un calcul et en interpréter les résultats.

Mais on allait rapidement s’apercevoir qu’il fallait compléter ce schéma de départ pour permettre le développement d’utilisations plus complexes et variées.

On a tout d’abord créé des langages et des systèmes d’exploitation, qui se sont interposés entre l’être humain et la machine physique, pour recréer « virtuellement » une machine plus complexe, mais plus souple et simple d’utilisation. Les choses se sont amplifiées lorsque qu’on a en outre mis plusieurs ordinateurs en réseau : il a fallu standardiser les protocoles de communication, et étendre les systèmes d’exploitation mono machine en des middlewares permettant d’avoir une vision unifiée et s’émancipant des détails physiques de l’ensemble des machines + réseau. Lire la suite »

Les perspectives de poursuite de la Loi de Moore

On a souvent évoqué la « fin de la loi de Moore ». Comme Gordon Moore l’a lui même indiqué, cette fin est certaine, car un processus exponentiel ne saurait continuer indéfiniment, sinon à absorber en un temps fini toutes les ressources disponibles ! Mais on peut en même temps être sceptique sur les causes « physiques » d’arrêt de la loi de Moore, c’est-à-dire relevant purement du premier versant. Lire la suite »