Moore's Law and The Future of [Technology] Economy

Why and how innovation should become mainstream economic impetus

Un peu d’histoire : la genèse des premiers services « utiles »

Dès l’instant où les premiers ingénieurs enthousiastes ont souhaité se joindre aux savants fondateurs de la science du calcul pour construire les premières machines universelles, les décideurs supposés financer ces opérations ont posé la question de base : à quoi vont-elles servir ?

Imaginez ce que vous pouvez faire d’utile avec une machine disposant de quelques centaines à quelques dizaines de milliers de mots en mémoire, et une vitesse d’exécution de quelques kilohertz. Aujourd’hui lorsqu’un nouveau domaine s’ouvre certains posent la question «  mais que voulez-vous faire de toute cette puissance de calcul supplémentaire », à l’époque c’était bien plutôt l’inverse ! Lire la suite »

Le statut et l’importance des services logiciels [4] : le développement d’un marché de services

De la même façon que nous avons dégagé des tendances communes à la structuration des nouveaux domaines ouverts par la loi de Moore du côté infrastructure, le côté des services laisse également apparaître des patterns communs.

La dynamique du développement d'un marché de services

La dynamique du développement d’un marché de services

Une économie de services se construit dans le temps par la mise sur le marché de propositions de valeur successives et cumulatives. Lire la suite »

Le statut et l’importance des services logiciels [3] : la logiciélisation, tendance économique de fond

Pour revenir (brusquement !) de ces discussions aux origines à ce que nous avons constaté depuis Turing sur le plan économique, nous voyons également sur ce plan une prise d’indépendance, et une importance croissante du logiciel. Une partie grandissante de la valeur est dans le logiciel, cette « chose » immatérielle, et c’est désormais une industrie qui s’en occupe. Lire la suite »

Le statut et l’importance des services logiciels [2] : le statut ontologique du logiciel

Pour Turing, face à un problème immensément complexe comme celui de construire une machine intelligente, tout est question de logiciel – c’est un premier pas vers le fait de donner un sens précis au terme d’intelligence[1]. On sait bien d’ailleurs que le logiciel qui permettra (un jour, nous le supposons possible) de répondre à la question sera d’une complexité bien supérieure à celle de la machine matérielle permettant de l’exécuter. Lire la suite »

Le statut et l’importance des services logiciels [1] : les grandes idées lancées par Turing

Dans la théorie publiée par Turing en 1936, et contenant notamment la découverte de l’ordinateur, le logiciel est initialement conçu comme une description de machine permettant de substituer à la machine concrète un couple [machine générique, logiciel]. Il est donc un moyen, presque un pis-aller, à la place de la machine concrète. Il est en outre un artefact mathématique permettant la démonstration des résultats fondamentaux sur la puissance et les limites du calcul, en particulier sur l’indécidabilité de l’arrêt de la machine de Turing[1]. Lire la suite »

Le second versant : les services

Services : idées et imagination

Attaquons maintenant la partie probablement la plus intéressante du second versant  pour un non spécialiste des technologies de l’information: celui des services. Autant la première partie, avec ses variations sur le thème des infrastructures, répétant et déclinant en le complexifiant le thème de la machine universelle originelle, peut passionner l’homme avide de connaissance… ou le geek, autant la seconde partie est sans limite, destinée à l’être humain, et part à son exploration. Lire la suite »

De quoi est fait une infrastructure [5] ? d’ « ilities », propriétés qualitatives d’une infrastructure

Outre les fonctionnalités décrites ci-dessus, indiquant de quoi une infrastructure est faite, celle-ci doit posséder des propriétés qualitatives qui la rendent adaptées à son utilisation. Il y en a de plusieurs types, liés à la performance et à la façon dont elle est atteinte, à la façon dont le système évolue dans le temps, à son adaptation à un usage, à la sûreté et la sécurité.

Regardons les performances tout d’abord. Il est intéressant de constater que certaines mesures de performance constituent un argument publicitaire, comme les gigahertz (GHz), les gigaoctets (Gbytes) ou les gigabits par seconde (Gbit/s). Mais une question essentielle est de savoir comment ces performances sont obtenues, et finalement ce qu’elles signifient. Sans parler des éventuelles publicités mensongères, il y a en fait deux sortes d’informatiques tout à fait distinctes. Lire la suite »

De quoi est fait une infrastructure [4] ? De systèmes de gestion de contenu

Tous les systèmes gèrent des contenus. Dans les cas simples, ou traditionnellement, on parle de données. Sur le web, on parle de musique, de news, de blogs, de vidéos, de données de capteurs divers, etc. Quoiqu’il en soit, la quantité de données, ou de contenu, donc, croît avec la rapidité de la loi de Moore – car les capacités de mémorisation, et plus encore la capacité de mémoire déployée, augmentent au rythme de la loi de Moore.

A la base, gérer des contenus c’est mémoriser des fichiers sur des disques durs, donc rien de très complexe à cela. Seules les grandes fermes de serveurs et les systèmes de cloud computing mentionnés ci-dessus ont contraint à revisiter le middleware servant au système de fichiers.

La chose devient plus intéressante lorsque l’on se pose la question de faire traiter ces contenus par des systèmes sophistiqués ou intelligents, en particulier pour ce qu’ils représentent ou signifient, pas seulement pour la collection d’octets qui les représentent. Lire la suite »

L’infrastructure et les écosystèmes le long de la pyramide de Feynman [6] : le web des objets

De vastes systèmes distribués sont en train de naître dans nos cités et dans nos campagnes à travers le web des objets. C’est une extension vers des infrastructures distribuées encore plus massives que celles décrites précédemment, qui incluent des milliards d’objets digitalisés.

Cela résultera d’un double mouvement : des systèmes sur le web s’étendront en les incluant vers des objets intelligents existants ou nouveaux; des objets digitaux se connecteront au web et commenceront à « parler » à leurs congénères et aux utilisateurs pour former de nouveaux systèmes. Les architectures globales du web ont ainsi tendance à se reproduire à nouveau de façon fractale, mais cette fois « à l’horizontale » dans des systèmes locaux. On n’a pas un seul web des objets, mais des webs de sociétés d’objets.

Par exemple, on parle de réseaux de capteurs. Il s’agit de capteurs disséminés, communicant à la base en proximité les uns avec les autres, et ainsi capables de communiquer à longue distance grâce à des réseaux multi hop. Pour les rendre utiles, ils sont groupés dans des systèmes digitaux étendus complexes et grâce auxquels on sera en mesure de proposer des services. Dans ces systèmes, les capteurs et le système global sont mis en œuvre simultanément. Un exemple pourrait être de semer des capteurs par avion sur une forêt à risque pour prendre en charge l’alerte incendie. Lire la suite »

L’infrastructure et les écosystèmes le long de la pyramide de Feynman [5] : les très petits systèmes

On a rangé à part sous cette catégorie de très petits systèmes des systèmes embarqués d’une nouvelle sorte, aux facteurs de coût, de consommation énergétique et de taille en rupture, et permettant de nouvelles applications.

Ce sont des systèmes qui sont tout en bas dans la pyramide de Feynman dans son état présent. Bien sûr, leurs écosystèmes ne sont en général pas matures, ils sont même quelquefois seulement balbutiants. Ils n’apparaissent donc en particulier pas sous la forme de systèmes distribués. Lire la suite »