L’infrastructure et les écosystèmes le long de la pyramide de Feynman [3] : les systèmes d’interaction personnelle
par Jean-Luc Dormoy
Pour interagir avec tous ces systèmes distribués, et dans l’avenir avec les systèmes embarqués et les objets digitaux qui l’entourent, l’utilisateur a besoin de plates-formes d’interaction. On en a aujourd’hui deux principales, le PC et le mobile. La télévision pourrait être recyclée en plate-forme d’interaction fixe, et les tablettes du style iPad constituent peut-être un nouvel outil. La console de jeu ajoute des moyens d’interaction haptique, des accéléromètres liés au geste, etc. Le mobile possède des systèmes propres à la mobilité, comme le GPS, une boussole ou également les accéléromètres.
Dans les voitures, on a également des « écrans » qui marient les propriétés de ces différents appareils, en sus et de plus en plus en substitution des systèmes d’interaction traditionnels. Même le volant ou le jeu de pédales pourraient disparaître, on a des prototypes où ces commandes on été remplacées par des joysticks. Les avions, les systèmes de commande industriels adoptent également de plus en plus ces outils provenant de l’électronique grand public et des jeux.
Au-dessus de ce matériel, une infrastructure logicielle permet d’exploiter la machine (système d’exploitation), d’interagir avec l’utilisateur (pilotes des souris, écran et autres systèmes matériels d’interaction, système de fenêtrage), et de s’intégrer aux multiples systèmes distribués décrits précédemment.Les deux plates-formes principales, le PC et le mobile, ont été développées de façon opposée. Le PC est venu comme un objet isolé, mettant à disposition d’une personne la puissance de calcul d’un ordinateur. Le modèle était en effet à l’époque le mainframe ou le mini-ordinateur, ancêtres des serveurs d’entreprise, qui délivraient des services de calcul « en batch », c’est-à-dire désynchronisés de l’activité humaine en temps réel : gestion de l’entreprise, par exemple établissement des factures ou des paies, calculs d’ingénierie, etc. On a donc cherché des applications de ce type, mais pour la personne. Comme déjà mentionné, ce sera Visicalc, ancêtre des feuilles de calcul à la Excel. La connexion à un réseau, et les services insérés dans l’activité humaine en temps réel sous toutes ses formes, est apparue ensuite, avec le développement de l’Internet. On a en réalité eu là aussi un processus « bottom up », i.e. commençant par le bas, où les PC d’un département d’une même organisation ont été d’abord connectés entre eux, puis connectés au réseau du département d’à côté, puis à l’Internet. Robert Metcalfe décrit bien comment le débit de l’Internet à ses débuts était avant tout local; la carte des débits sur l’Internet d’aujourd’hui est toujours dans ce cas. Cela a d’ailleurs été une révolution intellectuelle pour une entreprise comme Microsoft de passer du modèle de la puissance de calcul isolée et proche de l’utilisateur à celui d’une puissance locale proche du lieu de l’interaction, mais intégrée à la puissance distribuée sur le réseau.
Le mobile a connu une évolution opposée, car le mobile s’est développé à partir d’un service par nature lié à un réseau, le téléphone mobile. D’un point de vue économique, ce sont d’ailleurs toujours les compagnies de télécommunication qui vendent au client final l’appareil de communication – alors que les PC sont vendus indépendamment de leur future connexion à l’Internet. Puis, comme on le montre dans la discussion sur les modèles de maturité des plates-formes d’exécution, le mobile est devenu un véritable ordinateur capable d’exécuter n’importe quel logiciel, se rapprochant ainsi de ce point de vue du PC, avec notamment une convergence de l’infrastructure logicielle sur les deux plates-formes.
Les deux modèles d’affaires opposés pourraient être à l’avenir chamboulés, avec notamment les tentatives pour imposer un modèle basé sur l’achat de l’appareil plutôt que sur l’achat de la connexion de la part des sociétés US vendant ces plates-formes. Ainsi, l’iPad n’est pas vendu par les telcos, un système marketing complexe a été mis en œuvre pour que l’acheteur d’iPad 3G puisse obtenir une puce 3G et un abonnement sans trop de difficulté – système qui marche avec plus ou moins de bonheur. Apple a ainsi tenté de développer avec la société française de cartes à puce Gemalto une carte SIM « générique » qui équiperait en dur les iPad, iPhone et autres, l’acheteur de ces plates-formes n’ayant alors plus aucune relation directe avec la telco : Apple en ferait son affaire globalement. De la même façon, sur les infrastructures de réseau, la technologie Wimax, qui est une sorte de Wifi à longue portée (autour de 50 km) est perçu à juste titre par les telcos notamment européennes comme un artefact pour les « sortir du jeu » des services mobiles; les telcos et équipementiers lui opposent donc la technologie LTE, qui doit succéder au 3G, donc une 4G.
L’intégration des systèmes d’interaction personnelle aux multiples infrastructures distribuées que l’Internet permet crée un univers de services possibles reposant sur les trois piliers de ces systèmes : la connectivité, l’interaction, la capacité locale de calcul et de mémoire. Pris deux à deux, ils caractérisent certains types de service. Les services les plus avancés les utilisent tous les trois. L’équilibre entre ces trois piliers est un gage de succès à l’avenir.
Moore’s Law and the Future of [Technology] Economy de Jean-Luc Dormoy est mis à disposition selon les termes de la licence Creative Commons Attribution – Pas d’Utilisation Commerciale – Partage à l’Identique 3.0 non transposé.
Basé(e) sur une oeuvre à mooreslawblog.com.