Formation et maturation d’un écosystème [3]
par Jean-Luc Dormoy
Pour finir, examinons les interactions entre domaines. En effet, ils sont tout sauf étanches, particulièrement pour ce qui concerne l’infrastructure du point de vue des technologies et du savoir-faire.
Tout d’abord, comme on l’a vu, un nouveau domaine est fréquemment ouvert par des applications mise en œuvre sur des plates-formes constituées de circuits spécifiques, puis passe graduellement à des plates-formes programmables, fermant donc le domaine aux ASIC. Mais alors où passe l’industrie des ASIC ? Tout simplement dans le prochain domaine en passe de s’ouvrir en bas de la pyramide. Autrement dit, les technologies d’ASIC sont des explorateurs de nouveaux marchés et de nouvelles applications ! Il ne faut donc pas voir chez les industriels proposant ce type de produit une pauvreté technologique par rapport aux plates-formes complexes, mais l’obligation d’une agilité marketing exceptionnelle !
Ensuite, le passage dans un domaine à une phase plus complexe, particulièrement de plate-forme ouverte, réclame une compétence technologique venant probablement des niveaux supérieurs. Pour illustrer cela nous prendrons la stratégie d’Intel vis-à-vis des plates-formes mobiles depuis plus d’une décennie.
Intel rêve d’équiper les appareils mobiles avec ses puces probablement depuis 1997. A cette date, la compagnie de minicomputers DEC, qui a été en son temps le second constructeur mondial, fait faillite. C’est le patron de DEC qui avait dit en 1979 « que voulez-vous que les gens fassent d’un ordinateur à la maison ? », empêchant ainsi sa société de participer au domaine en émergence du PC – une autre interaction entre domaines. A cette « occasion », Intel a récupéré une licence des processeurs ARM, que DEC possédait, et qui s’appelait StrongARM. ARM est cet industriel britannique qui conçoit et vend des « IPs » de processeurs pour les applications embarquées. Le jeu d’instructions ARM équipe probablement le plus grand nombre de processeurs dans le monde. Et en particulier les chips de téléphones 2G et 3G, fournis par des vendeurs comme ST Microelectronics, Texas Instruments ou Qualcomm.
Intel rebaptise alors cette technologie XScale, et se bat pour que des fournisseurs en équipent leurs appareils – les Palm auront ainsi pendant un temps leur « XScale Inside ». Le succès est limité à ce stade, et nul pour les plates-formes mobiles. Celles-ci sont en effet à leur stade « SoC », et l’avantage technologique est chez ceux qui savent faire les circuits spécialisés inclus dans le SoC autour du processeur ARM central, notamment dans le traitement vidéo ou la connexion RF (Radio Frequency). Mais Intel attend son heure, et publie plusieurs fois des documents indiquant « qu’à un stade donné, le marché aura besoin des technologies de processeurs complexes qu’Intel a su développer pour les PC et les serveurs ». Intel profite de ce temps pour regrouper tous les éléments technologiques dont il ne dispose pas pour attaquer ce marché : IPs vidéo, RF, etc., soit par rachat, soit par partenariat. En 2005, Intel semble prêt.
Mais voilà, Intel se fait alors rattraper par une rupture technologique sur les marchés qu’il domine. La « course aux gigahertz », qu’on croyait pouvoir poursuivre jusque vers les 10 ou 15 GHz, et qui constituait alors un des arguments marketing clés pour le renouvellement du parc des PCs, doit s’arrêter. Comme nous l’expliquerons dans un futur article sur la partie circuits de l’infrastructure, la créativité permettant d’incorporer les nouveaux transistors fournis par la loi de Moore dans un processeur unique de façon à obtenir plus de performance est épuisée. En outre, une barrière de l’énergie se dresse sur la route de toujours plus de GHz, qui nécessiterait des puissances d’alimentation déraisonnables, et surtout qui rend impossible l’évacuation de la chaleur produite, d’où des processeurs dont la température de surface attendrait des milliers de degrés !
La solution existe, elle s’appelle multicore, qui consiste à mettre plusieurs processeurs (« cœurs ») sur une même puce, avant de s’appeler dans la suite de cette histoire manycore lorsque les processeurs deviennent trop nombreux pour les compter – et pour l’esprit humain les programmer individuellement. Mais de l’idée à la réalité il y a plus qu’un pas, et il faut désormais arrêter toute une série de projets pour concentrer les forces sur ce bouleversement technologique impactant les marchés qui font vivre Intel. On verra le CEO de l’époque s’excuser devant des centaines d’ingénieurs réunis du manque de clairvoyance de la direction, et regagner leur confiance sur les nouveaux objectifs.
Parmi ces projets sacrifiés, celui concernant le marché des appareils mobiles. La technologie XScale est même vendue à Marvell Technology Group, un fournisseur d’IPs. Les ambitions d’Intel pour le marché des appareils mobiles semblent mortes.
Mais rapidement l’évolution des marchés change la donne. Finalement les premières plates-formes ouvertes mobiles apparaissent, avec l’iPhone puis Android. Celles-ci sont à base de processeur ARM, poursuivant ainsi la domination de cette architecture dans l’écosystème de la mobilité. Intel a bien réussi à conquérir les PCs d’Apple – iMac et MacBook et autres – mais pour l’iPhone et l’iPad il faudra attendre.
Intel essaie depuis de « remonter la pente ». N’ayant plus de licence ARM, il est contraint de pousser son architecture de PC x86, ce qui est particulièrement difficile, car ARM est très bien installé comme brique d’infrastructure dans cet écosystème. Mais paradoxalement, il pourrait être aidé dans ce sens par Nokia, qui a été jusqu’à présent (2010) le grand perdant du passage de l’écosystème mobile au stade de plate-forme ouverte. Nokia a désespérément besoin d’une plate-forme ouverte, alors qu’il est probablement difficile de faire évoluer sa plate-forme semi-ouverte Symbian dans cette direction. Or, outre des processeurs, Intel a une grande expérience dans le système d’exploitation Linux, et dans des sujets comme la virtualisation (même si c’est pour des marchés différents). Nokia a donc tiré de tout cela la conclusion qu’il fallait faire un partenariat avec Intel, ce qu’il aurait certainement combattu avec la dernière extrémité il y a seulement cinq voire trois ans.
Depuis, Nokia tente le partenariat avec Microsoft, ce qui constitue une autre manière de « se donner » à un fournisseur potentiel de plate-forme ouverte.
Voilà donc pour des histoires de transfert de technologie de plate-forme du haut vers le bas de la pyramide.
Mais les évolutions inverses existent aussi. Ainsi, les supercomputers étaient jusqu’à la fin des années 80 construits avec des processeurs qui leur étaient spécialement destinés. C’était en particulier le cas des processeurs dits vectoriels, qui mettaient en œuvre une sorte particulière de traitement parallèle sur les données. Depuis, le traitement vectoriel, ou une généralisation, est devenu monnaie courante et même la base des processeurs graphiques (GPU), des processeurs spécialisés dans le traitement du signal (DSP – Digital Signal Processor) et des architectures dites SIMD. Donc, encore une technologie, ou plus précisément une idée forte à la base de technologies, qui est descendue. Mais dans l’autre direction ce sont les processeurs complets qui sont « remontés » tels quels. Aujourd’hui, les supercomputers sont équipés de processeurs venant du monde des PC, voire du monde de l’embarqué. Plusieurs raisons à cela. D’abord, redévelopper un processeur est aujourd’hui très coûteux (de 300 à 500 millions de dollars, peut-être plus) et produire des processeurs en petites quantités ajouterait encore au coût. Il est donc pratiquement obligatoire de prendre des processeurs déjà amortis sur des marchés plus vastes. De plus ces processeurs ont désormais d’excellentes performances, en particulier pour les opérations dites flottantes (portant sur des nombres réels, pas entiers). Une autre raison milite définitivement pour ces « processeurs du petit » : ils sont peu gourmands en énergie. Or un supercomputer avec des centaines de milliers de cœurs peut aujourd’hui voir sa consommation monter à 10 MW ou plus !
De la même façon, toutes les technologies développées pour les systèmes critiques pourraient bien « monter » également. Aujourd’hui tous ces systèmes ont des raisons de « vouloir se connecter » entre eux et à l’Internet. Par exemple on imagine des conversations entre voitures proches pour s’informer mutuellement des conditions de circulation, des arrivées à un croisement, d’un accident à proximité, etc. Tout cela est lié à la sûreté et à la sécurité, et il est probable que ces transferts d’information devront être garantis. Les technologies critiques vont donc arriver à grande échelle sur l’Internet.
On a ainsi des effets d’aller et retour entre domaines : au début le « petit » (nous appelons ainsi les domaines du bas, qui concernent de plus petits objets) se nourrit du « grand ». Mais ayant poussé, il se peut bien que le petit subvertisse ensuite le grand, l’envahisse et in fine change les règles du jeu.
Moore’s Law and the Future of [Technology] Economy de Jean-Luc Dormoy est mis à disposition selon les termes de la licence Creative Commons Attribution – Pas d’Utilisation Commerciale – Partage à l’Identique 3.0 non transposé.
Basé(e) sur une oeuvre à mooreslawblog.com.