Les technologies de services [2] : L’interaction

par Jean-Luc Dormoy

 

L’interaction a été classiquement comprise comme « l’interaction homme machine ».  Depuis qu’il a été question de surmonter l’accès aux machines rendu difficile par des langages cryptiques réservés à quelques initiés, et donc de permettre à tout être humain d’accéder aux merveilles rendues possibles par les ordinateurs – et aussi la réciproque, i.e. d’ouvrir le marché de l’informatique à la masse humaine – l’interaction s’est intéressée à rendre l’usage de l’ordinateur de possible à facile voire agréable, avec le moins possible de temps d’apprentissage ou d’adaptation, et pour toute personne.

 

Depuis, l’invasion du calcul et des services digitaux a élargi le champ de l’interaction, avec le but de rendre la vie plus facile avec les nouvelles technologies, plutôt que plus difficile.

 

Si les machines interagissent avec les utilisateurs, elles interagissent également avec le monde qui les entoure – ce qu’on appelle le « monde physique », pour le distinguer du monde virtuel.

 

L’interaction, c’est donc la science et la technologie du rapport en triangle entre les machines et services digitaux, le monde (physique) et les êtres humains – les animaux et les plantes entrant également dans la boucle, et même d’autres entités biologiques comme les cellules diverses, ou les neurones dans les interfaces avec le vivant, le cerveau. En outre, des services digitaux autonomes sont de plus en plus conduits à interagir entre eux.

 

L’interaction concerne avant tout la relation singulière entre l’humain et la machine, dans les deux sens. Le standard d’interaction a été donné jusqu’à il y a quelques années par le PC, qui dans un sens possède un écran, un haut-parleur et dans l’autre un clavier et une souris. Il a aussi souvent une webcam et un microphone, mais ceux-ci sont utilisés pour communiquer avec d’autres personnes humaines, et peu avec des machines. Les appareils mobiles comportent en outre un écran tactile.

 

D’autres moyens techniques d’interface utilisateur – machine font leur apparition :

 

  • les accéléromètres, capables de capter notamment le mouvement d’un appareil
  • les interfaces haptiques, capables de renvoyer à l’utilisateur un retour d’effort; utilisés avec une interface immersive du type réalité virtuelle, elles simulent la résistance ou le contact entre objets virtuels
  • les interfaces tactiles, mais dans l’autre sens : la machine offre une sensation au toucher, par exemple de rugosité d’une surface, ou de battement

 

A titre expérimental on a également des interfaces visant l’odorat ou le goût.

 

Quand à la vision ou au son, on essaie de créer des interfaces immersives, par exemple à base de lunettes spéciales, qui donnent le sentiment que l’on plonge dans une scène (virtuelle). On peut aussi plaquer cette scène virtuelle sur la scène réelle vue, on parle alors de réalité augmentée. Les écrans 3D à venir, ou les films 3D du cinéma en constituent une version grand public.

 

On en est donc à trois des cinq sens de façon commune, la vision, l’ouïe et le toucher, et les autres sens sont explorés. Mais ces interfaces, si elles sont adaptées à la morphologie et à la perception humaines, n’en demeurent pas moins assez frustres : elles permettent à l’être humain de se faire comprendre de la machine, plus que l’inverse.

 

Des recherches intenses sont conduites pour aboutir à des systèmes comprenant l’humain sans que celui-ci fasse un effort particulier ou contraint par le moyen technique d’interaction. On a ainsi la vision par ordinateur, qui tente de reconnaître les objets, les personnes, leurs expressions, voire leurs émotions. On se base sur les visages, les gestes, les mouvements, les interactions entre personnes, etc. Des progrès importants ont été accomplis, mais le niveau est encore loin de ce qu’un jeune enfant accomplit.

 

D’autres moyens moins conventionnels sont expérimentés, par exemple des interfaces directes avec le cerveau. On a aussi de façon plus simple mais extrêmement répandue les moyens d’interaction à base de carte à puce, ou désormais de puce sans contact, où l’on approche un objet digital personnel d’un capteur pour échanger de l’information. Les téléphones mobiles[1] pourraient en être bientôt systématiquement équipés.

 

Au-delà de l’analyse immédiate, des systèmes tentent de comprendre et prévoir le comportement d’une ou de plusieurs personnes et des interactions entre elles. On peut se servir de données de capteurs directs comme une caméra ou un microphone, mais aussi des données capturées indirectement par l’interaction de la personne avec un système digitalisé. Par exemple les opérateurs du web, du fournisseur d’accès Internet au service sur le web, capturent et analysent ensuite les traces d’utilisation. Le mouvement vers la maison intelligente, par exemple autour de l’énergie, permet aussi de capturer des données d’usage d’appareils électriques, d’où on peut déduire des comportements, habitudes de vie, etc. Bien sûr la personne n’acceptera pas d’intrusion dans sa vie privée, et le droit reconnaît normalement que ces données sont sa propriété.

 

On se tourne donc vers l’interaction entre la machine et l’environnement physique. Cela passe par des capteurs et des actionneurs de toutes sortes. Aujourd’hui les capteurs sont digitalisés et capables de communiquer les mesures effectuées sur un réseau, voire de procéder à des traitements complexes localement. Ensemble, ces capteurs peuvent accomplir un travail encore plus important, et on parle de réseaux de capteurs. Par exemple on peut semer des capteurs de température ou autres dans une forêt méditerranéenne pour détecter les incendies au plus tôt.

 

La consolidation, ou l’intégration des diverses mesures permettent de reconstituer une image approfondie du comportement de l’environnement. Lorsque des personnes sont présentes, leurs actions sur cet environnement fournissent donc indirectement un moyen d’interaction avec les personnes.

 

La liste des capteurs disponibles et dont on s’aperçoit qu’ils peuvent être utiles pour des services s’allonge : GPS, boussole, capteurs de lumière et de multiples autres quantités physiques; mais aussi capteurs d’espèces chimiques variées, par exemple toxiques, mais pas seulement; ou capteurs biologiques, de la molécule au gène au virus ou à la cellule. Ces capteurs peuvent être déposés dans l’environnement, voire implantés dans le corps humain.

 

Les capteurs permettent aussi de voir ce que l’on ne voit pas naturellement. Cela n’est pas nouveau, depuis la lunette de Galilée ou le microscope de Pasteur. Mais digitalisés et associés à des moyens d’interaction immersifs, ces instruments prennent une puissance extraordinaire. On peut ainsi désormais manipuler des molécules ou des atomes un par un via des environnements de réalité virtuelle et du retour d’effort. A l’autre extrême du champ des dimensions, les observations de plusieurs observatoires astronomiques peuvent être regroupées et traitées ensemble pour constituer une image atteignant un degré de précision qu’aucun instrument seul n’est capable d’atteindre. On a ainsi une « lunette numérique ». On a déjà mentionné le système d’interaction et de robotique chirurgicale permettant au chirurgien de « voir » ce qu’il ne voit pas et d’agir avec l’aide de machines sophistiquées. Couplé à des capacités de modélisation et de prédiction, on peut imaginer qu’il conduise demain des « opérations virtuelles » pour en étudier les conséquences avant de pratiquer la véritable intervention.

 

De façon plus prosaïque, les usines ont été envahies par de nombreux capteurs et actionneurs. Cela pousse au bout la logique de l’atelier flexible et de l’adaptation en temps réel de la production à la demande, ainsi que sa personnalisation. On a mentionné les imprimantes 3D que l’on peut désormais acheter et qui produisent une « statue » d’un objet à partir de sa maquette virtuelle. Les usines s’approchent de véritables imprimantes 3D de par leur flexibilité, mais en produisant, elles, les véritables objets. A grande échelle, les grandes infrastructures (électricité, routes, chemins de fer, transport aérien, etc.) se digitalisent massivement.

 

L’interface peut être émotionnelle, à travers l’analyse des visages, des gestes, des interactions. Cela peut porter sur une personne, quelques personnes, une foule. A l’inverse, la machine peut simuler des émotions pour améliorer la relation avec la personne.

 

Même des objets ordinaires, non digitalisés, commencent à être intégrés de façon expérimentale dans le monde digital, fournissant ainsi une autre manière de brouiller les frontières entre le monde virtuel et le monde réel. Par exemple, des moyens d’interaction sophistiqués vous permettraient de désigner un morceau de texte ou un schéma présent sur une feuille imprimée ordinaire, de le déplacer vers l’écran de votre machine préférée, de travailler dessus, puis de l’imprimer. Le papier ordinaire devient ainsi « virtuellement digital » – ce qui est différent du papier réellement digital, qui permet d’afficher n’importe quel texte, une sorte d’écran en papier.

 

L’utilisateur doit toujours avoir le contrôle sur le système. Cela ne signifie pas qu’il indique tout ce que doit faire le système, celui-ci possède des zones d’autonomie, ce que d’ailleurs l’utilisateur souhaite. Le système agit ainsi de façon ancillaire et discrète au compte de l’utilisateur, vis-à-vis d’objets ou d’autres personnes.

 

Pour ce faire, une approche consiste à fournir à l’utilisateur des moyens de « programmer » lui-même son système. De nombreuses tentatives ont été effectuées, pas toutes réussies, mais c’est certainement un avenir nécessaire pour permettre à chacun de maîtriser un environnement digital de plus en plus dense et proche.

 

Tous ces traitements d’interaction lorsqu’ils deviennent sophistiqués reposent sur la découverte et l’utilisation de modèles de l’environnement et du comportement des personnes. Cela permet de prédire ce qu’il va se passer, ce qui fait plaisir ou au contraire ennuie, etc. Cela permet également de masquer la complexité de ce qui se passe « en coulisses ».

 

Un principe simple de bonne interaction est d’avoir des boucles courtes, c’est-à-dire que le système donne très rapidement des signes de ce qu’il fait après une sollicitation de l’utilisateur. Ce signe peut être émotionnel, pas uniquement fonctionnel. Mais, en définitive, la meilleure interaction est lorsqu’il n’y a pas d’interaction du tout, du moins apparente : le système devine vos désirs et les exécute avant même que vous ne les formuliez ! Plus prosaïquement et hors de tout « meilleur des mondes » de prothèse machinique hypertrophiée, il s’agit d’éliminer tout ce qui peut l’être en tant qu’actes intentionnels d’interaction de la part de l’utilisateur.

 

L’interaction peut être traitée à distance, mais cela est souvent peu pertinent car la latence et la fiabilité imparfaite des réseaux interdit alors une boucle courte. Il n’y a donc pas d’autre solution que d’avoir une puissance de calcul importante auprès du lieu de l’interaction. C’est une des utilisations de choix des « supercomputers sur puce » que la loi de Moore va bientôt nous fournir avec les manycores.

 


[1] On parle encore de téléphone mobile, alors que la téléphonie n’est plus qu’un de leurs multiples usages.

Licence Creative Commons
Moore’s Law and the Future of [Technology] Economy de Jean-Luc Dormoy est mis à disposition selon les termes de la licence Creative Commons Attribution – Pas d’Utilisation Commerciale – Partage à l’Identique 3.0 non transposé.
Basé(e) sur une oeuvre à mooreslawblog.com.