Les chercheurs veulent humaniser l'ordinateur
Sophie Estienne
Agence France-Presse
Hanovre, Allemagne
Un ordinateur qui rame, un utilisateur qui s'énerve et souvent une explication toute trouvée: une commande incompréhensible pour la machine. Pour y remédier, des chercheurs s'efforcent d'humaniser l'informatique.
Que l'ordinateur s'adapte à l'homme, et non
l'inverse, est le mot d'ordre d'une série de projets présentés au
plus grand salon technologique du monde, le CeBIT de Hanovre.
«L'humain virtuel», par exemple: le personnage sur l'écran
d'ordinateur est «modélisé de manière réaliste», explique Alassane
Ndiaye, ingénieur du Centre allemand de recherche en intelligence
artificielle (DFKI), «il fait preuve d'une certaine compétence
sociale, manifeste des émotions».
Pour cela, les
informaticiens ont programmé des «profils émotionnels», qui
prévoient selon les situations des variations dans le ton de la
voix, les gestes ou l'expression du visage, imitant les réactions
d'une personne réelle.
De tels avatars réactifs pourraient
être utilisés dans «des programmes d'entraînement pour commerciaux,
en modélisant un agent qui pose des questions qui dérangent»,
imagine Alassane Ndiaye.
L'ordinateur se contente ici de
reproduire les attitudes d'un homme qui serait satisfait ou en
colère. Dans d'autres projets, il s'agit de le comprendre.
L'institut de recherche appliquée Fraunhofer a conçu avec l'hôpital
de la Charité à Berlin, une «interface cerveau-ordinateur».
Concrètement, une espèce de bonnet équipé de 128 senseurs mesurant
l'activité cérébrale et connecté à un ordinateur.
L'utilisation demande 15 à 30 minutes de préparation. La
machine s'adapte en enregistrant les signaux émis quand
l'utilisateur pense qu'il déplace une main ou l'autre, puis on peut
«bouger un curseur sur l'écran grâce aux signaux envoyés par le
cerveau», selon Mirjam Kaplow, responsable presse et marketing.
Les applications envisagées sont d'abord médicales:
permettre à des personnes handicapées de communiquer ou faire
fonctionner des prothèses. Mais le grand public pourrait aussi en
profiter, juge Mirjam Kaplow: «Quand on conduit, le cerveau commence
à préparer l'action quelques secondes avant la réalisation. Le
système pourrait savoir plus tôt que vous allez freiner, et réagir
en bloquant les ceintures de sécurité».
Les choses se
compliquent avec un autre projet du DFKI, Smartkom: «Le défi est que
la machine réunisse de manière sensée des informations éparses et
comprenne ce que veut l'utilisateur», selon Christof Burgard, chargé
de la communication du projet. «Physiologiquement, personne n'est
conçu pour se servir d'une souris. On parle, on fait des mimiques,
des gestes».
Démonstration concrète: un kiosque
d'information. Il comprend les questions grâce à un micro et un
système d'analyse vocale, «voit» les gestes avec une caméra à
infrarouge qui suit les mouvements du doigt. Il ressent même les
émotions de l'utilisateur en filmant son visage: la machine en
compare les expressions à des modèles types et «sait s'il est en
colère, indécis ou content», détaille Christof Burgard.
Dans
la deuxième moitié des années 1990, le DFKI avait développé avec des
industriels un autre projet, Verbmobil, qui reconnaissait des
émotions grâce à la voix.
Christof Burgard donne l'exemple
d'un système informatique qui répond au téléphone: «Si une personne
parle fort, vite, il est très probable qu'elle est énervée, alors il
peut décider de le connecter directement avec un opérateur».
Verbmobil «fonctionne», assure-t-il, mais «coûte beaucoup
trop cher pour un quelconque acheteur. C'est encore trop tôt. Mais
dans 20, 30 ans peut-être...»