Conversation : comment nous accordons nos violons

Débit, volume, rythme… Sans nous en rendre compte, nous adaptons constamment notre façon de parler à nos interlocuteurs. Un phénomène dit « de convergence » ou « d’alignement », étudié au laboratoire Parole et langage d’Aix-en-Provence.

16619800780_TWI.webp

Casque-micro sur la tête, je m’apprête à engager la discussion avec un ordinateur. Ce ne sera pas une vraie conversation, corrige Leonardo Lancia, chercheur CNRS et maître d’œuvre de cette expérience. « Votre but est de dire la même chose en même temps que le logiciel. » Un protocole qui vaut à cette machine le surnom de « perroquet virtuel ». L. Lancia enclenche la lecture automatique d’un texte sans réelle signification ; je me lance aussi. Ma voix et celle de l’ordinateur sont presque aussitôt synchronisées. J’ignore comment mais je devine à quel moment tombera chaque syllabe. « On obtient le même résultat avec de vraies personnes, explique le chercheur. Lisez un texte à voix haute à deux, sans vous consulter, et en quelques phrases vous serez parfaitement calés. »

Pour comprendre comment nous faisons, L. Lancia modifie les paramètres de son « perroquet ». La voix virtuelle se décale ou change de vitesse sans prévenir, m’obligeant à m’adapter à chaque fois. Par la suite le chercheur analysera la moindre de mes inflexions, hésitations et altérations, pour tenter de comprendre comment je me réaligne sur le logiciel.

En sciences du langage, on appelle ce mystère la « convergence phonétique ». Sans toujours nous en rendre compte, nous avons spontanément tendance à imiter la façon de parler de nos interlocuteurs : volume sonore, débit de parole, accentuation… « C’est pour une bonne part un automatisme », confirme Noël Nguyen, professeur à l’université d’Aix-Marseille et membre du laboratoire Parole et langage (LPL). Dans l’une de ses expériences, deux personnes situées dans des pièces différentes discutent grâce à des micros-casques. Sans leur dire, N. Nguyen modifie légèrement leur hauteur de voix en temps réel. « Chaque participant imite les modifications introduites dans la voix de l’autre. Pourtant, ils ne se rendent compte de rien sur le moment. » Interrogés après coup, ils estiment d’un côté comme de l’autre que la voix de leur partenaire n’a pas été manipulée. « Cela suscite beaucoup de réflexions sur l’usage du langage, son émergence ou encore son évolution, s’enthousiasme le chercheur. On peut par exemple étudier comment ces microvariations peuvent déboucher sur des changements plus durables dans les sons que nous émettons pour communiquer. » (encadré ci-dessous).

Ce type de recherche est né d’un regain d’intérêt pour la parole au tournant des années 1960-1970 ; auparavant, les sciences du langage privilégiaient l’étude de l’écrit et de monologues. « Les spécificités de la parole ordinaire n’étaient pas considérées comme pertinentes pour comprendre le langage, explique Roxane Bertrand, chargée de recherche CNRS au LPL. Par exemple la prosodie (la “musicalité” d’une voix), le respect des tours de parole, ou encore la réduction (le fait de “manger les mots”) »

publicité

Regards et hochements de tête

Cette chercheuse travaille notamment sur les « feedbacks », les mille et un petits signes qu’on se renvoie dans une discussion pour montrer qu’on suit : les hochements de tête, les regards, mais aussi des interjections et marqueurs de discours comme « mhm mhm », « mais du coup ? », « ah oui ok »… « Avant, c’était considéré comme des paroles parasites ne jouant aucun rôle, développe R. Bertrand. Aujourd’hui, on sait qu’ils orientent la conversation et contribuent à la dimension collaborative de celle-ci. »