Nous présentons 2 articles de Virginie Attina sur la LPC, résumé de sa Thèse de Doctorat, spécialité Sciences Cognitives, soutenue le 25 novembre 2005 à l’Institut National Polytechnique de Grenoble.
Lire le 2ème article :
Quand la main devance la face au rythme de la syllabe ...
... La Langue française Parlée Complétée, un code phonologique incorporé pour l’enfant sourd
Résumé de la Thèse de Doctorat, spécialité Sciences Cognitives, soutenue le 25 novembre 2005 à l’Institut National Polytechnique de Grenoble
La thèse que nous avons présentons aborde la problématique de la phonologie de l’enfant sourd exposé au code LPC, sous un angle tout à fait nouveau, celui des relations entre la perception et la production et de leur importance dans la parole codée. En effet, nous pensons que l’enfant sourd, qui perçoit de la parole codée, ne récupère pas seulement le résultat visible du code (des formes labiales associées à des clés manuelles), mais aussi la manière dont il a été produit par le codeur (la personne qui code), c’est-à-dire la coordination temporelle qui existe entre les mouvements de la main et ceux des lèvres. En clair, nous pensons qu’il est important de savoir comment la parole codée est organisée dans sa production, afin de mieux appréhender sa perception et son intégration par les enfants sourds.
Que connaissons-nous sur la production du code LPC ? En fait, rien de précis, puisque ce domaine n’avait jusqu’à présent jamais été étudié. Et c’est ce que nous avons fait dans cette thèse, qui constitue de fait la première étude sur l’organisation temporelle de la parole codée. Nous avons, pour cela, au cours de plusieurs enregistrements, filmé des séquences de syllabes codées par quatre codeuses professionnelles diplômées. L’étude précise de l’organisation temporelle de la coordination entre la main, les lèvres et le son n’a pu être possible que par la mise au point de nouvelles techniques de suivi des mouvements de main que nous avons développées, en nous inspirant des techniques pour le suivi des mouvements des lèvres existantes au laboratoire, à l’Institut de la Communication Parlée. Ces techniques de traitement d’images nous ont permis d’extraire automatiquement à partir des vidéos des codeurs un ensemble de signaux caractérisant la parole codée : le signal acoustique, le mouvement des lèvres que nous avons étudié au travers du décours temporel de l’aire entre les lèvres, les mouvements de la main récupérés par le suivi de marqueurs colorés posés sur le dos de la main du sujet, mais aussi ceux des doigts que nous avons collectés grâce à un gant de données (Cyberglove) habituellement utilisé en Réalité Virtuelle. Nous avons procédé à une analyse fine de ces différents signaux par un repérage manuel d’événements intéressants tels que les débuts et fins de mouvements par exemple, mais aussi les frontières acoustiques des consonnes et des voyelles. Cet étiquetage nous a permis par la suite de comparer les différents événements entre eux dans le temps de manière à comprendre les relations temporelles existant entre les différents articulateurs dans la parole codée.
Nos recherches ont montré une organisation temporelle remarquablement similaire chez les quatre codeuses différentes, révélant en particulier, de manière complètement inattendue, une anticipation de la main sur les lèvres. Dans la production d’une syllabe Consonne-Voyelle, la main débute son geste de transition vers la position LPC bien avant le début du son (avec une avance moyenne équivalent à plus d’une demi-syllabe) et arrive sur la position du visage de manière synchronisée avec le début de la tenue de la consonne. L’analyse plus fine encore de la variabilité de ce patron temporel montre que cette correspondance temporelle entre le moment où la main atteint sa position et celui où la consonne est réalisée constitue un but, puisque nous le retrouvons de manière systématique dans nos enregistrements avec une précision qui va dépendre de la durée de la syllabe. Ainsi, nous assistons à un véritable ancrage de la main sur la parole. Cette organisation temporelle implique de fait que la position manuelle, qui donne l’information sur la voyelle prononcée, soit disponible avant que celle-ci ne soit visible sur les lèvres. Ce patron temporel particulier peut laisser penser que la main ne viendrait pas désambiguïser « après coup » les formes labiales consonantiques et vocaliques, mais qu’elle proposerait par avance un sous-ensemble de formes possibles. Cette conception renverse complètement la vision classique qu’on a du code LPC ; en effet il est habituellement présenté comme un complément manuel à la lecture labiale, ce qui laisse penser que l’information labiale est première (disponible avant ou en même temps) par rapport à l’information manuelle. Or, nos études ont montré qu’en production la main était, contrairement à ce qu’on pouvait imaginer, clairement en avance sur les lèvres chez les codeurs experts.
Ce résultat nous informant sur la manière dont la main et la parole se coordonnent en production a une forte incidence, de notre point de vue, sur la manière dont les sourds vont percevoir et intégrer la parole codée. En particulier, l’anticipation de la main sur les lèvres pour la voyelle peut avoir un rôle important dans la perception, celui de proposer par avance un ensemble réduit de voyelles qui vont devenir visibles par la suite sur les lèvres. Afin de vérifier cette hypothèse, nous avons effectué une étude perceptive par une technique dite de « gating » visuel (Grosjean, 1980) chez 16 sujets sourds profonds décodeurs de LPC, qui nous permet de tester spécifiquement le décours temporel de l’intégration des informations manuelles et labiales. Cette technique consiste à montrer au sourd un signal vidéo (une personne qui code une suite de syllabes sans sens) qui peut être coupé à différents instants, avant et pendant la syllabe testée. Chaque séquence tronquée commence toujours au début de la séquence et s’arrête à l’image correspondant à un moment intéressant (par exemple, l’arrivée de la main sur la position du visage). Le sujet doit identifier la syllabe produite en donnant une réponse sur la consonne et la voyelle identifiées. Les résultats obtenus montrent que les informations manuelles (configuration des doigts et position de main) sont correctement identifiées avant les informations labiales sur la consonne et sur la voyelle correspondantes (Cathiard et al., 2004 ; Attina et al., 2006). Cette expérience nous a donc permis de montrer que l’anticipation de la main que nous avions mise en évidence en production est récupérée et mise à profit par les sourds en perception : les sourds décodeurs utilisent l’information donnée par le geste manuel qui précède l’information labiale et qui leur permet de cette manière de réduire par avance le nombre de possibilités sur la syllabe qui va être prononcée. Ainsi, la façon dont le code LPC est produit, c’est-à-dire la coordination temporelle entre la main et les lèvres, est perçue et intégrée par les sourds et a un rôle pour la perception. Il se pourrait bien finalement que la main prépare le terrain par avance pour l’identification visuelle. La main qui se dirige vers une position propose donc un premier ensemble de voyelles, le bon candidat sera finalement identifié par les lèvres. Ainsi, cette anticipation donne un rôle inattendu à la parole visible : celui de venir désambiguïser le geste manuel, conçu au départ pour désambiguïser la parole... Nos résultats montrent donc un lien étroit entre production et perception pour le code LPC, qui est pourtant à l’origine un système de codage gestuel complètement artificiel.
Mots-clés : Code LPC, Cued Speech, surdité, production de parole et coarticulation, coordination temporelle multimodale, contrôle moteur, perception/intégration
Article publié avec l’aimable autorisation de l’ASPEDA, Association Suisse de Parents d’Enfants Déficients Auditifs