Accueil du site Dossiers LPC
 

Quand la main devance la face au rythme de la syllabe ...

... la Langue française Parlée Complétée, un code phonologique incorporé pour l’enfant sourd
Article publié le jeudi 5 octobre 2006.


Nous présentons 2 articles de Virginie Attina sur la LPC, résumé de sa Thèse de Doctorat, spécialité Sciences Cognitives, soutenue le 25 novembre 2005 à l’Institut National Polytechnique de Grenoble.

Lire le 2ème article : La Langue française Parlée Complétée (LPC) : production et perception

« Deux ou trois sens valent mieux qu’un », tel pourrait être notre adage pour la parole car contrairement à ce que l’on pourrait penser, elle est par nature multimodale et multisensorielle. Tous les moyens sont bons pour récupérer les intentions communicatives de celui qui parle : l’audition, la vision, qui représente bien plus qu’un simple relais, mais aussi le toucher. Lorsque l’un de nos sens vient à nous faire défaut, de véritables stratégies palliatives se mettent en place. Ainsi, pour les sourds, la vision est primordiale : elle leur permet de réaliser une lecture de ce que dit le locuteur en décodant ses mouvements labiaux. C’est de cette manière que les sourds ont accès au message linguistique oral, même s’il reste malgré tout ambigu. En effet, la lecture labiale à elle seule ne permet pas aux sourds de percevoir correctement la totalité de ce qui est dit (en moyenne, un tiers des informations délivrées) car elle est par nature ambiguë. Il existe en effet des sons qui ont une apparence aux lèvres tellement similaire que leur distinction en est rendue très difficile : ce sont les « sosies labiaux » (c’est le cas par exemple des consonnes [p, b, m] qui impliquent toutes les trois une fermeture des lèvres ; de cette manière, il est impossible de distinguer visuellement les mots « pain », « bain » et « main », pris hors contexte). Cela signifie donc que les personnes sourdes ont une perception très difficile de la parole par le biais de la lecture labiale. Elles peuvent parfois reconstituer le message oral par suppléance mentale à l’aide des indices contextuels. Mais en général cette charge cognitive importante ne leur permet pas de suivre un discours aisément. Le problème est davantage dramatique pour les enfants sourds qui n’ont pas encore appris la langue, puisqu’ils ne disposent pas de connaissances linguistiques suffisantes pour comprendre le sens du message. En particulier, les « petits mots », tels que les articles et les prépositions par exemple, sont la plupart du temps ignorés, impliquant par la suite des difficultés dans l’apprentissage de la grammaire. De manière plus générale, ces enfants ont tout simplement des difficultés à apprendre naturellement le français, puisque la vision des mouvements des lèvres ne leur permet de récupérer qu’une partie des contrastes phonologiques de la langue. De cette manière, les représentations des consonnes et des voyelles de la parole qui sont formées chez les enfants sourds restent inexactes et mal spécifiées. Or, ces représentations phonologiques sont impliquées dans de nombreuses activités cognitives au cours du développement de l’enfant : perception et production de parole, jugement de rimes, tâches de mémorisation impliquant la mémoire à court terme et apprentissage de la lecture et de l’écriture (Alegria et al., 1992). Il est donc nécessaire de trouver un moyen de transmettre le langage oral de manière complète pour apprendre le français.

La Langue française Parlée Complétée (Cued Speech ou code LPC) a été inventée par le docteur Orin Cornett (1967) pour permettre aux enfants sourds d’apprendre le langage parlé au quotidien. Cette méthode a pour but de donner la possibilité aux sourds de percevoir par la vision uniquement la totalité du message oral. La personne qui parle au sourd effectue en même temps près de son visage des mouvements de la main qui viennent désambiguïser les formes aux lèvres qui sont identiques. La forme de la main est utilisée pour coder les consonnes alors que la position de la main près du visage est utilisée pour désambiguïser les voyelles ; ainsi huit formes de main et cinq positions différentes sont nécessaires pour tous les sons du français (voir fiche jointe). La personne code avec sa main tout ce qu’elle dit (même les liaisons entre les mots), en décomposant ses paroles en suites de syllabes de type Consonne-Voyelle (CV) ; de cette manière, la consonne et la voyelle sont codées ensemble par une forme de main placée à la position adéquate, ce qui assure une certaine rapidité du codage. Le système est simple et peut être appris très rapidement par les parents de l’enfant sourd, de façon à être utilisé le plus tôt possible. L’enfant sourd peut de cette manière être complètement « immergé » dans un bain de langage bien spécifié et peut avoir accès, par la vision, à tout ce qui est dit, tout comme l’enfant entendant qui utilise naturellement son audition et sa vision pour percevoir la parole. On lui donne ainsi les moyens, surtout s’il a été « exposé » très jeune (avant l’âge de trois ans) au code LPC, de développer naturellement des représentations exactes des consonnes et des voyelles de la parole, qui lui faciliteront l’acquisition de la lecture et de l’écriture, de manière similaire à un enfant entendant (pour une revue, voir Leybaert & Alegria, 2003). De nombreuses données en faveur de cette méthode témoignent de son efficacité et il existe maintenant une grande littérature sur le sujet. En particulier, en ce qui concerne la perception de parole, il a été montré que le code LPC associé à la lecture labiale permettait aux personnes sourdes de percevoir correctement plus de 80% des informations, alors qu’elles n’en perçoivent en moyenne qu’un tiers avec la lecture labiale seule (pour des syllabes et des mots, Nicholls & Ling, 1982 ; pour des phrases, Uchanski et al., 1994 ; Duchnowski et al., 2000). Cette efficacité en perception est rendue possible par la précision des représentations phonologiques de la langue française développées par les enfants sourds exposés précocement au code LPC, comme l’ont montré Jacqueline Leybaert et ses collègues à Bruxelles (Leybaert et al., 1998). Elles sont si précises et bien spécifiées qu’elles permettent aux enfants sourds de rivaliser sans problème avec les enfants entendants sur des exercices de rimes par exemple (ces enfants ne vont pas faire d’erreurs pour juger de la rime des mots « tasse » et « glace ») ; ce qui montre qu’ils ne s’appuient pas non plus sur l’orthographe des mots dans ce genre de tâche, puisque ils ont cette capacité avant même l’apprentissage de la lecture, tout comme les enfants entendants (Colin, 2004). Ainsi, bien que dépourvus d’audition, ils ont accès à des représentations phonologiques exactes des consonnes et des voyelles à partir de la modalité visuelle uniquement leur donnant de bonnes capacités de comparaison et de manipulation des unités de la langue et leur permettant de développer correctement les différents mécanismes cognitifs pour une acquisition de la langue comparable à celle d’enfants entendants.

Concernant ces représentations, il était admis qu’elles étaient de nature purement visuelle (soit la forme labiale associée à la forme de main et la position de main) : c’est ce qu’ont proposé Fleetwood et Metzger en 1998. Les composantes du code LPC devraient même être, selon eux, complètement dissociées de la parole. En clair, ces auteurs proposent une conception dans laquelle le code LPC serait formé de composantes de base visibles, soit la forme de main, la position de main près du visage et la forme des lèvres, qui constituerait un nouveau système totalement déconnecté de la parole. Cette dissociation se justifierait par le fait que le son émis en parole n’est pas forcément nécessaire pour permettre aux sourds de percevoir ce code de manière efficace. Dans la pratique, en effet, les codeurs professionnels, qui sont placés en classe pour un ou plusieurs enfants sourds, recodent tout ce que dit l’enseignant à ses élèves en subvocalisant, c’est-à-dire qu’ils articulent bien mais n’émettent pas de son, afin de ne pas gêner l’enseignant. Cette position est également défendue par Leybaert et Lechat (2001) qui précisent que les enfants sourds ont accès à des représentations non basées sur le son mais bien sur un format phonologique visuel non dérivée des caractéristiques articulatoires de la parole. Pourtant, ces faits n’impliquent pas forcément, de notre point de vue, une complète indépendance entre les composantes du code LPC et la parole. Il nous semble en effet assez difficile de séparer les formes labiales de la parole puisque celles-ci sont bien le résultat visible des gestes articulatoires. La nature du format des représentations phonologiques LPC reste donc encore à déterminer.

Quelle que soit la nature du format dans lequel les différentes composantes sont encodées, nous ne savons pas encore comment la forme labiale, la forme de main et la position de main sont intégrées par l’enfant sourd pour l’identification d’un percept unique. Comment procèdent les systèmes cognitifs pour encoder et décoder la parole visible sur les lèvres et la main ? Les connaissances dans ce domaine nous permettraient pourtant d’améliorer davantage l’efficacité de cette méthode et nous donneraient les moyens de mieux comprendre comment ce système « artificiel » est devenu si « naturel » chez les enfants sourds. Ce domaine est resté jusqu’à présent largement inexploré et très peu de choses sont en fait connues sur les mécanismes d’intégration perceptive, puisqu’on ne trouve qu’une seule étude qui traite de ce sujet (Alegria & Lechat, 2005). En testant l’importance que les sourds accordent aux informations manuelles par rapport aux informations labiales, ces auteurs ont montré que les enfants sourds qui ont bénéficié très tôt de code LPC exploitent mieux les informations manuelles que les sourds qui ont été exposés plus tardivement à la méthode. En outre, il apparaît que les informations données par la main sont davantage utilisées quand les informations données par les lèvres sont peu marquées. Ces résultats donnent de nouveaux arguments en faveur de l’exposition précoce au code LPC, mais nous apprennent peu de choses sur la façon dont la parole codée est intégrée.

La thèse que nous avons menée aborde cette problématique sous un angle tout à fait nouveau, celui des relations entre la perception et la production et de leur importance dans la parole codée (Attina, 2005). En effet, nous pensons que l’enfant sourd, qui perçoit de la parole codée, ne récupère pas seulement le résultat visible du code (des formes labiales associées à des clés manuelles), mais aussi la manière dont il a été produit par le codeur (la personne qui code), c’est-à-dire la coordination temporelle qui existe entre les mouvements de la main et ceux des lèvres. En clair, nous pensons qu’il est important de savoir comment la parole codée est organisée dans sa production, afin de mieux appréhender sa perception et son intégration par les enfants sourds.

Que connaissons-nous sur la production du code LPC ? En fait, rien de précis, puisque ce domaine n’avait jusqu’à présent jamais été étudié. Et c’est ce que nous avons fait dans cette thèse, qui constitue de fait la première étude sur l’organisation temporelle de la parole codée. Nous avons, pour cela, au cours de plusieurs enregistrements, filmé des séquences de syllabes codées par quatre codeuses professionnelles diplômées. L’étude précise de l’organisation temporelle de la coordination entre la main, les lèvres et le son n’a pu être possible que par la mise au point de nouvelles techniques de suivi des mouvements de main que nous avons développées, en nous inspirant des techniques pour le suivi des mouvements des lèvres existantes au laboratoire, à l’Institut de la Communication Parlée. Ces techniques de traitement d’images nous ont permis d’extraire automatiquement à partir des vidéos des codeurs un ensemble de signaux caractérisant la parole codée : le signal acoustique, le mouvement des lèvres que nous avons étudié au travers du décours temporel de l’aire entre les lèvres, les mouvements de la main récupérés par le suivi de marqueurs colorés posés sur le dos de la main du sujet, mais aussi ceux des doigts que nous avons collectés grâce à un gant de données (Cyberglove) habituellement utilisé en Réalité Virtuelle (Attina et al., 2004). Nous avons procédé à une analyse fine de ces différents signaux par un repérage manuel d’événements intéressants tels que les débuts et fins de mouvements par exemple, mais aussi les frontières acoustiques des consonnes et des voyelles. Cet étiquetage nous a permis par la suite de comparer les différents événements entre eux dans le temps de manière à comprendre les relations temporelles existant entre les différents articulateurs dans la parole codée.

Nos recherches ont montré une organisation temporelle remarquablement similaire chez les quatre codeuses différentes, révélant en particulier, de manière complètement inattendue, une anticipation de la main sur les lèvres (Attina et al., 2006). Dans la production d’une syllabe Consonne-Voyelle, la main débute son geste de transition vers la position LPC bien avant le début du son (avec une avance moyenne équivalent à plus d’une demi-syllabe) et arrive sur la position du visage de manière synchronisée avec le début de la tenue de la consonne. L’analyse plus fine encore de la variabilité de ce patron temporel montre que cette correspondance temporelle entre le moment où la main atteint sa position et celui où la consonne est réalisée constitue un but, puisque nous le retrouvons de manière systématique dans nos enregistrements avec une précision qui va dépendre de la durée de la syllabe. Ainsi, nous assistons à un véritable ancrage de la main sur la parole. Cette organisation temporelle implique de fait que la position manuelle, qui donne l’information sur la voyelle prononcée, soit disponible avant que celle-ci ne soit visible sur les lèvres. Ce patron temporel particulier peut laisser penser que la main ne viendrait pas désambiguïser « après coup » les formes labiales consonantiques et vocaliques, mais qu’elle proposerait par avance un sous-ensemble de formes possibles. Cette conception renverse complètement la vision classique qu’on a du code LPC ; en effet il est habituellement présenté comme un complément manuel à la lecture labiale, ce qui laisse penser que l’information labiale est première (disponible avant ou en même temps) par rapport à l’information manuelle. Or, nos études ont montré qu’en production la main était, contrairement à ce qu’on pouvait imaginer, clairement en avance sur les lèvres chez les codeurs experts.

Ce résultat nous informant sur la manière dont la main et la parole se coordonnent en production a une forte incidence, de notre point de vue, sur la manière dont les sourds vont percevoir et intégrer la parole codée. En particulier, l’anticipation de la main sur les lèvres pour la voyelle peut avoir un rôle important dans la perception, celui de proposer par avance un ensemble réduit de voyelles qui vont devenir visibles par la suite sur les lèvres. Afin de vérifier cette hypothèse, nous avons effectué une étude perceptive par une technique dite de « gating » visuel (Grosjean, 1980) chez 16 sujets sourds profonds décodeurs de LPC, qui nous permet de tester spécifiquement le décours temporel de l’intégration des informations manuelles et labiales. Cette technique consiste à montrer au sourd un signal vidéo (une personne qui code une suite de syllabes sans sens) qui peut être coupé à différents instants, avant et pendant la syllabe testée. Chaque séquence tronquée commence toujours au début de la séquence et s’arrête à l’image correspondant à un moment intéressant (par exemple, l’arrivée de la main sur la position du visage). Le sujet doit identifier la syllabe produite en donnant une réponse sur la consonne et la voyelle identifiées. Les résultats obtenus montrent que les informations manuelles (configuration des doigts et position de main) sont correctement identifiées avant les informations labiales sur la consonne et sur la voyelle correspondantes (Cathiard et al., 2004 ; Attina et al., 2006). Cette expérience nous a donc permis de montrer que l’anticipation de la main que nous avions mise en évidence en production est récupérée et mise à profit par les sourds en perception : les sourds décodeurs utilisent l’information donnée par le geste manuel qui précède l’information labiale et qui leur permet de cette manière de réduire par avance le nombre de possibilités sur la syllabe qui va être prononcée. Ainsi, la façon dont le code LPC est produit, c’est-à-dire la coordination temporelle entre la main et les lèvres, est perçue et intégrée par les sourds et a un rôle pour la perception. Il se pourrait bien finalement que la main prépare le terrain par avance pour l’identification visuelle. La main qui se dirige vers une position propose donc un premier ensemble de voyelles, le bon candidat sera finalement identifié par les lèvres. Ainsi, cette anticipation donne un rôle inattendu à la parole visible : celui de venir désambiguïser le geste manuel, conçu au départ pour désambiguïser la parole... Nos résultats montrent donc un lien étroit entre production et perception pour le code LPC, qui est pourtant à l’origine un système de codage gestuel complètement artificiel.

Quelle est la raison de cette organisation temporelle particulière dans la production de la parole codée ? Notre hypothèse est que le code LPC a été recodé en termes neuralement compatibles pour les contrôles des gestes des consonnes et des voyelles en parole codée chez les codeurs experts. Dans la pratique, ces codeurs ont acquis une certaine expertise dans le codage, en adoptant certaines stratégies de contrôle des différents mouvements. L’exploration des différents types de contrôle en jeu nous a permis en effet de mettre en évidence que la position de main qui code la voyelle a un même type de contrôle gestuel que la consonne articulatoire en parole. Ainsi, ces deux types de contrôle, qui sont de fait compatibles, se synchronisent ; ce qui peut expliquer selon nous, le patron de coordinations spécifique que nous avons observé, soit une synchronisation de la position de main et de la consonne aux lèvres. La stratégie de contrôle adoptée par les codeurs experts pour le codage LPC est de cette manière optimale, puisqu’elle consiste selon nous à regrouper ensemble les types de contrôle gestuel qui sont compatibles. Cette proposition signifie clairement que le code LPC a été « intégré » dans la production naturelle de parole codée chez les experts. Nous avons vu que les sourds mettaient à profit cette organisation particulière pour la perception. Ainsi, en plus de récupérer le résultat visible de la parole codée (soit la forme labiale, la forme de main et sa position), les sourds utilisent également la coordination des différents mouvements. Ils sont donc capables de récupérer la manière dont la parole codée est contrôlée. Notre hypothèse est que cette récupération efficace est rendue possible par l’existence d’un espace de commande commun pour la main et la face au niveau cérébral. C’est dans cet espace neural commun que les informations manuelles et labiales seraient projetées avant d’être fusionnées, tout en tenant compte de la coordination temporelle, pour aboutir à un percept syllabique unique. Nous ne disposons pas de données suffisantes pour le moment pour savoir exactement quels sont les mécanismes sous-jacents, mais cette proposition sur l’intégration de la parole codée, en incorporant la main, la face et leurs contrôles dans un même espace, est clairement différente de la conception dominante sur une phonologie purement visuelle du code LPC. Ainsi, le code manuel, proposé à l’origine comme un augment artificiel de la parole, se révèle en fait comme un véritable augment phonologique incorporé pour les enfants sourds. La thèse que nous défendons propose donc que les enfants sourds, qui perçoivent de la parole codée, développent non pas des représentations purement visuelles comme ce qui était proposé jusqu’à présent (Fleetwood & Metzger, 1998 ; Leybaert & Lechat, 2001), mais bel et bien, des représentations phonologiques sensori-motrices. Cette découverte ouvre de nouveaux horizons pour la recherche dans ce domaine et relance complètement le débat sur la question de la phonologie chez les enfants sourds exposés au code LPC.

La thèse que nous avons menée a donc mis en évidence l’importance des relations entre la perception et la production dans la parole codée pour les enfants sourds. Cette nouvelle conception permet de réaliser une grande avancée théorique mais aussi pratique, car elle donne des éléments pertinents permettant de mieux comprendre les mécanismes de perception et d’intégration du code LPC. Il apparaît ainsi que ce code est efficace pour la perception de parole, mais pas seulement parce qu’il délivre des informations phonologiques complètes par une association de la main et des lèvres. Proclamé habituellement comme étant un système purement visuel complètement dissocié de la parole, le code LPC se révèle au contraire dans nos études comme totalement ancré sur la parole. La coordination temporelle des mouvements de la main et de la face est en particulier un facteur critique dans la parole codée. Au niveau de la production, les contrôles moteurs des mouvements manuels se sont mis en correspondance avec les contrôles moteurs de la parole, par compatibilité neuro-cognitive selon notre hypothèse : le résultat de cette stratégie optimale de contrôle réside dans l’organisation manuo-faciale que nous avons observée et caractérise l’habileté d’un codage LPC expert. Au niveau de la perception, nous avons montré que cette coordination était récupérée et mise à profit par les sourds pour l’identification visuelle, ceci étant rendu possible par une incorporation des composantes de la parole codée dans un même espace de commandes.

Ces résultats ouvrent la voie à de nombreuses applications et peuvent permettre d’améliorer encore l’efficacité de cette méthode chez les enfants sourds. En effet, puisque la coordination des mouvements manuels et labiaux a un rôle important comme nous l’avons montré, elle peut être prise en compte dans le développement et l’éducation de l’enfant sourd. Nos résultats nous mènent bien vers une phonologie sensori-motrice de la parole codée. Dans cette perspective, tout laisse à penser qu’il semble pertinent en particulier de proposer la pratique du code par les enfants sourds eux-mêmes afin d’améliorer encore la perception. Dans le meilleur des cas, ce codage se développerait par imitation spontanée chez ces enfants, dans la mesure où ils seraient exposés très tôt et de manière quotidienne au code LPC. De nombreuses données mettent en évidence en effet l’existence de neurones appelés « neurones miroirs » (découverts par l’équipe de Giacomo Rizzolatti à Parme), qui déchargent à la fois pour l’action et la perception de cette action. Cette découverte a permis d’établir un lien entre la connaissance de ses propres actions et la compréhension des actions produites par autrui. Dans cette perspective, la pratique du code par les enfants sourds leur donnerait une base leur permettant d’effectuer un meilleur suivi et une meilleure compréhension de la parole codée. Le mode de rééducation orthophonique de l’enfant sourd peut être ainsi améliorée par cette nouvelle donnée : la réhabilitation de la surdité de l’enfant par l’utilisation du code LPC peut tirer avantage d’une mise en pratique bénéfique au profit d’un simple décodage. Par ailleurs, les progrès au niveau du dépistage de plus en plus précoce de la surdité et le développement spectaculaire des implants cochléaires ces dernières années n’ont pas entraîné l’abandon de cette méthode manuelle. Le codage phonologique LPC reste une méthode nécessaire au bon développement du langage en pré- et post-implantation (Calmels et al., 2003 ; Le Normand & Berger, 2003). Il permet de faciliter l’accès à la modalité auditive. Même si l’enfant sourd semble avoir recouvré la totalité de son audition avec l’implant, les spécialistes de la surdité sont les premiers à reconnaître la nécessité de continuer à utiliser le code LPC avec ces enfants, afin de garantir une bonne acquisition de la langue. La généralisation de l’implant ne marque donc pas la fin du code LPC ; au contraire, il est important de connaître au mieux ce système afin de permettre une réussite complète de la réhabilitation de la surdité de l’enfant.

De plus, les résultats mis en évidence durant la thèse peuvent avoir également une implication pratique sur l’apprentissage du code par les utilisateurs. Puisque la coordination temporelle des différents mouvements impliqués dans la parole codée est importante, cette donnée peut être prise en compte dans les méthodes d’enseignement du codage LPC, afin d’acquérir de manière plus efficace un profil de codeur expert. Dans la même lignée, cette connaissance sur l’organisation du code peut être utilisée dans la mise en place de techniques complémentaires objectives d’évaluation du codage. On comprend alors facilement toutes les répercussions de cette découverte pour les différentes applications dans le domaine des technologies du handicap : synthèse de parole multimodale à partir de texte, téléconférence et télécommunication, interaction homme-machine, réalité augmentée, entre autres. En particulier, les systèmes de synthèse, calquant au mieux le naturel, représentent un champ novateur qui suscite déjà un intérêt accru auprès de nombreux chercheurs, industriels et utilisateurs. En ce qui concerne le code LPC, nos résultats de thèse, en particulier les règles temporelles que nous avons mises en évidence dans la production du code, ont déjà été utilisés pour doter, d’une main synthétique codant en LPC, des clônes virtuels de notre laboratoire (cette application a été mise au point dans le cadre d’un programme cognitique du ministère : action « Réhabilitation et remédiation », « Tête parlante audiovisuelle virtuelle : réalité augmentée et Langage Parlé Complété pour la réhabilitation des déficients auditifs », sous la responsabilité de Denis Beautemps). Dans le cadre d’un autre projet piloté par notre laboratoire (projet RNRT ARTUS, « Animation Réaliste par Tatouage audiovisuel à l’Usage des Sourds », sous la responsabilité de Gérard Bailly), ce sont la main et le visage d’une codeuse qui ont été clonés par une technique de motion capture (Gibert et al., 2005), permettant ainsi de disposer d’un codeur virtuel 3D, qui vise à donner la possibilité aux sourds de remplacer le télétexte par ce personnage. Enfin, très récemment, un autre projet ambitieux dans le domaine de la télécommunication téléphonique (Projet TELMA, « Téléphonie à l’usage des Malentendants », sous la responsabilité de Denis Beautemps), vise à enrichir un terminal téléphonique de fonctionnalités audio-visuelles (débruitage, transcodage LPC-parole) pour améliorer les conditions de communication des sourds, mais aussi des personnes âgées. Nous pourrions encore imaginer d’autres applications telles que par exemple, la mise en place de systèmes informatiques d’aide à l’apprentissage des langues par les enfants sourds, ainsi que des applications spécifiquement développées pour la rééducation orthophonique. Ainsi, la meilleure compréhension des mécanismes de production et d’intégration de la parole codée peut contribuer fortement à l’action dans nos sociétés contemporaines.

Article publié avec l’aimable autorisation de l’ASPEDA, Association Suisse de Parents d’Enfants Déficients Auditifs


Aller au début de l'article
Répondre à cet article

Forum de l'article

Aller au début de l'article
L'UNAPEDA est une association pluraliste, ouverte, et permet donc l'expression des diverses sensibilités sur son site. Les articles publiés engagent leurs auteurs et ne signifient aucunement que notre association aurait, d'une quelconque manière, décidé de privilégier l'opinion qu'ils expriment au détriment de toutes les autres

Dernière mise à jour lundi 23 janvier 2023
2831 articles - 167 messages - 267 bréves.
Site réalisé par EMERA
avec SPIP 1.8.3 sous licence GPL - Epona 2.2.3.