Rapport - Hugo`s

Rapport - Hugo`s
Guylhem Aznar, Patrice Dalle, Sophie Dalle­Nazébi, Brigitte Garcia, Frédérick Gianni, Karine Grande, Boris Lenseigne, Hugo Mercier
Projet « Usages de l’Internet »
WebSourd
Compte rendu de fin de recherche d'opération d'une recherche financée par le minsitère de la recherche
Juillet 2004 ­ Juillet 2005
Décision d'aide numéro 04 L 151, 04 L 152 et 04 L 153
Organismes bénéficiaires:
WebSourd
3, passage André Maurois ­ BP 23625 ­ 31036 Toulouse Cedex 01
Responsable scientifique : Hugo MERCIER
Université Paul Sabatier
Laboratoire : IRIT (Institut de Recherche en Informatique de Toulouse)
118, route de Narbonne ­ 31062 Toulouse Cedex 09
Responsable scientifique : Patrice DALLE
IRIS (Institut de Recherche sur les Implications de la langue des Signes)
10, avenue G. Guynemer Batiment D01 31770 COLOMIERS
Responsable scientifique : Jean­Louis BRUGEILLE
2
Résumé signalétique:
Le projet "Usages de l'Internet ­ WebSourd" visait à étudier les usages actuels et futurs de l'Internet et des médias dans le contexte particulier de la société coopérative WebSourd. Il s'agit en particulier de la question de l'accès à une pleine citoyenneté, via l'utilisation des nouvelles technologies, pour les personnes sourdes. Des réponses à ces questions ont été apportées par WebSourd et il s'agit ici :
■
de savoir si les services existants sont adaptés à la population utilisatrice, par une étude ergonomique du site WebSourd et du service de visio­interprétation;
■
de présenter et donner le cahier des charges des nouvelles technologies de l'information et de la communication à développer, permettant d'améliorer cet accès à une pleine citoyenneté;
■
d'observer les spécificités du travail au sein de l'entreprise, d'un point de vue sociologique sur les rapport sourds / entendants ainsi que sur l'utilisation des TICs et le recours à l'image et à la modalité visuelle.
Le projet a été découpé en trois sous­projets selon les précédents points de vue, chacun étant piloté par un partenaire particulier (WebSourd, IRIT ou IRIS). Le présent document fournit un compte rendu des activités scientifiques des trois sous­projets.
Mots­clés : langue des signes, surdité, nouvelles technologies de l'information et de la communication, accessibilité
3
4
Table des matières
1.1Présentation des partenaires........................................................................................7
1.2Présentation des sous­projets.......................................................................................8
2 ­ Sous­projet 1...................................................................................................................9
2.1Intérêt d’une analyse des usages................................................................................11
2.2La démarche ergonomique........................................................................................12
2.3Le système de visio­interprétation.............................................................................13
2.3.1Présentation.......................................................................................................13
2.3.2Les systèmes existants ou similaires....................................................................13
2.3.3Observation du système......................................................................................15
2.3.4Evaluation du système de visio­interprétation (usage 1)....................................21
2.4Le site Internet...........................................................................................................26
2.4.1Présentation ......................................................................................................26
2.4.2Observation et première évaluation....................................................................27
2.4.3Analyse de l’activité et étude de l’existant..........................................................28
2.4.4Les tests utilisateurs : nécessité de confrontation réelle avec l’interface.............31
2.5Nouvelles technologies..............................................................................................34
2.6Conclusion.................................................................................................................35
3 ­ Sous­projet 2.................................................................................................................37
3.1Intéraction gestuelle homme­machine.......................................................................38
3.1.1Interface perceptive et interface multimodale....................................................38
3.1.2Communication gestuelle et vision par ordinateur.............................................38
3.1.3Scénario d'utilisation..........................................................................................39
3.1.4Paramètres du geste...........................................................................................40
3.1.5Utilisateur isolé..................................................................................................40
3.1.6Groupe...............................................................................................................42
3.2Analyse et reconnaissance de la langue des Signes pour l’Internet............................45
3.2.1Reconnaissance de signes isolés.........................................................................45
3.2.2Interprétation d’énoncés complexes....................................................................49
3.2.3Connaissances sur la structure des énoncés........................................................49
3.2.4Compression et transmission de séquences d’images en langue des Signes .......51
3.3Formes graphiques.....................................................................................................55
3.3.1Introduction.......................................................................................................55
3.3.2La vidéo, les NTIC et les formes graphiques.......................................................57
3.3.3Les NTIC visuelles: une nouvelle forme d’écrit pour la LSF ?..............................58
3.4Sign Writing...............................................................................................................62
3.4.1Affichage et encodages.......................................................................................63
3.4.2Interfaces de saisie.............................................................................................64
3.5 Analyse du visage : identité et expressions...............................................................66
3.5.1Modélisations du visage.....................................................................................66
3.5.2Anonymisation...................................................................................................68
3.6Avatars signants.........................................................................................................70
3.6.1Références bibliographiques...............................................................................72
3.7Illustrations des usages..............................................................................................73
3.7.1Situation 1 : interaction avec un site Internet.....................................................73
3.7.2Situation 2 : service via Internet.........................................................................79
5
3.7.3Situation 3 : visio­conférence.............................................................................82
3.8Conclusion.................................................................................................................83
4 ­ Sous­projet 3 – étude sociologique................................................................................85
4.1Penser sourds et entendants au travail en LSF...........................................................87
4.1.1Problématique....................................................................................................87
4.1.2Travail et LSF : État de l’art................................................................................87
4.2Méthodologie.............................................................................................................93
4.2.1Le site d’observation...........................................................................................93
4.2.2Étapes de la recherche........................................................................................94
4.2.3Une situation originale de travail.......................................................................95
4.3Analyse des usages d’internet à WebSourd................................................................96
4.3.1Partir du regard des utilisateurs.........................................................................96
4.3.2Un choix contextualisé : média et situations de travail.......................................97
4.3.3Les pratiques en cours......................................................................................102
4.3.4Un choix contraint ? Média, pratiques et rapports au français écrit..................120
4.4Conclusion et ouvertures.........................................................................................122
5 ­ Annexes.......................................................................................................................127
6
Introduction
Depuis de nombreuses années, les sourds sont préoccupés par l'accès à une citoyenneté totale, et positionnent ce débat, non sur le plan du handicap, mais sur celui de la communication. Le développement des technologies de l'information et de la communication fonde un espoir chez les sourds : celui de leur donner des moyens de réponse au problème de l'accès à l'information, la formation et la culture, principaux facteurs d'une citoyenneté et d'une intégration au sein d'une société.
Le projet “Usages de l'Internet ­ WebSourd”, en réponse à l'appel à projets 2003 du Ministère de la Recherche, a accompagné la création de l'entreprise WebSourd et a permis de mettre en évidence les usages d'Internet existants chez la population sourde et de détailler les pré­requis nécessaires au développement de nouveaux usages. Il est montré ici que WebSourd est une réponse positive au problème de communication entre les personnes sourdes et la société.
1.1 Présentation des partenaires
La création de WebSourd répond à une demande forte de la population sourde s’exprimant en langue des signes et de leurs proches, ainsi que de tous les locuteurs de cette langue. Cette population qui n’accède pas à l’information orale (radio, télévision) et de façon difficile à l’information écrite se trouve en situation d’exclusion et souhaitait la mise en place d’un projet de télévision pour sourds basé sur la langue des signes.
Mais ce projet ne pouvait pas être réalisé de façon économique sur les technologies classiques de diffusion de contenu télévisuel (hertzien). Avec l’avènement des nouvelles technologies multimédia et de l’Internet, ce projet a évolué vers l’idée de déployer un portail et des services sur multimédia mariant les supports visuels et graphiques, et donnant accès à des contenus informatifs, mais aussi interactifs de toutes natures, permettant aux sourds locuteurs de la langue des signes d’accéder à l’information, aux échanges et à la communication, ainsi qu’à une meilleure interaction avec leur environnement social.
Aujourd'hui, WebSourd est une société coopérative d'intérêt collectif (SCIC). Ce statut permet à l'entreprise d'avoir une collaboration forte avec la communauté des usagers et ses partenaires institutionnels et industriels, prenants part aux décisions. Les services de WebSourd, outre le site web – vitrine centrale de l'entreprise, diffusant un contenu riche en langue des signes et en français écrit, se diversifient. WebSourd a notamment lancé un service de visio­interprétation avec ses partenaires pour permettre de mettre à disposition un interprète en langue des signes au public sourds via Internet.
Le projet a été mené en partenariat avec deux principaux instituts:
l'Institut de Recherche en Informatique de Toulouse (IRIT), dont une équipe (Traitement et Compréhension d'Images) en particulier est spécialisée dans l'analyse informatique de la communication visio­gestuelle, la langue des signes étant alors un contexte intéressant de recherche. C'est une unité mixte de recherche, attaché au CNRS, à l'Institut National Polytechnique de Toulouse, à l'Université Paul Sabatier et à l'université des sciences sociales.
l'Institut de Recherche sur les Implications de la Langue des Signes (IRIS), fort d'une expérience importante au plan local et national, est engagé sur une approche socio­linguistique de l'intégration des sourds dans la société française, agissant sur l'étude, la diffusion et la recherche autour de la langue des signes française. Cet institut possède en particulier un pôle “Recherches” 7
s'appuyant sur des experts sourds et/ou entendants et participant au développement de recherches sur la langue des signes.
1.2 Présentation des sous-projets
Le projet est découpé en trois sous­projets, chacun étant porté par un des trois partenaires. Les thèmes de recherches sont divers. WebSourd, à travers les services proposés à la communauté sourde signante, constitue une réponse positive au problème de communication et d'accès à une pleine citoyenneté vis­à­vis de la société française. Le projet consiste donc en :
1. Une étude sur l'adéquation ergonomique des services existants de WebSourd, notamment le site Internet de l'entreprise, dont le contenu est riche en langue des signes et utilise des technologies spécifiques pour la diffusion de la langue et le service de visio­interprétation, utilisant Internet pour la mise à disposition d'interprètes dans les services publics (notamment Caisses d'Allocations Familiales et mairies). Cette étude a été menée par WebSourd par Karine Grande, ergonome de formation et encadrée par Hugo Mercier, chargé de recherches.
2. Une étude sur la faisabilité technique (notamment informatique) de nouveaux usages envisagés grâce au contexte WebSourd. Cette étude couvre un large pan de recherches informatiques ayant pour thème l'analyse et la synthèse de la langue des signes ainsi que le développement d'outils permettant une utilisation de cette langue et de ses diverses formes. Cette étude a été menée par l'IRIT. Les principaux participants à ce projet sont : Patrice Dalle, professeur à l'Université Paul Sabatier et responsable de l'étude, Brigitte Garcia, Maître de Conférences à l'Université de Nancy et menant sa recherche à l'UMR structures formelles du langage à l'université Paris 8, Guylhem Aznar, Frédérick Gianni, Boris Lenseigne et Hugo Mercier, doctorants en informatique à l'Université Paul Sabatier ­Toulouse 3.
3. Une étude sur l'entreprise WebSourd en tant que telle : le contexte particulier de travail, notamment l'utilisation de la langue des signes comme langue de travail, apporte un éclairage sociologique particulier, en ce qui concerne par exemple l'accès des sourds à l'image, à l'écrit, aux NTIC et en particulier à Internet. Il permet d'étudier à une échelle réduite les rapports sourds­entendants par la langue des signes qye le dispositif WebSourd vise à étendre à une plus grande échelle via Internet. Cette étude a été menée par IRIS par Sophie Dalle­Nazébi, doctorante sociologue et membre d'IRIS et pilotée par Jean­Louis Brugeille, enseignant et chercheur à IRIS.
Le présent document est lui­même découpé en trois parties, correspondant chacune à une synthèse des trois sous­projets.
8
2 - Sous-projet 1
Observation et évaluation de l’Internet et des médias
dans le contexte WebSourd
Karine Grande
Introduction
L’émergence des Nouvelles Technologies rend possible la réalisation de contenus informatifs et interactifs de toute nature, en langue des signes. Il est alors envisageable de déployer pour les sourds, un portail et des services par le biais de l’Internet, dans l’optique que « le rapprochement de la technologie et de la langue des signes permettrait très certainement à la communauté sourde utilisant la langue des signes une bien meilleure accessibilité à l’information et la communication ».
C’est de cette idée qu’est née WebSourd, Société Coopérative d’Intérêt Collectif. WebSourd s’est fixé plusieurs objectifs :
1. contribuer à une pleine citoyenneté des sourds, non pas du point de vue du handicap mais de la communication en promotionnant la langue des signes
2. permettre l’accès à l’information et à la culture 3. lutter contre l’illettrisme et le chômage
Pour cela, elle a développé un site bilingue LSF/français (associant texte et image vidéo) et mis en place de nombreux services, tels que :
■
la visio­interprétation : dispositif d’interprétation à distance permettant de faciliter l’accès aux administrations publiques
■
la traduction de documents comme des formulaires municipaux en ligne ou des productions en LSF enregistrées sur vidéo en français.
■
la captation d’événements et leur retransmission en direct et ce de manière bilingue.
■
un livre bilingue LSF/Français pour enfants
9
Présentation de l'étude
Ce sous­projet a comporté notamment une étude de 3 mois (avril­juin 2005) sur l’apport de WebSourd aux usages de l’Internet et des médias auprès de la population sourde et plus précisément, l’étude ergonomique du site Web et des services d’un point de vue de leur utilisabilité, leur utilité et leur adaptation aux besoins de la population sourde.
L’objectif initial de cette étude était de proposer une méthodologie d’évaluation, conduire l’évaluation auprès des usagers, formuler les préconisations d’amélioration et participer à la rédaction du rapport final du projet.
Cependant, afin de déterminer en quoi WebSourd est une réponse au projet du Ministère « apport des nouvelles technologies aux populations défavorisées » (ici les personnes sourdes), nous avons jugé utile de nous intéresser au site Internet de WebSourd puisqu’il reprend à lui seul de multiples applications ainsi qu’au système de visio­interprétation, principal service développé par WebSourd.
De manière complémentaire, nous avons exploré l’applicabilité des technologies futures développées par l’IRIT1 (Cf. Sous­projet 2 ­ p. 37). L’objectif est de montrer en quoi ces technologies pourraient améliorer les applications existantes (site et service de visio­interprétation) ou en revanche en créer de nouvelles, indépendantes mais toujours intégrant le contexte de WebSourd.
1 IRIT : Institut de Recherche Informatique de Toulouse. Type de technologies étudiées : interaction gestuelle, formes graphiques de la LSF, analyse des mimiques faciales, animation d’avatars signants
10
2.1 Intérêt d’une analyse des usages
WebSourd : une analyse des usages partant d’une approche technologique L’intérêt d’une analyse des usages est de s’assurer que les choix technologiques sont bien adaptés aux besoins des utilisateurs afin d’éviter des attentes formulées qui ne seraient pas toujours réalisables ou à l’inverse, d’éviter des technologies qui pourraient s’avérer inutilisables. Les applications mises en place par WebSourd partent du développement des nouvelles technologies de l’Information et de la Communication de l’Internet et des Médias (comme le montre la figure 1 ci­dessous) telles que la connexion haut débit, l’utilisation de la WebCam, de la vidéo, de l’image ou de la messagerie instantanée. Dans le même temps, le contexte social 2 de la population sourde exprimait depuis longtemps un besoin d’autonomie, d’intégration et de citoyenneté non pas du point de vue du handicap mais de la communication avec un accès à l’information. Offres technologiques
(« technology push »)
Internet (NTIC: connexion haut débit, webcam…)
Technologies
Autonomie
Besoins des
utilisateurs
Intégration et citoyenneté: point de vue communication
Médias
(texte, vidéo, image)
Accès à l’information, à la culture
Usages
Lutte contre l’illettrisme et le chômage
Demande des
consommateurs
(« market pull »)
Figure 1: Approche technologique initiale dans le projet WebSourd
(Amm 93, in Penaud &co., 2004)
2 Rapport de réponse à l’offre du Ministère
11
2.2 La démarche ergonomique
Une approche centrée utilisateur
Sous-projet 1
Méthodes d’utilisabilité
- Observations
- Entretiens
- Modèle de tâches
- Analyse des produits
existants…
- Méthode basée
sur des documents
(de l’entreprise, normes)
Sous-projet 1
Méthodes d’utilisabilité
- Tests utilisateurs
- Questionnaires de
satisfaction
- Evaluation automatique
Inspection
ergonomique
(Source du schéma : : http://www.ergolab.net/articles/conception-centree-utilisateur.html
et Norme ISO 16982)
Figure 2: Cycle de Conception Centrée Utilisateur de la norme ISO 13407
Le cycle itératif de « Conception Centrée Utilisateur » (CCU) de la norme ISO se définit selon quatre principes : 1. une préoccupation et une participation active des utilisateurs 2. une répartition appropriée des fonctions entre les utilisateurs et la technologie
3. l’itération des solutions de conception jusqu’à ce que le système réponde aux exigences de départ 4. l’intervention d’une équipe de conception pluridisciplinaire : la notion d’expérience utilisateur est en effet au carrefour de disciplines différentes. Si nous considérons le sous­projet 1, nous nous situons à l’étape 2 pour ce qui concerne l’observation du site et de la visio­interprétation. Il s’agit de prendre en compte les besoins, les compétences et le contexte d’utilisation mais aussi de considérer les performances requises, l’exécution des tâches confiées aux utilisateurs. Concernant l’évaluation, nous sommes à la 4ème étape: cette étape doit fournir un retour d’informations permettant d’améliorer les solutions, de juger si les objectifs ont été atteints et d’adapter l’utilisation à long terme.
Cette étude se situe an aval du cycle de conception centrée utilisateur.
Méthodologie adoptée 12
La démarche consiste à étudier dans un premier temps la visio­interprétation puis le site de WebSourd.
L’observation repose sur un état de l’art, à la prise de connaissance de documents de l’entreprise, à l’observation de l’activité sur le terrain et à des entretiens. Ces diverses méthodes ont permis de comprendre le contexte d’usage : quel type d’utilisation pour quel type d’utilisateurs et avec quels objectifs. L’évaluation a reposé sur des méthodes ergonomiques diverses tel que nous le montre le tableau 1 ci­dessous. Tableau 1: Répartition de quelques méthodes ergonomiques utilisées pour l'observation et l'évaluation du site et de la visio­interprétation
Observation
Etat de l’art
Analyse
de l’activité
Entretiens
Evaluation
Modèle de tâches
Tests Utilisateurs
Site
+
+
++
+
++
Visio­
interprétati +
++
++
+
on
+ : méthode adaptée, ++ : méthode recommandée
Question­
naires
Evaluation Automatique
Inspection Ergonomique
++
+
++
++
2.3 Le système de visio-interprétation
2.3.1 Présentation
Figure 3: Le système de visio­interprétation
La visio­interprétation est un système d’interprétation à distance qui, par le biais de l’Internet et d’une installation technique spécifique, rend possible la communication entre agents d’administrations publics et usagers sourds.
D’un point de vue matériel, le dispositif se compose d’un poste informatique classique équipé d’un logiciel spécifique (Econf) qui est connecté sur le réseau Internet via une ligne à haut débit (1024 K), d’une webcam et d’un micro­casque. Au sein d’une administration, un poste d’accueil est équipé du matériel cité plus haut. Ce poste est relié à un service d’interprète équipé du même matériel. Une communication audiovisuelle peut donc s’établir à distance entre les deux postes : d’un côté la rencontre entre le visiteur sourd et l’agent administratif et de l’autre, l’interprète pouvant intervenir en temps réel. 2.3.2 Les systèmes existants ou similaires
L’objectif de cet état de l’art est de voir ce qui est déjà réalisé, les systèmes qui marchent, ce 13
qui pourrait être déjà validé et considéré comme norme, ou tout du moins servir d’exemples.
Le système de visio­interprétation existe sous le nom du « Video Remote Interpretation » (tel qu’il est présenté dans l’Annexe 1).
Par ailleurs, d’autres systèmes sont similaires mais se positionnent davantage sur des agents formés à la langue des signes ou bien des demandes d’usagers faites à domicile.
■
Le VRS ou Video Relay Service, est un dispositif où le conseiller d’administration, l’interprète et l’usager sourd sont tous trois dans des lieux différents. L’usager communique, par le biais du logiciel Netmeeting (à installer), directement par Internet avec l’interprète lequel appelle par téléphone, le conseiller administratif.
vidéoconférence
téléphone
Interprète
Conseiller
entendant
Utilisateur
sourd chez lui
Figure 4: Schématisation du principe du "Video Relay Service"
■
Un autre système, celui proposé par EDF/GDF et auquel participe WebSourd, reprend le même principe que le VRS (communication à domicile et installation du logiciel Netmeeting par l’usager). Cependant, l’usager n’est pas en liaison avec un interprète mais directement avec un conseiller sourd signant ou entendant et formé à la langue des signes.
14
2.3.3 Observation du système
Les méthodes utilisées pour l’observation du système de visio­interprétation ont été les suivantes :
■
une première connaissance du système par la lecture de documents de l’entreprise
■
une analyse de l’activité au sein des lieux administratifs équipés du système tels que la CAF de Toulouse, la Mairie ou la médiathèque (la préfecture n’étant pas encore équipée lors des observations) ainsi que des entretiens avec les conseillers administratifs et nombreux responsables de service : ■
le responsable du service de communication de la CAF de Toulouse
■
les responsables du service informatique de la Mairie de Toulouse et du service des relations des associations de personnes handicapées
■
les responsables du service de l’œil et la lettre de la Médiathèque de Toulouse
■
l’observation de l’utilisation du système au sein de WebSourd et la récolte de données grâce à l’équipe
■
l’observation du service d’interprètes utilisant le système
Tableau 2: Visites au sein des établissements équipés du système de visio­
interprétation durant le mois d'Avril 2005
Mairie
Médiathèque
CAF +
Médiathèque
CAF (1)
Médiathèque
(2)
Interprétis
Préfecture
Mairie
(1) : visite de deux employés d’une CAF Française afin d’observer le système
(2) : visite de 4 personnes sourdes avec une accompagnatrice entendante de l’URAPEDA
Le système de visio­interprétation a au final trois usages : il s’agit d’un dispositif pour l’accueil des personnes sourdes mais il peut également être un outil de travail, et moins dédié, servir de visioconférence telle que nous le montre la figure 5 ci­dessous.
15
VISIO-INTERPRETATION
Usage 1: Accueil public sourd
Usage 2: Outil de travail
Usage 3: Outil de visioconférence
• Services publiques (domaine • Communications internes
Communication poste à poste
administratif et culturel)
employés/hiérarchie ou entre (entendant/sourd, sourd/sourd)
employés
• Services privés (transport,
finance, éducation)
• Communications Ws/extérieur
(« actualités brèves » avec
interprètes, relations extérieures avec
salariés WS ...)
Figure 5: Trois usages différents pour le même système de visio­interprétation
2.3.3.1
Usage 1 : l’interprétation à distance
Il est important de différencier le système de visio­interprétation de la téléinterprétation au sens où il n’est pas question d’interprétation pour des conférences à distance (comme peut le laissait entendre l’usage 3 de la figure 5). Avec le système de visio­interprétation, il s’agit d’interprétation de liaison, ce qui implique une adaptation en permanence et un discours qui peut être interrompu à tout moment. 2.3.3.2
Usage 2 : l'outil de travail
Voici trois exemples de situations où le système de visio­interprétation devient un outil de travail et notamment un outil pour le site.
16
Situation 1 : activité de production et de mise en ligne des actualités brèves (≠
prescrit)
Le dispositif permet ici de discuter des traductions des actualités entre présentateurs et interprètes et d’obtenir la validation finale par les interprètes.
Par ailleurs l’utilisation d’MSN est importante dans le cas où l’envoi ou la réception de fichiers ne se fait pas (Cf. Annexe 2). L’écrit est également très utilisé pour préparer la traduction et pour discuter par MSN.
L’utilisation de l’écrit, de l’outil de visio­interprétation et de messagerie instantanée comme MSN, sont des outils de travail aux usages différents comme le montre le tableau ci­dessous.
Outils
Usages
Visio­interprétation MSN
usage : 2
­ support de traduction
­ aide à la traduction
­ communication ­ MSN
­ validation
instantanée, Plus largement :
­ demande d’appel vers rapidité ­ échange avec entendant l’extérieur (communication ­ prise de notes lors de par le biais d’un interprète)
réunion
­ documents
Support écrit
Tableau 3: Usages des outils Internet et du support écrit
17
Situation 2 : la visiointerprétation (avec téléphone) = outil de travail (Websourd/extérieur) demande d’appel vers l’extérieur
WS: Y connexion avec Interprète (par
Interprétis)
Numéro appelé: interlocuteur s’adresse à
l’interprète qui prend la voix de Y
Interprète appelle par téléphone le numéro
et parle au nom de Y
Figure 6: La visio­interprétation comme outil de travail
De même, il est arrivé que très souvent, les discussions d’entendant à entendant passe par le même système : il pouvait alors servir de téléphone.
2.3.3.3
Usage 3 : consultation à distance
Le système de visio­interprétation peut servir (bien que là n’est pas vraiment son rôle) de système de visioconférence tel qu’il est présent dans bon nombre d’universités pour :
- des cours à distance
- des réunions pédagogiques
- de la formation à distance
- de réunions à distance de projets, de stage étudiants - de soutenances de mémoire
Il est alors nécessaire de prendre en compte plusieurs critères du type :
- nombre de participants
- résolution temporelle
- qualité vidéo
- type de contenu
- technologie utilisée (avec logiciels Netmeeting, Econf, CUSeeMe avec 16 personnes en ligne mais pas compatible avec ISDN…)
Il est dans ce cas important de prendre en compte les normes existantes concernant la qualité vidéo de la langue des signes (norme ITU­T Series H).
18
Figure 7: Qualité vidéo en langue des signes (résolution spatiale en fonction de la résolution temporelle) 2.3.3.4
Principaux résultats de l’observation (usage1)
L’observation, basée sur Toulouse, a donc permis de cibler les 3 usages du système de visio­
interprétation mais nous avions convenu de nous concentrer sur le système de visio­interprétation en relation avec les usagers. Les usages 2 et 3 n’ont été observés que bien après, en fin d'étude.
19
Points forts
■ Système mutualisé grâce à l’Internet
■
Possibilité de venir sans rendez­vous
■
Autonomie de l’usager
■
Poste non dédié
■
■
■
■
■
Points faibles
■ Accès au droit, à la culture mais adaptation non optimale au milieu
■
manque ou absence de signalisation du système dans les établissements équipés
■ plage horaire non compatible avec horaires Renseignements donnés et compris de travail des usagers3 pour les usagers signants : suppression des frustrations de ■ manque de compatibilité des services une fois l’inscription faite à la médiathèque : peu ou l’usager et du conseiller, possibilité de pas de sous­titrages pour les films, chaînes travailler sur des questions plus câblées ou DVD4, peu de documents en LSF et spécifiques
qui font référence à l’insertion Apporte une solution au problème de professionnelle... éléments qui peuvent disponibilité spatiale et temporelle largement modifier l’usage de la visio­
des interprètes
interprétation puisque l’utilisateur peut s’inscrire mais étant donné un contenu non Service gratuit pour l’usager : évite adapté, ne trouvera aucune utilité à se rendre donc le coût de l’interprétation
à la Médiathèque.
Service pratique et flexible
■ Accessibilité mais accessibilité pour tous ?
Service favorisant la médiation et la ■ variabilité de la population prise en compte ? sensibilisation à la surdité
malentendants, personnes qui ne maîtrisent pas vraiment la LSF, personnes agées… Important peut­être d’intégrer le texte (en complément par exemple) pour ceux dont le rapport à l’écrit ne pose pas de barrière.
Example of a Total Conversation
user interface
A To tal Co nv ersa ti on u s erin t erface
Call control
Tal
Voice
Sign language
Text in
multimedia
Teckenspråk
call.
Also for Text Telephony
3
Exemple : intégration du texte à la vidéo
■
Problèmes techniques (3/6 visites) : problèmes logiciels, problèmes de connexion
3 Certaines personnes se présentent à la Mairie en dehors des permanences (la fréquentation est de 2 voire 3 personnes sourdes par mois à la Mairie). Hors le système a largement été médiatisé. Les horaires seraient­ils inadaptés ?
Horaires de la médiathèque : préférable de rendre l’accès le week­end... ?
4193 DVD avec sous­titrages sur 6500 après consultation du catalogue. Méconnaissance du taux d’illettrisme de la population sourde, idée que les personnes sourdes savent lire et donc qu’il n’y a pas d’aménagement à réaliser.
20
2.3.4 Evaluation du système de visio-interprétation (usage 1)
L’usage du système implique…
2.3.4.1
un panel différent d’intervenants
Les conseillers administratifs
Il a été important de savoir s’ils étaient sensibilisés à la surdité et à la langue des signes et quelle formation au dispositif ils recevaient (le logiciel comporte t­il un menu aide ? les conseillers bénéficient­ils d’un manuel d’utilisation ? cela ne semblait pas être le cas lors de nos visites).
Le temps de formation et de sensibilisation lors de l’installation du système, est d’environ 2h. La présentation du dispositif aborde brièvement la surdité (Qu’est­ce qu’un sourd ? Qu’est­ce que la langue des signes ? Qu’est­ce que la culture sourde ?), l’intérêt du système, la manière dont il fonctionne, la façon de se comporter, les numéros à appeler en cas de problèmes techniques et une simulation du dispositif.
Depuis peu, des brochures d’aides et de modes d’emploi du système ont été mises en place. Les usagers sourds Sur les trois administrations toulousaines équipées du système, l’une venait récemment de l’être et n’avait pas encore diffusé l’information auprès des associations. Etant donné le taux de fréquentation de la seconde, il ne nous a pas été permis de rencontrer les usagers. La troisième en revanche nécessitait des autorisations qui ont bien été demandées mais auxquelles aucune réponse n’a été donnée. Il ne nous a donc pas été possible d’observer l’utilisation du système par les usagers.
Une enquête de satisfaction a été réalisé afin de recueillir le niveau de satisfaction des usagers : en passant par le service d’interprète, nous pourrions alors avoir le retour d’usagers de différentes administrations de France en ayant l’assurance que les usagers seraient présents.
Dan le même temps cependant, les administrations souhaitaient elles aussi réaliser un sondage de satisfaction : afin de n’avoir qu’un seul retour global des utilisateurs, nous avons transmis le questionnaire aux administrations intéressées. Nous n’avons donc aucun résultat à ce sujet.
Les interprètes
Bien que la visio­interprétation soit un système nouveau, il nous est apparu utile de connaître la perception des interprètes vis­à­vis du système. Nous avons donc mis en place un autre sondage que nous avons diffusé au sein des services d’interprètes de France. Six interprètes seulement ont répondu mais il est prévu que l’enquête soit publiée dans le journal de l’AFILS ce qui permettra de récolter davantage de renseignements. Les résultats sont donnés ci­après.
Par ailleurs nous avons listé les formations préparant au métier d’interprète en langue des signes. L’objectif était de savoir si les formations préparant au métier d’interprète (du point de vue des contenus des brochures) intègrent ou sensibilisent aux nouvelles technologies et/ou à l’interprétation à distance. Celle­ci modifie le métier d’interprète et il est utile de savoir si les futurs interprètes y sont sensibilisés. Les résultats (Cf. Annexe 3) ont confirmé nos hypothèses : il n’y a pas de module intégrant ce type de technologie. La formation intégrée au cursus des futurs interprètes dans l’utilisation de ce 21
type de système devra alors faire l’objet d’une réelle réflexion. WebSourd s’est fixé cet objectif.
Résultats du sondage réalisé auprès des interprètes
Profil des interprètes
6 interprètes ont répondu au questionnaire, 2 hommes et 4 femmes dont la moyenne d’âge varie entre 29 et plus de 50 ans.
Ils exercent tous le métier depuis plus d’an et pour le plus expérimenté, depuis plus de 20 ans.
Tous ont été formés au SERAC­Paris 8.
Afin de connaître leur expérience avec l’informatique, nous leur avons posé des questions sur leur utilisation d’Internet et tous l’utilisent depuis plus d’un an, plusieurs fois/jour en majorité et entre 30mins et 2h.
Démarche Nous nous sommes intéressés dans ce questionnaire au métier d’interprète afin de connaître les principales motivations de la profession et les mettre en relation avec les avantages et inconvénients qu’ils trouvent au système. Par ailleurs, nous nous sommes penchés sur leur utilisation des nouvelles technologies (avec des logiciels tels que WanadooVisio, MSN Messenger, Econf par exemple) et de l’interprétation à distance. Le tableau 4 présente les réponses à nos questions.
Tableau 4: Recueil de données des questionnaires remis aux interprètes
Principales motivations du métier
4/6 participants : horaires souples, lieux et situations variés, richesse des rencontres et relation avec le public
3/6 : plaisir de la LSF et de traduire
4/6 : oui
Satisfaction face au 2/6 : oui mais...larges inconvénients : frustration due à la métier ?
neutralité, conditions de travail et manque de reconnaissance (fatigant, préparation insuffisante, manque de pause)
Déjà communiqué 5/6 : oui, dont 2/6 comme interprète de liaison
par WebCam
Globalement, les interprètes sont plutôt favorables à l’interprétation à distance pour 4 participants/6 (1/6 est défavorable principalement par le manque de contexte et 1/6 ne s’est pas exprimé).
Voici les points forts et les points faibles du système tels qu’ils ont été énoncés par 5 participants/6:
22
Tableau 5: Points forts et points faibles du système de visio­interprétation selon les interprètes
Points forts
Points faibles
Principaux points forts pour les Principaux points faibles pour les interprètes
interprètes
rapidité de l’intervention (en cas ■ manque de connaissance de la situation à d’urgence)
distance (ambiance, informations lues sur papier, documents présentés...) et pas de ■ pratique pour les entretiens de type possibilité de contact ni de visibilité des liaison
interlocuteurs (notamment voir la ■ pas de transport
personne qui parle : nécessaire car elle peut parfois contrôler son débit de parole ■ facilite la prise de rendez­vous dans les par rapport à la traduction)
administrations
■
■
de même incompatible avec réunions ou conférences où il faut voir et entendre les personnes qui parlent et pouvoir saisir le non­verbal indispensable à une bonne traduction. Un retour des usagers est important afin de juger s’ils ont compris ou non.
■
manque de contacts humains
■
manque de perspective de la LSF face à un écran 2D
Autres points forts évoqués
■
travail moins fatigant
■
financier pour le client
Autres points faibles évoqués ■
problèmes techniques peuvent survenir (image saccadée, conversation inaudible)
■ fatigue visuelle
là où il y a besoin d’interprète à plusieurs endroits à la fois
■ il est nécessaire de signer dans un cadre plus restreint
■ lorsqu’il n’y a pas d’interprète présent dans la région
■ pas de contrôle de la situation
■
■
très pratique pour les contenus simples et ■ lieu de travail : interpréter dans un local courts.
fermé
■
pas d’inconvénient si respect de la charte AIIC sur la téléinterprétation
la fréquence d'images trop faible ne permet pas une restitution équivalente à la présence d’un interprète sur les lieux
Ces résultats corroborent ceux récoltés lors d’un entretien avec un interprète à ce sujet (Cf. Annexe 4). ■
Il est intéressant de constater qu’il n’existe pas de principal argument positif pour le dispositif : chaque interprète a mis en avant un avantage différent. En revanche, ils se rejoignent sur le manque de contexte et de visualisation des interlocuteurs. 23
Selon un interprète, la visio­interprétation n’apporte pas de qualification supplémentaire : il nécessite « tout au plus 15 minutes pour s’adapter à traduire sur une image en 2 dimensions et s’habituer à entendre les entendants sans les voir comme on le ferait au téléphone ».
Un travail de communication est nécessaire néanmoins sur la description du dispositif afin d’éviter les confusions (entre le système de visio­interprétation et celui de la téléinterprétation de conférence et réunion...) et de bien cibler les usages du dispositif. Ce travail de communication doit notamment être réalisé au travers d’une journée de sensibilisation organisée par l’AFILS dans les mois à venir.
2.3.4.2
le système implique un environnement différent au sein duquel le
système est implanté
■
Nos observations ont mis en évidence l’adaptation différente du système selon l’environnement d’utilisation, ce qui peut à long terme conditionner une non utilisation du système.
■
Nous avons souhaité recueillir les statistiques des administrations et du service d’interprétation afin de juger du motif et des fréquences de visites, de la satisfaction des usagers, et de la fréquence des problèmes techniques si problèmes il y avait. Ces données nous auraient permis de mieux cibler l’usage du système de visio­interprétation selon les besoins des usagers. Néanmoins, les autorisations n’ont pas été délivrées. Nous avons cependant pu recueillir celles de la Mairie qui, comme le montre le tableau ci­dessous, donne des tendances à ce sujet.
Tableau 6: Statistiques de la Mairie de Toulouse sur la période de Juin à Novembre 2004
Effectif
Motif
Total
Problèmes techniques Nature
Moins de 2 personnes/ mois en moyenne (10 personnes/6 mois)
demande ou renouvellement de CI ou passeport (6 visites/10)
3 problèmes /10 visites
Le casque n’a pas fonctionné et problèmes de mises à jour du système.
Satisfaction des usagers jugée par les Il est inscrit que 9 personnes/10 sont satisfaites du service.
conseillers
2.3.4.3
un matériel à évaluer
■
évaluer l’aménagement du poste (emplacement sans contre­jour, insonorisation…) afin que son utilisation soit optimale mais ceci dépend davantage de l’établissement dans lequel il est implanté. L’inspection précise de chaque établissement n’a pu être possible mais les normes relatives à un écran de visualisation doivent être respectées : pour certains, l’emplacement sans contre­jour n’était pas conforme. ■
des problèmes techniques qui sont dûs au logiciel ou à des problèmes de connexion mais qui dépendent alors principalement de France Telecom.
2.3.4.4
En résumé
L’évaluation du système de visio­interprétation est bien incomplète. Elle pourrait être prolongée par la mise en place d’autres objectifs tels que le retour des usagers sourds ne se servant pas du système de visio­interprétation ou bien l’observation d’établissements non toulousains et équipés ou non du dispositif. Ces données permettraient de voir l’apport de WebSourd avant et après l’intégration du système au sein des administrations.
Nos observations et les retours des interprètes ont néanmoins conclu que l’apport des nouvelles technologies aux sourds favorise la communication et par là­même, l’accessibilité. Une étude plus approfondie du point de vue de l’utilisabilité du système et de la réponse aux 24
besoins des sourds serait cependant intéressante.
25
2.4 Le site Internet
2.4.1 Présentation
Figure 8: Page d'accueil du site de WebSourd
Origine
Le site Internet découle d’une première idée de projet de télévision sur Internet, « Web TV Sourd ».
Objectifs
Il a pour objectifs de fournir un meilleur accès à la fois à l’information et à la communication, et de lutter contre l’illettrisme. Caractéristiques
Il s’agit d’un site bilingue vidéos langue des signes/français écrit, qui s’adresse à tous les internautes. En effet, il s'agit d'éviter, en créant ce site, de créer de nouvelles discriminations en excluant ceux qui ne connaissent pas la langue des signes.
D’un point de vue technique, il fait appel à 5 structures qui sont : l’infographie et l’image, le montage vidéo et l’encodage de données, la gestion de serveurs, l’élaboration d’un site en format flash, l’interprétation et la traduction.
Contenus et fonctionnalités
Le site comporte 8 univers (Cf. Figure 8 ci­dessus) donnant respectivement accès à : ■
un espace d’informations : l’actualité en France et dans le monde (univers « S’informer »), au monde de la surdité (« Ouvrir ») et aux informations pratiques (« Se renseigner »)
■
un espace dédié à la communication à distance avec l’univers « Echanger »
■
un espace relatif au savoir et à la connaissance, de la LSF par exemple (univers « Apprendre »)
26
■
un espace d’achat avec « Acheter »
■
un espace entreprise avec « WebSourd »
■
un espace d’aide d’outils informatiques avec « Outils »
A partir de ces différents contenus, il est possible de mettre en évidence les fonctionnalités du site. L’internaute peut
■
accéder aux informations (sans interagir)
■
acquérir des connaissances et interagir (cours et formations en ligne...)
■
accéder aux informations professionnelles de l’entreprise et des services qu’elle propose ■
■
refonte de site, visio­interprétation, mise en ligne de contenu d’internautes, ouvrage bilingue
■
achats de DVD, livres, webcam…
interagir en donnant son avis sur le site, contacter WS, discuter par vidéo­conférence ou par le biais d’un forum (débats…)
2.4.2 Observation et première évaluation
2.4.2.1
Observation
La première étape de l’étude a consisté à observer la structure du site et à comprendre les relations entre chaque élément le composant. Ceci permet d’avoir une vision à la fois macroscopique (quel est l’objectif du site) et microscopique (comment s’organise les contenus par exemple).
Par suite, l’observation du site avec des utilisateurs a pu être réalisée lors du 20 ème congrès d’Angoulême. Il ne s’agissait pas véritablement de focus groups puisque les utilisateurs n’avaient pas la possibilité d’utiliser directement le site pendant un temps donné. Cependant les retours ont été intéressants du point de vue de l’accessibilité au site : de nombreux problèmes techniques de compatibilité matériel (système d’exploitation, navigateur, débit de la connexion) ont pu être mis en évidence.
2.4.2.2
1èreévaluation : inspection ergonomique
Cette méthode met en évidence les problèmes qui pourraient rendre la navigation difficile pour les utilisateurs, en fonction des 18 critères ergonomiques préconisés par l’INRIA (Bastien & Scapin, 2001). Elle constitue une grille d’aide au diagnostic en justifiant les difficultés décelées et en y apportant des recommandations.
Démarche
L’inspection repose sur l’étude de la page d’accueil et son évaluation selon la grille de critères. Nous avons fait de même ensuite avec chacun des 8 univers. La présentation des résultats s’est faite sous forme de tableaux et de graphiques listant le problème, le critère auquel il correspond, l’illustration et la préconisation à apporter.
Résultats
Concernant la page d’accueil, les problèmes décelés sont principalement au niveau de:
- la charge du travail : soit l’ensemble des éléments de l’interface qui ont un rôle dans la réduction (ou augmentation) de la charge perceptive et cognitive des utilisateurs
27
- l’adaptabilité avec une flexibilité et une prise en compte des besoins et des préférences des utilisateurs. - la compatibilité relative aux caractéristiques des utilisateurs et des tâches ainsi que du matériel
Du point de vue de la navigation et de chacun des univers, les problèmes décelés sont de l’ordre :
- du guidage
- de la charge de travail
- de l’homogénéité et la cohérence
- de l’adaptabilité
De manière globale, voici les conclusions de l’inspection ergonomique :
Tableau 7 : Résultats de l'inspection ergonomique
Points forts
Points faibles
Le site est homogène, l’utilisateur a ■ problèmes techniques
le contrôle et ne peut pas se perdre
■ identité du site et de l’entreprise confuse
■
groupement et distinction des contenus confus et déséquilibrés (menus, sous­menus, termes/tâches...), organisation globale incohérente
■
relation « contenus LSF dynamique/texte statique » Les résultats de l’inspection ergonomique ont été présentés une première fois aux membres de l’équipe WebSourd au cours de plusieurs réunions critiques du site.
2.4.3 Analyse de l’activité et étude de l’existant
Analyse de l’activité
L’inspection ergonomique a montré un déséquilibre au niveau des contenus : il a alors été jugé nécessaire d’observer la mise en ligne d'un article (programmation, captation, montage validation, diffusion) et ainsi mieux comprendre le renouvellement des rubriques d'informations du site et plus largement celui des contenus (la rubrique « s’informer » est constamment en activité tandis qu’ « échanger » ne l’est pas par exemple). Le schéma récapitulatif est présenté plus en avant dans la partie de visio­interprétation (Cf Usage 2, Situation 1). Les résultats sont plus utiles du point de vue de la visio­interprétation pour évaluer les usages qui sont faits du système, de l’écrit et de la messagerie instantanée du type MSN.
Néanmoins, ils permettent de comprendre, via les statistiques du site, que les rubriques qui se renouvellent sans cesse et les informations concernant l’entreprise, attirent davantage d’internautes : ce type d’activité modifie l’usage du site. En effet, les tests utilisateurs qui sont présentés ci­après, évoquent l’idée que la plupart des internautes vont sur le site pour voir ce qui est nouveau ou naviguer quand ils ont un peu de temps plutôt que de rechercher une information précise. 28
Statistiques du site au 03/07/2005 :
- L’univers « S’informer » qui renouvelle l’actualité est consulté par 39% des internautes (sur une moyenne de 188 internautes par jour) et plus précisément la rubrique « archives de la semaine »
Figure 9: Pourcentages des visites des internautes dans l'univers "S'informer"
- L’univers « Ouvrir » est consulté par 22% des internautes et plus précisément les rubriques de divertissement « Humour »et « Loisirs et sports ».
Figure 10: Pourcentages des visites des internautes dans l'univers "Ouvrir"
- L’univers « WebSourd » est consulté par 18% et notamment l’équipe.
Figure 11: Pourcentages des visites d'internautes dans l'univers "WebSourd"
Les rubriques vides, qui encouragent la création de contenus par les usagers, ne sont pas comprises comme telles. Etant donné que les sous­menus en construction n’indiquent aucune date à laquelle ils seront accessibles, il est cohérent que les internautes les fréquentent peu tel que le montre la figure 12 avec les univers « Se renseigner » consulté par 5% d’internautes, tout comme l’univers « Echanger » et 3% de consultations pour l’univers « Apprendre » et « Acheter ».
29
Figure 12: Pourcentages des visites d'internautes pour les univers "se renseigner", "échanger", "apprendre" et "acheter"
Etude de l’existant
De la même manière, il était indispensable de se renseigner sur les sites similaires à celui de WebSourd.
Le site américain http://www.deafplanet.com offre le même type de contenus.
Leur organisation est également déséquilibrée mais le site distingue néanmoins les produits et services « Products and Services » du reste de l’information « News » (Cf. l’encadré jaune de la figure 13 ci­dessous). L’encadré vert montre les reportages qu’il est possible de visualiser avec l’utilisation de sous­titrages.
Figure 13: Télévision américaine sur Internet avec contenus en Langue des Signes
L’évocation de sous­titrages telle que le propose le site ci­dessous serait une solution au déséquilibre entre le texte français non dynamique et la vidéo en langue de signes. Cependant, la charge de travail dans l’incrustation des sous­titrages est considérable et rend au final difficile la lecture. Plusieurs idées de ce type ont été évoquées lors de réunions, notamment celle relative à la critique du site.
30
2.4.4 Les tests utilisateurs : nécessité de confrontation réelle
avec l’interface
Objectif
Les tests utilisateurs, qui englobent plusieurs méthodes, permettent une confrontation réelle en interaction avec le système. Il est alors possible de se rendre compte:
■
des performances du système
■
des performances des utilisateurs
■
de leurs représentations
■
des problèmes d’utilisabilité
■
des améliorations à intégrer
Protocole 7 personnes (3 femmes et 4 hommes) ont participé aux tests. La moyenne d’âge est de 28 ans. Parmi elles, se distinguent 5 personnes sourdes qui ont une bonne maîtrise d’Internet et connaissent bien le site ainsi que 2 personnes entendantes qui connaissent également le site mais diffèrent sur leur utilisation du Web.
Il s’agit de rassembler des données quantitatives et qualitatives au travers de tâches et de questionnaires de satisfaction.
Difficultés rencontrées
Il a été ardu de persuader les utilisateurs de participer à l’étude. A titre indicatif, sur 11 personnes prévues, 4 se sont désistées. Le panel d’utilisateurs est donc restreint. Par ailleurs, tous connaissent le site (il aurait été intéressant qu’il y ait des personnes novices de ce point de vue), viennent de Toulouse et travaillent pour WebSourd directement ou indirectement. Pour le 5ème participant, un problème de serveur n’a pas permis de réaliser l’étude correctement puisque le site n’était pas accessible. Le traitement des données s’est donc fait sur 6 participants pour les tâches.
Le principal problème a été de coordonner les emplois du temps des participants, de l’occupation de la salle et de la caméra où se déroulaient les tests et ceux des interprètes. Leur présence étaient nécessaires à l’étude pour 2 raisons : un souci d’objectivité dans la transmission des informations d’une part et d’autre part, une rapidité des interventions et une qualité de recueil de données qui n’auraient pas été possibles s’il avait fallu interpréter soi­même chaque test. Principaux résultats Les résultats sont difficilement exploitables dus aux biais évoqués précédemment et ne donnent que de simples tendances.
Ils nous ont néanmoins permis de constater que la plupart des problèmes évoqués dans l’inspection ergonomique ont été vérifiés par les tests utilisateurs.
En effet, ont été mis en évidence les problèmes de navigation, d’organisation des contenus (surtout quand recherche d’informations: cohérence des termes et liens avec la tâche) et de surface. 31
Les résultats ont mis en relief le motif des visites du site5:
■
se tenir au courant des nouveautés (événements passés qu’ils n’ont pas vus ou l’actualité sans cesse renouvelée).
■
l’accessibilité qu’il offre : selon un utilisateur, « alors que d’autres sites seraient plus riches sur l’information qu’il recherche, ils ne sont pas accessibles et donc inutiles ».
L’utilisateur entendant l’utilise principalement pour la langue des signes. Pour l’autre participant, il s’agissait d’une première réelle utilisation bien qu’elle le connaissait un peu.
Tout comme l’inspection ergonomique, la rubrique « s’informer » reste celle qui leur semble la plus intéressante et la plus utile.
Du point de vue de la satisfaction, tous (hormis l’utilisateur entendant novice) ont jugé le site satisfaisant : s’il on considère une échelle de 100 points, les utilisateurs sourds lui ont, en moyenne, attribué 67points/100 (avec un écart type de 14.62). L’utilisateur entendant novice lui a attribué 32.5/100 tandis que l’utilisateur entendant connaissant bien le site lui a attribué 97.5/100.
Voici les résultats relatifs à la satisfaction et à l’utilisabilité du site :
Tableau 8: Avis des utilisateurs entendants sur le site (avec difficultés rencontrées par l'utilisateur novice)
Po ints fo rts
Po ints faible s
­S ite s a tis fa is a nt
­Tâ che s a ccomplie s s a ns trop de dé tours
­Bonne lis ibilité
­Bon fe e dba ck
­Expé rie nce pris e e n compte
­ Rigidité
­ S e s ouve nir du che min pa rcouru: mé moris a tion de s a ctions de comma nde difficile Diffic ulté s no vic e :
­Compre ndre le fonctionne me nt e t e xplora tion difficile s .
­Te rme s incohé re nts
­P roblè me s lie ns te rme s /tâ che s
­Orga nis a tion de s informa tions confus e Tableau 9: Points de vue des utilisateurs sourds
Po ints fo rts
Po ints faible s
P our tous le s points é voqué s pré cé de mme nt a ve c le s utilis a te urs e nte nda nts (e xce ption fa ite pour l’e xpé rie nce utilis a te ur) : trè s bon da ns l’e ns .
2.4.4.1
­Tâ che s é vité e s s a ns dé tours : ma nque mote ur de re che rche
­Te rme s incohé re nts : bulle s e n LS F
­Lie ns te rme s /tâ che s
­Expé rie nce de s pa rticipa nts a ve c l’outil informa tique pa s forcé me nt pris e e n compte En résumé...
5 Leurs fréquences d’utilisation varient entre plusieurs fois/semaine pour 3/5 d’entre eux, plusieurs fois/mois (1/5) et plusieurs fois/jour (1/5) pour ceux qui y travaillent. Ils restent en moyenne 10 à 30 minutes à chacune de leurs utilisations.
32
Grâce à l’Internet et le média vidéo, le site permet de faciliter l’accès à l’information, en langue des signes. Les tests utilisateurs ont d’ailleurs montré la satisfaction des participants relative aux contenus langue des signes/français écrit et leur grand intérêt pour le site. Néanmoins, les problèmes d’utilisabilité peuvent modifier les usages des internautes vis­à­vis du site:
■
les nombreux problèmes techniques (compatibilité du système d’exploitation, des versions logiciels, du navigateur, du débit de connexion ou d’antivirus) peuvent porter préjudice à l’image de l’entreprise : le site étant le portail majeur à la connaissance de WebSourd et de son activité, il est important que les utilisateurs puissent le consulter.
■
les rubriques en construction (bien qu’elles soient financées par les partenaires) se doivent pour les internautes, de fournir une information signalant leur prochaine mise en ligne. Si elles nécessitent une participation des usagers, le message ne semble pas avoir été compris ou entendu comme tel par les internautes. Leur état statique peuvent également nuire à l’image de WebSourd d’autant qu’il faut passer par plusieurs liens pour aboutir à une rubrique en construction: l’internaute recherche une information qu’il ne trouve pas et perd du temps par ailleurs.
■
il en est de même avec l’organisation parfois confuse des contenus et les termes écrits utilisés : l’internaute ne trouve pas l’information à l’endroit où il cherche et se retrouve parfois perdu. Un internaute a été surpris d’apprendre qu’il était possible d’envoyer un fichier par webcam : pour lui, le site était un média d’informations et seulement d’informations. De même pour rechercher une information concernant le système de visio­interprétation dans une CAF, certains internautes ne pensent pas qu’il est possible de le faire par le site.
■
les statistiques montrent le déséquilibre entre les univers dus au renouvellement des rubriques. La rubrique « Flash » par exemple est un bon moyen pour synthétiser l’information mais peut d’un autre côté contribuer à ce que les internautes n’aillent pas voir ailleurs. ■
même si la majorité des internautes interrogés ont jugé que le site serait facilement compréhensible par la plupart des personnes, une rubrique d’aide ou une assistance en ligne (par le biais d'une messagerie instantanée par exemple) serait utile pour les utilisateurs novices en matière d’informatique. ■
par ailleurs, la recherche se fait actuellement par le texte et non par la vidéo. Il est donc important de chercher d’autres outils permettant une meilleure répartition des médias utilisés. Les technologies de l’IRIT peuvent contribuer à cela. C’est ce que nous évoquons ci­après.
Les principales conclusions de l’évaluation ergonomique ont convergé vers celles des membres de l’agence INSITE qui accompagne le projet. Une version 2 du site est donc en cours d’élaboration. Une réunion technique lors des 22 et 23 juin 2005, a permis de structurer les modifications du site à réaliser
Le site remplit donc son objectif de média d’information mais n’exploite peut être pas encore assez le côté « média de communication et d’interaction » en tant que tel. 33
2.5 Nouvelles technologies
Les technologies de l’IRIT (Cf. p. 37) font référence à 4 types de recherche :
■
l’interaction gestuelle
■
les formes graphiques de la LSF
■
les mimiques faciales
■
l’animation d’avatars signants
Pour rappel, l’objectif est de montrer ici certaines des améliorations que ces recherches pourraient engendrer sur les applications existantes ou à venir. Il ne s’agit ici que d’idées d’applications.
Du point de vue du site, plusieurs idées ont été évoquées, reste à élaborer de manière rigoureuse une analyse des besoins auxquelles elles correspondent.
L’interaction en LSF pour rechercher une information, écrire un mail, agir sur la vidéo ou le texte du site, appeler en cas d’urgence a été souvent abordée.
■
3 utilisateurs/ 7 ont parlé d’un écran tactile avec un contrôle et activation gestuelle qui s’inscrit dans la continuité d’une interaction gestuelle et sans contrainte écrite. ■
La recherche d’un terme en LSF dont on voudrait la traduction en français (et réciproquement) donnerait une interaction supplémentaire dans l’apprentissage du français écrit ou de la LSF (expliquer en LSF les nouveaux signes par exemple). La recherche de contenus pourrait également être possibles avec une classification symbolisée en sign­writing.
■
Ecrire un mail ayant une traduction automatique en français permettrait d’accroître les possibilités d’échanges et de communication tout en contribuant à lutter contre l’illettrisme ■
Un double moteur de recherche en langue des signes et français écrit, par simple interaction gestuelle face à une webcam, permettrait peut­être une recherche indépendamment du passage forcé de l’écrit. Les utilisateurs auraient la possibilité, grâce à un capteur vidéo, de poser des questions en langue des signes et la recherche serait automatique.
■
Des messages d’erreur en LSF lors de manipulation erronée ou de problèmes techniques seraient une solution à la compréhension pour tous.
D’autres usages comme ceux de l’Internet et des médias au travers du téléphone portable pourraient en liaison avec le site, appeler en cas d’urgence l’hôpital par exemple. Un utilisateur a même émis l’idée d’interagir avec un casque virtuel.
34
2.6 Conclusion
L’étude ergonomique au travers du service de visio­interprétation et du site a montré l’apport des nouvelles technologies par WebSourd à la population sourde : la communication par le biais de la langue des signes est dès lors possible et ouvre ou renforce l’accès à l’information, à la lutte contre l’illettrisme et au droit. Du point de vue de l’interaction homme/machine, les critères d’utilité et de non nocivité sont remplis. Le dispositif de visio­interprétation peut également être considéré comme efficient6. Le critère de satisfaction n’a pas pu être évalué de manière approfondie pour le service de visio­interprétation, nous ne pouvons donc pas nous prononcer à ce sujet. Pour le site en revanche, si l’on considère les tests utilisateurs, le critère est rempli. Les critères d’utilisabilité et de fiabilité (et d’efficience pour le site) doivent en outre être davantage analysés et améliorés de manière à ce qu’ils permettent aux utilisateurs de faire confortablement ce pour quoi ils utilisent ce type d’interaction. Des améliorations sont dès lors mises en place avec la version 2 du site et les perspectives énoncées par France Telecom, peuvent montrer des évolutions complémentaires du dispositif d’interprétation à distance:
■
un impact familial de l’installation d’un système de visio­conférence au domicile avec service d’assistance en LSF
■
envisager l’accueil de malentendants…tout public
■
une priorité des établissements Du point de vue ergonomique, ce travail amène à s’interroger sur les limites des méthodes utilisées dans ce type de contexte. Le besoin de normes et d’évaluations ciblées pour le monde sourd se fait sentir. Bibliographie
Documents WebSourd
■
Réponse à l’offre du Ministère
■
H. Henrion, Travail sur le site média et portail de services sur Internet à destination de la population sourde de France, rapport de DESS IHM, 2003, ENAC
■
Documents sur le site (Emmanuel Vandamme, société Insite)
■
WebSourd : l’Internet au service des sourds. Une démarche innovante pour une pleine et entière citoyenneté des sourds
■
Dossier de Presse (11/04/2005) « WebSourd : l’Internet et les nouvelles technologies au service des sourds ».
■
Expérimentation 2001­2002. « La visioconférence pour l’accueil des personnes sourdes. L’interprétation à distance en langue des signes ».
■
Brochure de présentation de la visio­interprétation
■
Quelques documents remis par la CAF de Toulouse sur l’historique du projet
6 Entre deux systèmes, le rapport entre l'énergie physique, le temps passé, et l'effort intellectuel pour parvenir à un même résultat conditionnent l'efficience du système (Source : http://www.veblog.com). Nous n’avons pas pu réaliser une étude avant/après le système de visiointerprétation mais les observations montrent logiquement qu’il est efficient.
35
Documents de l’IRIT
G.Aznar, P. Dalle, B. Garcia, F. Gianni, B. Lenseigne, H. Mercier, Présentation du projet Usages de l'Internet, Ramonville, 04/12/2004, supports de présentation:
■
Formes graphiques pour la langue des signes : état des lieux,
■
Analyse des intéractions gestuelles,
■
Requêtes en langue des signes,
■
Analyse des expressions du visage
Articles et ouvrages
Bastien, J.M.C & Scapin D.L. (2001). Evaluation des systèmes d’Information et Critères Ergonomiques. In C. Kolski (Ed), Systèmes d’information et interactions homme­machine. Environnement évolué et évaluation de l’IHM. Interaction homme­machine pour les SI (Vol.2, pp.53­79). Paris : Hermes
Penaud, C., Mokhtari, M. & Abdulrazak, B. (2004) Technology Usage for dependant people: Towards the right balance between user needs and technology, ICCHP 2004, 9th International Conference on Computers Helping People with Special Needs, Springer, pp. 898­905, Paris, France, July, 2004.
Norme
International Organisation for Standardization (2002) ISO 16982: Ergonomie de l’interaction homme­
système. Méthodes d’utilisabilité pour la conception centrée sur l’opérateur humain.
Référence en ligne
Boucher, A. (2004), La conception centrée utilisateur
Disponibles sur : http://www.ergolab.net/articles/conception­centree­utilisateur.html
[Accédé en 2005]
36
3 - Sous-projet 2
Etude technologique
G. Aznar, P. Dalle, B. Garcia, F. Gianni, B. Lenseigne, H. Mercier
Le sous­projet 2, porté par l'IRIT, vise à évaluer la possibilité d'introduire de nouvelles techniques d'accès ou de manipulation à des contenus en langue des signes, liées aux nouveaux usages engendrés par le contexte WebSourd. Certains de ces usages sont proposés à partir de l'existant technologique, d'autres sont directement inspirés d'une communication avec la communauté sourde.
Les briques technologiques à développer ayant été retenues sont les suivantes:
■
Intéraction gestuelle: les travaux visent à définir les conditions opératoires permettant d’effectuer une requête en langue des signes. Du point de vue de la captation des gestes par un système de vision, il s'agit de définir quelles sont les applications envisageables en fonction des contraintes de prise de vue et de la situation d'interaction retenue. De plus, il s'agit de définir dans quel cadre linguistique est applicable la reconnaissance de requêtes en LSF.
■
Formes graphiques de la LSF: il s'agit d'étudier les formes graphiques de la langue des signes française. Une étude de terrain a été menée permettant d'évaluer les pratiques écrites existantes et évaluer les besoins pour l'élaboration d'une forme d'écriture pour la langue des signes. De cette étude ont été déduites les limites des NTIC, et en particulier de la vidéo, permettant de cibler certaines briques technologiques à développer. D'autre part, une forme graphique est d'ores et déjà utilisée par une partie de la communauté sourde (en particulier en Amérique du Sud) : le SignWriting. D'un point de vue informatique, il s'est agit d'étudier la faisabilité d'une saisie informatique de cette forme d'écriture ainsi que les développements nécessaires à son intégration dans les systèmes de codage et d'affichage informatiques actuels.
■
Analyse des mimiques faciales: les expressions faciales dynamiques observées lors d'une locution en LSF jouent un rôle important dans la construction du sens. Cette partie de la langue est souvent négligée par les recherches actuelles. Il s'agit ici de modéliser le visage humain dans toute sa dynamique : variations en identité et en expressions dans le but d'étudier la séparabilité de ces deux paramètres. Une application à l' « anonymisation » est envisagée, en illustrant les difficultés dues au traitement d'un panel riche d'expressions présentes en LSF.
■
Animation d’avatars signants: l'animation de personnages humanoïdes capables de produire des messages en langue des signes est une application intéressante dans le contexte WebSourd, sur un site Internet, permettant la génération de messages de manière automatique. Il existe de nombreuses pistes concernant le pilotage d'un tel personnage, les deux principales techniques étant celles basées sur la capture de mouvement, où l'avatar rejoue ce qui a été observé, et celles basées sur la génération d'un message à partir de sa représentation linguistique. On détaille les différents types d'avatars et la manière de les piloter selon les situations d'usages envisagées.
Un tour d'horizon de l'existant concernant ces différentes techniques est présenté (§ 3.1 à 3.6), puis une illustration des usages de l'Internet, selon les situations, est détaillée (§ 3.7).
37
3.1 Intéraction gestuelle homme-machine
Le projet "Usages de l'Internet" est initiateur de recherche et de veille technologique sur l'utilisation et la conception d'interfaces de communication gestuelle utilisant la vision.
Ces interfaces doivent permettre d'intéragir avec un ordinateur de manière naturelle sans gêner l'utilisateur avec un appareillage lors de communication gestuelle homme­ordinateur­
homme. Depuis les premiers jours de l'ordinateur nous avons essayé de leur faire comprendre nos paroles, mais depuis quelques années nous nous intéressons à introduire les autres moyens de communication homme­homme. Ces nouveaux moyens incluent notamment l'utilisation des mouvements spatiaux des bras humains [1] [2], l'orientation du visage et autres mouvements corporels. L'intégration de nouvelles interfaces gestuelles ainsi que leur utilisation pour les communications homme­machine, homme­machine­homme est un des points d'étude de ce projet. 3.1.1 Interface perceptive et interface multimodale
Il existe principalement deux types de scénario lorsque l'on parle d'interface gestuelle [3]. L'un tend à développer des interfaces perceptives (perceptive user interface PUI) [4] ou des espaces perceptifs [5] s'efforçant à reconnaître de manière automatique les gestes naturels combinés avec d'autres expressions corporelles telles que mouvements du corps, direction du regard, expressions du visage et paroles. Le but est de développer des interfaces conversationnelles avec ce qui est considéré comme étant une communication homme­homme naturelle. Par exemple [6] suggère que dans le but de réaliser des interfaces conversationnelles, la reconnaissance gestuelle doit pouvoir utiliser les gestes non porteur de sens et interpréter les autres signes du corps et Wexelbat [7] argumente que seul les gestes naturels devraient être pris en compte, d'autre gestes ne feraient qu'augmenter la peine de l'utilisateur dans sa démarche. L'autre type de scénario est l'utilisation de gestes délibérément expressifs où la pose de la main et des gestes spécifiques sont utilisés comme langage de commande. Les gestes n'ont pas besoin d'être des gestes naturels mais peuvent être conçus selon la situation ou reposant sur une langue des signes. Dans cette approche les gestes sont plus des remplaçants des périphériques traditionnels (clavier, souris), ou bien un complément e.g. gestes utilisés avec la parole ou la direction du regard, qu'un moyen naturel de communication. Ils constituent cependant un moyen naturel pour ceux dont c’est le mode principal d’expression, via la langue des signes, les personnes sourdes
3.1.2 Communication gestuelle et vision par ordinateur
Des descriptions et taxonomies détaillées des gestes de la main du point de vue vision par ordinateur ont été données par Quek [8], Pavlovic [10] et Shamai et Turk [4]. Nous allons ici les voir brièvement.
Les gestes sont expressifs, des mouvements du corps porteur de sens ayant une intentionnalité pour la diffusion d'une information ou pour interagir avec l'environnement. Selon Cadoz [9], les gestes de la main jouent trois rôles fonctionnels : sémiotique, ergotique, epistémique. La fonction sémiotique est de communiquer une information, la fonction ergotique correspond à la capacité de manipuler des objets dans le monde, et la fonction épistémique nous permet d'appréhender le monde grâce à l'exploration tactile. Quek [8] distingue les gestes de communication réalisés pour une interprétation visuelle et où aucune partie cachée du geste ne porte d'information essentielle à sa compréhension, des gestes de manipulation qui n'ont pas de telles contraintes. Pavlovic [10] effectue une classification similaire mais souligne une différence entre mouvements non intentionnels et gestes.
Pour les gestes de communication, sémiotique, Kendon [11] est le premier à proposer une 38
typologie des gestes faisant l'hypothèse d'un continuum, en fonction de l'information que ces gestes véhiculent et selon la présence de la parole. L'hypothèse du continuum de Kendon se présente comme suit : Gesticulation → Gestes 'quasi­linguistiques' → Pantomime → Emblèmes → Langue des Signes. 1. Gesticulation : mouvements spontanés des bras et des mains pendant la parole.
2. Gestes 'quasi­linguistiques': comme la gesticulation mais intégrés grammaticalement à l'énoncé.
3. Pantomime :gestes sans parole utilisés au théâtre pour raconter une histoire.
4. Emblèmes : gestes d'insultes ou d'éloges.
5. Langue des Signes : ensemble de gestes et de postures qui forment un système complet de communication linguistique.
Si nous considérons ce continuum de gauche à droite : la présence de la parole décline et le caractère linguistique du geste augmente.
La plupart du travail effectué en vision et IHM est concentré sur l'interprétation des signes et des emblèmes puisqu'ils ont un contenu sémantique plus clair que les autres et qu'ils sont plus appropriés pour des interactions de commandes et de contrôle [12]. Il est aussi important de mentionner McNeil [13] qui propose une classification des gestes de la catégorie des gesticulations. Il définit les gestes déictiques pointages ou désignations indiquant des objets, personnes ou événements du monde réel ou abstrait, les gestes cohésifs liant des parties du discours reliés thématiquement mais séparés temporellement, les gestes rythmiques ponctuant le discours ils évoquent les pulsations d'un rythme musical, métaphoriques ils évoquent des formes et actions abstraites dans l'espace, iconiques ils ont un lien étroit avec le contenu sémantique de la parole et permettent de décrire des scènes d'un point de vue particulier. Dans notre cadre d'utilisation des gestes nous nous attacherons à utiliser les gestes porteur d'informations réalisés explicitement dans le but de communiquer une information. Cette information sera du type défini par le contexte d'utilisation. Nous allons maintenant voir les scénarios existants utilisant des gestes dans le but de communiquer une information à un système informatique.
3.1.3 Scénario d'utilisation
La communication gestuelle du fait des avancées technologiques des différents périphériques permettant de réaliser des communications visuelles est un secteur de recherche très actif. De nombreux problèmes sont étudiés à différents niveaux. Différents scénarios de communication assistée par ordinateur sont étudiés tels que : l'aide aux personnes ne pouvant se servir confortablement de périphériques traditionnel clavier, souris [14] ; commande d'un robot mobile [15], espace de jeux narratif interactif pour enfants, navigation, interaction avec un environnement virtuel [16], animation d'avatar [17]. Ces périphériques définissent aussi de nouveaux environnements de travail nommé SmartSpace. Pavlovic [10] écrit qu'idéalement l'utilisation naturelle de l'interface demanderait que tous les gestes réalisés par l'utilisateur soient interprétés, mais les capacités de la vision par ordinateur ne donne pas encore de résultat satisfaisant totalement la solution à ce problème. Une raison évidente est la complexité associée à l'analyse et reconnaissance de gestes. Il existe cependant des solutions pragmatiques à l'utilisation des gestes pour une interface homme­machine utilisant la vision telles que:
■
Utiliser un appareil (stylo, gant numérique).
■
Contraindre les informations relative à l'objet (silhouette de la main).
■
Contraindre les situations de reconnaissance (fond uniforme, zone réduite).
39
■
Utiliser un ensemble de gestes réduit.
Nous verrons dans la partie usages quelles contraintes nous pouvons demander selon les cas d'utilisation.
3.1.4 Paramètres du geste
L'utilisation de gestes ne doit pas trop contraindre l'utilisateur sur la rigidité de la réalisation du geste. Les interfaces non intuitives nécessitent de diviser les actions élémentaires en plusieurs sous­composants marqués. Par exemple, une action déplacer nécessitent les commandes couper, coller clairement séparées. Les équivalents gestuels de manipulations direct d'interface sont ceux qui utilisent des gestes isolés tels que ceux utilisés par McKenna [14]. Cela va des interfaces reconnaissant quelques gestes symboliques [15] jusqu'à celle interprétant tout un langage de signes. De même, les interfaces gestuelles reconnaîtront des postures statiques de la main [18], la dynamique des mouvements de la main [19] ou bien les deux. Dans tous les cas, chaque geste doit avoir une interprétation sémantique non ambiguë associée à une fonction de l'interface.
3.1.5 Utilisateur isolé
L'interaction gestuelle homme­machine dans un environnement non maîtrisé demande d'effectuer certaines opérations bien précises. Dans le contexte d'usage mono­utilisateur [20] estime la position et l'orientation du visage ; ceci peut être utilisé pour la navigation dans un site. [21] permet de remplacer les « clics » de la souris par des clignements des yeux ayant une durée significative dans le temps. [15] utilise des gestes symboliques d'une main pour commander un robot.
A gauche : WATSON ­ estimation temps réel de la posture du visage. Louis­Philippe Morency, Ali Rahimi. Au milieu : Communication via clignement des yeux. Kristen Grauman. A droite : Commande gestuelle d'un robot. L. Brethes
Dans chaque cas les systèmes ont été conçu autour de leur problématique. Ils utilisent chacun une particularité définie par leur contexte d'interaction. [20] utilise un dispositif stéréovision qui lui permet de retrouver l'information de profondeur qui n'existe pas dans une image. Cette information est capitale pour l'estimation de l'orientation du visage en trois dimensions. [21] retrouve les yeux à l'aide du mouvement des paupières lorsqu'elles s'ouvrent et se ferment. Les multiples candidats trouvés lors de la détection de mouvements sont éliminés à l'aide d'un modèle d'apparence de l' oeil. [15] propose de commander un robot à l'aide de gestes isolés d'une main. Ces gestes sont des gestes symboliques représentés par la configuration de la main, il n'y a pas de prise en compte de sa dynamique. Il procède tout d'abord à la segmentation des pixels ayant la couleur de la peau puis effectue une mise en correspondance. Le lexique reconnu se limite à un dizaine de symboles.
Dans le cadre des études effectuées par l'équipe TCI, un algorithme de détection et de suivi de "blobs" a été développé. Celui ci nous permet de retrouver et de suivre la tête et les mains d'un utilisateur dans le but de reconnaître les mouvements des bras et du haut du corps en minimisant 40
le plus possible les contraintes envers l'utilisateur, c'est­à­dire en lui laissant le plus de liberté possible dans ses mouvements, son positionnement vis à vis de la caméra. Nous nous basons sur l'apprentissage du fond de la scène où se trouve la personne utilisant le dispositif pour récupérer sa silhouette. Pour cela nous apprenons l'image constituant le fond statique de l'image. Puis nous procédons par soustraction de ce fond à l'image courante. Ce qui nous permet de retrouver les objets, personnes qui ont été ajoutées à ce fond. Une fois la silhouette retrouvée nous cherchons les parties de cette forme ayant la couleur peau. Ce qui nous donne les régions de la tête et des mains. Une fois ces parties du corps détectées nous effectuons un suivi basé sur la conservation de mouvement et la conservation de la taille de ces zones entre chaque image (voir figure ci­dessous).
Detection de la tête de l'utilisateur, et mise en place des boite de recherche des mains
Suivi de la tête, et détection de la main
Suivi de la main
41
3.1.6 Groupe
Nous nous plaçons maintenant dans le cas d'utilisation d'une interface visuo­gestuelle par un groupe de personnes. La gestion de prise de parole dans un contexte similaire a été abordé par [22]. Il se place dans un environnement de classe d 'école et souhaite détecter les prises de paroles des étudiants. Il procède par un découpage de l'image permettant de situer les événements visuels à prendre en compte : ici la main levée.
A gauche image type d'une salle de classe, à droite la segmentation des gestes caractérisant une demande de parole
Dans le cadre d'une visio­conférence de groupe le problème vient de la difficulté de gérer deux groupes communiquant dans deux points géographiques différents. Un animateur électronique pourrait servir à la gestion de la prise de parole . Cet animateur se sert de la vision pour détecter les demandes de prise de parole. L'apport qu'il offre est de pouvoir se situer des deux côtés en même temps ce qui n'est pas possible pour un être humain. Le problème lié à l'utilisation d'un tel système est la séparation de l'utilisateur (celui qui prend la parole) et du public. L'utilisation de fond multi­couche permettant d'apprendre les attributs du public nous permet de séparer l'utilisateur du public. Mais cette méthode ne permet pas de prendre en compte les mouvements du public qui perturberont la détection et segmentation de l'utilisateur.
42
Soustraction de fond, avec prise en compte du mouvement du public
En augmentant la couche contenant le public de propriétés de mouvement, nous pouvons laisser au public une liberté de mouvement (voir figure ci­dessous). Cette approche nous permet de plus de pouvoir mesurer les mouvements du public. Ceci afin de pouvoir attribuer un sens aux mouvements détectés tel que la demande de prise de parole défini par [22]. Références bibliographiques
[1] Clombo (C.), Bimbo (A. D.) et Valli (A.), Visual capture and understanding of hand pointing , Ieee Transactions On Systems, Man And Cybernetics­Part B : Cybernetics, vol. 33, no 4, aout 2003
[2] Malerczyk (C.), Interactive museum exhibit using pointing gesture recognition , Journal of WSCG, vol. 12, no 1­3, 2004, p. 165­172. ISSN 1213­6972.
[3] Lenman S. and Bretzner L. and Thuresson B., Using marking menus to develop command sets for computer vision based hand gesture interfaces, dans Proceedings of the Second Nordic Conference on Human­Computer Interaction, p. 239­242, 2002.
[4] Turk (M.) et Robertson (G.), Perceptual user interfaces, Communications of the ACM, vol. 43, no 3, 2000, p. 33­34.
[5] Christopher R. Wren (F. S.), Perceptive spaces for performance and entertainment : Untethered interaction using computer vision and audition , Applied Articial Intelligence, vol. 11, no 4, juin 1996, p. 267­284.
[6] Bolt R. A., "put­that­there" : Voice and gesture at the graphics interface , dans SIGGRAPH '80 : Proceedings of the 7th annual conference on Computer graphics and interactive techniques, p. 262­
270. ACM Press, 1980.
[7] Wexelbat A., An approach to natural gesture in virtual environmant, ACM ToCHI, vol. 2, no 3, Septembre 1995, p. 179­200.
43
[8] Quek. F., Eyes in the interface, IVC, vol. 13, no 6, Aout 1995, p. 511­525.
[9] Cadoz C., Les réalités virtuelles. Flammarion, 1994.
[10] Vladimir Pavlovic et Rajeev Sharma and Thomas S. Huang, Visual interpretation of hand gestures for human­computer interaction : A review, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 19, no 7, 1997, p. 677­695.
[11] Kendon A. The Biological Foundation of Gestures : Motor and semiotic Aspects, chap. Current issues in the study of gesture, p. 23­47. Lawrence Erlbaum Associate, 1986.
[12] Turk M., Handbook of Virtual Environments. Design, Implementation, and Applications, chap. Gesture Recognition. Lawrence­Erlbaum, 2002.
[13] McNeill D. , Hand and mind : What gestures reveal about thought. University of Chicago Press, 1992.
[14] McKenna (S. J.) et Morrison (K.), A comparison of skin history and trajectory­based representation schemes for the recognition of userspecified gestures , Pattern Recognition, vol. 37, no 5, Mai 2004, p. 999­1009.
[15] L. Brèthes, F. L. P. Menezes et M. Briot, Segmentation couleur et condensation pour le suivi et la reconnaissance de gestes humains, dans RFIA, 2004, Toulouse 27­28 Janvier 2004.
[16] Hyosum Kim S. H. et Fellner D. W., Tangible3d : Immersive 3d modeling through hand gesture interaction. Rapport technique no TUBS­CG­2004­07, Université de Technologie Braunshweig, 2004.
[17] Wren (C. R.) et Pentland (A. P.),Dynamics models of human motion, dans Third IEEE International Conference on Automatic Face and Gesture Recognition, Avril 14­16 1998.
[18] Kölsch (M.) et Turk (M.), Robust hand detection, dans International Conference on Automatic Face and Gesture Recognition, Mai 17­19 2004.
[19] Schmidt (G. S.) et House (D. H.), Model­based motion filtering for improving arm gesture recognition performance, dans Springer­Verlag, éditeur, Gesture based Communication in Human­
ComputerInteraction : International Gesture Workshop 2003, vol. 2915, p. 210­230, 2003.
[20] Louis­Phillippe Morency, Ali Rahimi, Trevor Darrel, Adaptative View­Based Appearance Model, Proceedings IEEE Conf. on Computer Vision and Pattern Recognition, 2003
[21] Kristen Grauman, Margrit Betke, James Gips, Gary R. Bradski, Communication via Eye Blinks ­ Detection and Duration Analysis in Real Time, roceedings IEEEConf. on Computer Vision and Pattern Recognition. Vol 1 P. 1010, 2001
[22] Jie Yao Cooperstock, J.R. Arm gesture detection in a classroom environment, Proceedings. Sixth IEEE Workshop on Applications of Computer Vision, 2002. (WACV 2002), p. 153­157, 2002
[23] Gibet S. (2004) Humanoïde doué de gestes expressifs de communication. Journées Robéa 2004, Co­localisées avec RFIA2004, Toulouse, 27­28 janvier 2004
44
3.2 Analyse et reconnaissance de la langue des Signes
pour l’Internet
La mise en œuvre d’applications permettant l’usage de la langue des Signes sur l’Internet, pose un certain nombre de problèmes liés à la représentation de cette langue mais aussi aux méthodes d’acquisition et d’analyse des gestes qui la composent.
Au niveau de l’acquisition tout d’abord, ces applications étant destinées à un large public, elles ne peuvent pas avoir recours à des périphériques complexes tels que des gants numériques ou des dispositifs de stéréovision. De fait, il faudra considérer que les méthodes qui pourront être utilisées dans de telles applications devront pouvoir se contenter de séquences d’images de faible résolution. D’autre part, la spécificité des applications liées à l’internet sont détaillées au 3.7 de façon très générale ; on peut distinguer trois catégories de problèmes liées à ces applications : 1. La reconnaissance de signes isolés pour la navigation dans un site ou l’interrogation d’un moteur de recherche par exemple ; 2. l’interprétation d’énoncés complexes pour l’interrogation de bases de données ou des applications d’interprétation automatique ; 3. la compression de séquences d’images afin de permettre leur transmission sur le réseau qui, malgré la généralisation des connexions à haut débit, reste d’actualité pour la mise en œuvre d’espaces de dialogues en direct. Le présent chapitre vise à faire le point sur les techniques existantes dans chacun de ces domaines ce qui nous permettra par la suite de conclure quant à la faisabilité de telles applications et aux développements nécessaires à leur mise en œuvre. 3.2.1 Reconnaissance de signes isolés
Dans le contexte de la reconnaissance de signes isolés, nombre de techniques utilisées pour l’analyse des gestes sont similaires à celles utilisées plus généralement dans l’interaction gestuelle (Cf. 3.1). La spécificité du traitement de la langue des Signes réside alors au niveau des méthodes de reconnaissances utilisées et sur les primitives utilisées pour cette reconnaissance. Enfin, dans le cadre applicatif des usages de l’internet les données disponibles se limitent à des séquences d’images monoscopiques. On retrouve alors quatre grandes familles de méthodes : – les méthodes de reconnaissance par l’apparence ; – les méthodes basées sur la construction d’images d’énergie du mouvement ; – les méthodes paramétriques qui caractérisent les éléments à identifier à partir de mesures sur les propriétés des régions obtenues après segmentation et labellisation des images ; – les méthodes faisant appel à un modèle 3D. Dans les deux premières familles de méthodes, le mouvement est analysé à partir de signatures intégrant l’aspect temporel du signal, les deux autres en revanche nécessitent une phase explicite de mise en correspondance temporelle. Les méthodes de reconnaissance par l’apparence
Dans ces méthodes, l’apprentissage se fait à partir d’images caractéristiques du geste à 45
reconnaître sous différents points de vue. Une analyse en composantes principales de ce corpus d’apprentissage, permet de représenter chaque geste à identifier sous forme d’une trajectoire dans l’espace des vecteurs propres, la mise en correspondance se faisant par la suite dans cet espace. Pour la reconnaissances des signes, cette famille a été utilisée par Cui et Weng dans le système, SHOSLIF­M, de reconnaissance des signes de l’ASL (American Sign Language) à partir de séquences d’images en niveaux de gris. Ce système a été testé, avec un taux de réussite de 92,3 % sur un ensemble de 28 signes différents de la main présentant une grande variété de configurations et de mouvements.
Cette famille de méthodes permet une mise en correspondance rapide et efficace entre une forme à identifier et un corpus de modèles. Dans le cas de l’analyse de gestes elles ont été utilisées avec succès pour la reconnaissance de configurations manuelles ou de gestes de commande simples. Elles restent toutefois limitées pour l’analyse d’énoncés complexes de la langue des Signes à cause des problèmes d’occultation et de la très grande variabilité de production des gestes. L’apprentissage de ces gestes nécessitera alors des corpus très importants limitant ainsi la taille du vocabulaire que de telles approches sont susceptibles de traiter. Enfin, suivant la façon dont est réalisé le corpus d’apprentissage, un certain nombre de paramètres du geste (orientation, position dans l’espace) restent inaccessibles et devront donc être estimés par ailleurs, postérieurement à la phase de reconnaissance.
Les images d’énergie du mouvement
Cette approche se base sur le constat que l’on peut reconnaître une action directement à partir du mouvement sans avoir recours à la structure de l’objet qui la réalise. Il s’agit, après segmentation de la silhouette du sujet à étudier, d’accumuler dans une même image 2D l’ensemble des régions occupées par la silhouette durant la séquence (fig. 1.1).
Ces techniques ont été mises en œuvre dans [17][10][9][18], pour de nombreuses applications ayant trait à l’interaction gestuelle (reconnaissance de gestes d’aérobic, chef d’orchestre virtuel, chambre de jeux interactive etc...). Un aspect plus original de cette approche est présenté dans [2] où les auteurs exploitent directent les informations de mouvement contenues dans les trames interpolées des fichiers vidéo compressés pour la classification d’actions. La reconnaissance des gestes proprement dite est réalisée à l’aide de chaînes de markov cachées [26] ou de réseaux de neurones [25].
Bien que séduisantes par leur simplicité, ces techniques manquent toutefois de finesse pour une analyse directe de la langue des Signes et sont généralement utilisées pour l’analyse de gestes mettant en jeu le corps dans son ensemble. En effet, l’analyse du mouvement reste limitée au mouvement apparent de la silhouette du sujet, l’information de mouvement concerne donc uniquement le contour extérieur de la région image considérée. Ce problème peut être partiellement contourné en ne considérant que le mouvement des régions de peau (mains et visage), mais la complexité du contour des mains rend délicate l’estimation de la direction du mouvement à partir de la direction du gradient comme cela est proposé dans [17]. Elles ne sont en outre utilisables que pour des gestes réalisés dans un plan frontal perpendiculaire à l’axe optique de la caméra. En revanche, la présentation d’informations de mouvement sous forme de tMHI, a soulevé un vif intérêt, en tant que représentation du mouvement, chez les linguites travaillant sur l’analyse de la langue des Signes française (fig. 1.1) ou chez les enseignants de cette langue car elle permet de visualiser dans une seule image une séquence temporelle.
46
FIG. 1.1: Calcul du tMHI sur l’image des régions de peau d’un locuteur s’exprimant en langue des Signes.
Approches paramétriques
Nous regroupons sous le vocable “approches paramétriques”, l’ensemble des approches pour lesquelles le geste à analyser est représenté par un ensemble de mesures réalisées sur les régions correspondant à un composant dans chaque image. L’analyse des gestes ne peut alors se faire qu’après une phase préalable de segmentation, de labellisation et de mise en correspondance temporelle. Ces approches sont les plus répandues dans le domaine de l’analyse 2D de la langue des Signes. L’un des premiers systèmes proposé exploitant cette approche est [27]. Dans ce système, les auteurs utilisent une approximation polygonale du contour de la main pour identifier la configuration de cette dernière. La reconnaissance se fait via une analyse hiérarchique des paramètres du geste, lequel est considéré comme une séquence de chérèmes. Le système distingue vingt signes isolés de la langue des Signes japonaise avec un taux de reconnaissances de 45%. Lorsque le système ne parvient pas à effectuer une classification correcte, il renvoie une paire de signes probables qui contient systématiquement le bon signe.
Une approche hiérarchique similaire est utilisée dans [6] qui considère trois paramètres pour un signe : la position finale de la main, la forme, simplifiée, de la trajectoire, et la configuration de la main en fin de trajectoire. Dans cette étude, cinq configurations différentes de la main sont reconnues, cette approche permet aux auteurs de classer avec succès les 31 signes de leur corpus de test.
Starner et Pentland [30] [31] proposent pour leur part un système permettant la reconnaissance continue d’un sous ensemble de 40 signes de la langue des Signes américaine. Le système utilise soit une vue de dessus similaire à celle obtenue avec une caméra de surveillance, soit une caméra montée sur la visière d’une casquette portée par le locuteur pour reconnaître, à l’aide de HMM7 une centaine de phrases de structure connue de la langue des Signes américaine. Sur un vocabulaire de 40 signes, leur taux de reconnaissance se situe entre 74% et 98% en fonction du dispositif d’acquisition et de la complexité des phrases à reconnaître. D’autres travaux [23] se basent uniquement sur l’information de mouvement 2D des mains pour reconnaitre des signes complexes de la langue des Signes américaine. La méthode se base dans un premier temps sur une segmentation multi­échelles de chaque image en régions de mouvement homogène par rapport à l’image précédente puis utilise des réseaux de neuronnes à décalage (TDNN) pour la reconnaissance des séquences de transformations affines décrivant le mouvement des mains d’une image à l’autre.
Hienz et al. [16][15], proposent quant à eux, un système de reconnaissance continue de la langue des Signes allemande basé sur une approche mono­vision. Afin de permettre une analyse en temps réel de la séquence, le locuteur porte des gants colorés permettant, pour la main dominante uniquement, de différencier chaque phalange ainsi que la paume et le dos de la main. L’état de la 7Hidden Markov Model, modèles de markov cachés.
47
main est ensuite caractérisé directement par des mesures effectuées sur les régions correspondant à ces différents composants obtenus par segmentation chromatique des images. Le système ne prend en compte que les composantes manuelles du signe. Il utilise directement les mesures réalisées pour reconnaître à l’aide de HMM des phrases en langue des Signes allemande basées sur un vocabulaire de 52 signes avec un taux de reconnaissance avoisinant les 95% dans le meilleur des cas. Pour atteindre ce taux de reconnaissance, le système ajoute au module de reconnaissance des gestes un modèle de la langue permettant de guider la reconnaissance.
Enfin, une dernière approche qui mérite l’attention est celle proposée dans [4] qui vise pour l’essentiel à simplifier le problème de l’apprentissage du système de reconnaissance. Pour cela, les auteurs construisent, par analyse d’images, des descriptions qualitatives de haut niveau des gestes qui sont utilisées (après analyse en composantes indépendantes) comme entrées pour le système de reconnaissance proprement dit constitué de HMM. La principale particularité de cette méthode est le recours à une description qualitative, proche de celle utilisée par les linguistes, des signes qui ne se limite pas aux seules composantes manuelles du signe (positions des mains relativement aux différents éléments du corps), avec pour effet de simplifier drastiquement la phase d’apprentissage ce qui permet d’envisager sa mise en œuvre en ligne.
Mise en correspondance d’un modèle 3D et d’informations 2D
Dans cette famille d’approches, le but est de déterminer la forme 3D de l’objet à étudier sans recourir à des méthodes directes de reconstruction à partir des images. Deux classes de méthodes sont utilisées : la première, utilise une base de données contenant l’ensemble de configurations possibles de l’objet à identifier dans laquelle on recherche celle qui correspond le mieux à l’image. La seconde famille, repose sur la mise en correspondance réalisée de façon itérative du modèle affecté d’un jeu de paramètres estimés et correction de cette estimation en fonction des différences entre le modèle rétroprojeté et l’image.
Dans les deux cas, la reconstruction étant réalisée pour chaque image, la représentation du geste à étudier est réalisée par l’accumulation des états du modèle estimé dans chaque image.
Recherche dans une base de modèles 3D
La recherche dans une base de modèles 3D dans le cadre de l’analyse de la langue des Signes concerne le plus souvent la reconnaissance de la configuration de la main. En effet, ce paramètre est très délicat à identifier directement à partir de mesures 2D. La recherche est le plus souvent basée sur des méthodes de reconnaissance par l’apparence. C’est le cas dans [11] où les auteurs utilisent des techniques de reconnaissance par l’apparence basées sur une analyse en composantes principales pour identifier la configuration et l’orientation 3D d’une main. La configuration reconnue est décrite à partir de 6 paramètres (le modèle articulaire de la main comprend 27 degrés de liberté) : un paramètre d’extension pour chaque doigt (un réel entre 0 et 1) et un paramètre décrivant l’écartement des doigts auxquels viennent s’ajouter trois paramètres d’orientation de la main. Dans [32], les auteurs utilisent l’analyse en composantes principales associée à d’autres mesures de similarité (histogramme d’orientation des contours, détection des doigts et distance de Chamfer) pour retrouver une configuration manuelle dans une base de données contenant des images de synthèse de l’ensemble des configurations possibles de la main.
Cette classe de méthodes fournit une solution intéressante pour le cas où une configuration doit être identifiée de façon simple et rapide parmi un ensemble défini a priori de configurations possibles. Elle se heurte en revanche au problème de la définition de l’ensemble des configurations possibles, pour lequel aucun consensus n’a été dégagé à l’heure actuelle.
48
Reconstruction par ajustement de modèles
L’approche par ajustement de modèle pose le problème de la reconstruction d’un objet 3D comme celui de l’estimation d’un vecteur de paramètres pour cet objet. On utilise un modèle générique de l’objet à reconstruire qui est ensuite déformé en fonction du vecteur de paramètres estimé et rétroprojeté sur l’image de façon à évaluer la différence entre la configuration estimée projetée et celle réelle de l’objet dans l’image.
Cette approche a été utilisée pour l’étude de la langue des Signes par P. Horain pour l’estimation de la posture du buste et des bras dans leur ensemble [13][24], ainsi que celle de la main [12]. La méthode est basée sur un modèle 3D paramétré par les valeurs articulaires et intégrant des contraintes sur les valeurs limites des articulations et leurs relations. La méthode a été testée pour la reconstruction du buste et des bras sur un corpus réduit de signes standards de la langue des Signes française, et pour la main sur un certain nombre de geste élémentaires, mais les résultats obtenus sur des gestes isolés ne permettent pas d’évaluer la pertinence de cette approche pour la construction de séquences et de configurations plus complexes telles que celles qui apparaissent dans les corpus de langue des Signes naturelle.
En tout état de cause, l’utilisation du recalage de modèles pour l’analyse des geses de la langue des Signes se heurte au problème de la complexité des gestes produits qui nécessite une modélisation fine de la structure à reconstruire et implique de très nombreux paramètres à estimer. Une main par exemple comporte en réalité 27 degrés de liberté pour lesquels il faut déterminer les plages de valeurs possibles et les relations entre ces valeurs. La reconstruction de la main nécessite en outre des images de résolution relativement élevée qui sont incompatibles avec les corpus filmés en plan américain ainsi que la connaissance d’un certain nombre de paramètres du dispositif d’acquisition.
3.2.2 Interprétation d’énoncés complexes
En sus des problèmes liés à l’analyse et à la reconnaissance des gestes, l’interprétation d’énoncés plus complexes de la langue des Signes nécéssite la prise en compte de connaissances supplémentaires sur la grammaire et la syntaxe de cette langue. À l’heure actuelle les travaux sur ce domaine sont peu nombreux et l’on distingue, indépendamment du capteur utilisé, trois niveaux de représentation de telles connaissances : 1. des connaissances sur la structure des énoncés et l’ordre d’apparition des signes ; 2. des connaissances sur certaines structures grammaticales particulières ; 3. les modèles linguistiques de haut niveau de la langues des Signes. 3.2.3 Connaissances sur la structure des énoncés
Cette approche consiste à faciliter la reconnaissance des signes en ajoutant au système des connaissances concernant la structure temporelle des énoncés, c’est­à­dire l’ordre dans lequel les signes sont émis. Une première approche, utilisée par T. Starner et A. Pentland [30], consiste à contraindre a priori la structure des énoncés à reconnaître ce qui permet de supprimer les erreurs d’insertion et de suppression lors de la reconnaissance de signes continus. Toutefois, si elle est intéressante pour l’évaluation en laboratoire des méthode de reconnaissance de gestes, cette approche présente un intérêt limité pour une application réelle.
Une seconde façon d’introduire des connaissances sur la structure des énoncés à reconnaître consiste à introduire des connaissances statistiques sur l’utilisation des signes du lexique. On parle alors de grammaires stochastiques. Une application de cette approche est présentée dans [15] dans 49
le cadre de la reconnaissance mono­vue de signes continus. Le modèle bigramme présenté par ces auteurs permet d’introduire des connaissances syntaxiques. et sémantiques par la donnée de probabilités d’apparition d’un signe en fonction de son prédécesseur. Une grammaire stochastique du même type est également employée dans [22] dans le cadre de la reconnaissance de la langue des Signes taïwanaise à l’aide de gants numériques. il s’agit là d’une méthode couramment utilisée en traitement du langage naturel oral.
Prise en compte de structures grammaticales spatialisées
Les modèles grammaticaux que nous avons présentés jusqu’ici ne considéraient que la traduction des signes standards de la langue des Signes dans le cadre de la reconnaissance continue de ces signes, mais ne permettent pas de prendre en compte l’aspect spatial de la réalisation à interpréter. Les deux travaux que nous allons présenter maintenant constituent une première approche pour la représentation de ces structures des langues des Signes. Dans [14], les auteurs proposent une méthode pour prendre en compte les verbes directionnels dans un système de reconnaissance de la langue des Signes japonaise. Cette méthode repose sur une représentation des connaissances associées aux signes sur trois niveaux : – le niveau des paramètres spatiaux où sont décrites les relations spatiales entre le verbe directionnel et les signes qu’il relie ; – un niveau sémantique qui décrit la nature des concepts qui peuvent être rattachés à chaque protagoniste de l’action ; – un niveau grammatical définissant le rôle des différents protagonistes de l’action (sujet, objet) en fonction de l’orientation du mouvement. Les connaissances grammaticales sont attachées à chaque signe reconnu ce qui permet de distinguer ceux susceptibles d’être utilisés comme verbes directionnels. Les informations sémantiques attachées à la description de ce verbe permettent ensuite de vérifier les catégories sémantiques des protagonistes de l’action et de sélectionner, parmi les signes reconnus ceux correspondant à ces catégories. L’interprétation des verbes directionnels repose sur la reconnaissance préalable des signes qui permet de distinguer les verbes directionnels potentiels. La méthode de reconnaissance utilisée est décrite dans [28]. Elle est basée sur l’utilisation de gants numériques.
Le système Argo développé par A. Braffort [5] est à notre connaissance le premier système de traduction automatique de la langue des Signes à prendre en compte la composante iconique de cette langue au sens où elle permet de traduire des énoncés faisant appel à des classificateurs. Cependant le système ne prend en entrée que les informations produites par un unique gant digital. L’interprétation se base sur la distinction entre les signes standards qui peuvent être interprétés directement et les signes variables (les verbes directionnels et les classificateurs). Le système de reconnaissance est basé sur des modèles de Markov cachés. La mise en œuvre de ces mécanismes repose néanmoins en large partie sur le fait que le lexique choisi limite grandement la combinatoire des énoncés possibles rendant en même temps la description des connaissances associées à chaque entité dans chaque énoncé possible.
La suite de ces travaux [3] a amené les auteurs à élargir le champ de leur représentation de l’espace de signation en prenant en compte les deux mains et leur synchronisation. Modélisation linguistique de la langue des Signes L'équipe TCI de l'IRIT a mené des recherches concernant l’intégration d’un modèle linguistique plus complet dans un système d’analyse d’images [19][8].
50
Le modèle proposé s’appuie sur les travaux du linguiste français, C. Cuxac [7] et met en oeuvre un modèle de l’espace de signation8 qui sert de support à la production de l’énoncé [21]. Ce modèle est associé à un second modèle qui décrit le comportement des différents composants du corps du signeur (mains, visage, buste) lorsque ceux­ci sont utilisés pour construire l’espace de signation [20]. Ce modèle est utilisé pour prédire l’état des composants, décrits en termes visuels afin que celui ci puisse être vérifié à l’aide d’outils d’analyse d’images (fig. 1.2)
FIG. 1.2: Architecture globale d’un système d'analyse d’énoncés de la LS baséé sur l’utilisation d’un modèle linguiste.
Cette approche par cycles de prédiction / vérification permet de baser l’analyse sur des indices visuels simples à vérifier et d’éviter la reconstruction exhaustive des gestes. Elle est donc particulièrement bien adaptée à une exploitation en temps réel. Les deux modèles ont été implémenté et la faisabilité de cette démarche a été illustrée sur un exemple. Elle demande cependant à être systématisée. D’autre part des outils intéressants de visualisation ont pu être construit à partir du modèle d’espace de signation. Ils peuvent intervenir pour la conception d’énoncés en langue des signes.
3.2.4 Compression et transmission de séquences d’images en
langue des Signes
La transmission de séquences vidéo de personnes s’exprimant en langue des Signes via des réseaux informatiques ou téléphoniques nécessite des techniques de compression adaptative du flux vidéo où le but est de sauvegarder l’information significative (le signeur) qui sera donc moins compressée au détriment des éléments les moins significatifs de l’image. L’analyse d’images a alors pour but de séparer ces deux éléments avec des contraintes très importantes en termes de temps de 8L’espace entourant le signeur où sont produits les signes.
51
calcul.
La recherche de techniques de compression vidéo permettant la transmission de telles données dans des applications de type visiophone a été l’un des premiers champs de recherche reliant langue des Signes et traitement d’image. La généralisation des réseaux haut débit avait rendu ces besoins moins impérieux, mais l’intégration de caméras dans les téléphones portables ainsi que le développement des messages vidéo a réactivé cette problématique. Les techniques de compression utilisées sont similaires à celles utilisées dans les techniques de compression par objets. Il s’agit essentiellement de détecter dans chaque image de la séquence les régions d’intérêt de façon à adapter le taux de compression en conséquence. Il s’agit généralement de techniques de segmentation par la couleur ou par la texture afin de distinguer le locuteur ou la peau du fond [29] ou de segmenter les régions de mouvement homogènes. Enfin le dernier champ d’application du traitement d’images dans ce domaine concerne le suivi de primitives telles que le visage ou les main [1].
Bibliographie
[1]
A Jacquin A. Eleftheriadis. Automatic face location and tracking for model­assistated coding of video teleconferencing sequences at low bitrate. signal processing : Image Communication, 7(3) :231–248, 1995.
[2]
R. Venkatesh Babu and K. R. Ramakrishnan. Compressed domain human motion recognition using motion history information. In IEEE International Conference on Image Processing (ICIP 2003), volume 3, pages 321–324, Barcelona, September 14­18 2003.
[3]
B. Bossard, A. Braffort, and M. Jardino. Some issues in sign language processing. In 5 International Workshop On Gesture And Sign Language Based Human­Computer Interaction, Genova, Italy, April 15­17 2003.
[4]
R. Bowden, D. Windridge, T. Kadir, A. Zisserman, and M. Brady. A linguistic feature vector for the visual interpretation of sign language. In Proc. 8 European Conference on Computer Vision, ECCV04, volume 1 of Lecture Notes in Computer Science, pages 391–401. Springer­Verlag, 2004.
[5]
A. Braffort. Argo : An architecture for sign language recognition and interpretation. In P. Harling and al., editors, Progress in Gestual Interaction, pages 17–30. Springer, 1996.
[6]
A.E. Marble C. Charayaphan. Image processing system for interpreting motion in american sign language. journal of Biomedical Engeneering, 14 :419–425, September 1992.
[7]
C. Cuxac. La langue des Signes française. Les voies de l’iconicité. ISBN 2­7080­0952­4. Faits de langue, Ophrys, Paris, 2000.
[8]
P. Dalle and B. Lenseigne. Vision­based sign language processing using a predictive approach ans linguistic knowledge. In IAPR conference on Machine vision and application (MVA 2005), Tsukuba Science City, May 2005.
[9]
J. W. Davis. Recognizing movement using motion histograms. Technical report, M.I.T Media Laboratory Perceptual Computing Section Technical Report 487, April 1998.
[10] J. W. Davis G. R. Bradsky. Motion segmentation and pose recognition with motion history gradients. IEEE Workshop on Aplications of Computer Vision, December 2000.
[11] K.­F. Kraiss H. Fillbrandt, S. Akyol. Extraction of 3d hand shape and posture from image sequences for sign language recognition. In D. Azada, editor, IEEE International Workshop on Analysis and Modeling of Faces and Gestures (AMFG), pages 181–186, Nice, France, october 17 2003. IEEE Computer Society.
52
[12] P. Horain H. Ouhaddi. Hand tracking by 3d model registration. In G. subsol, editor, Actes du Colloque Scientifique International Réalité virtuelle et prototypage, pages 51–59, Laval, France, 3­4 juin 1999.
[13] P.Horain H. Ouhaddi. Conception, ajustement et recalage d’un modèle 3d articulé pour le suivi de la main dans des séquences d’images. Institut National des Telecommunications, Département Signal et Image, Rapport Technique, 1998.
[14] M. Takeuchi H. Sagawa. A method for analysing spatial relationships between words in sign language recognition. In Gesture Workshop, volume 2915 of Lecture Notes in Computer Science, pages 197–209, Gif­sur­Yvette, France, April 1999. Springer.
[15] H. Hienz, B. Bauer, and K.F. Kraiss. Hmm­based continuous sign language recognition using stochastic grammars. In Springer : Berlin, editor, Lecture Notes in Artificial Intelligence : Procs 3 Gesture Workshop’99 on Gesture and Sign­Language in Human­Computer Interaction, pages 165–184, Gif­sur­Yvette, France, march 17­19 1999. A. Braffort, R. Gherbi , S. Gibet , J. Richardson, D. Teil.
[16] H. Hienz, K. Grobel, and G. Offner. Automatic estimation of body regions from video images. International Gesture Worshop, Bielefeld, Allemagne, pages 135–145, 1998.
[17] A. Bobick J. W. Davis. The representation and recognition of human movement using temporal templates. Proceedings on Computet Vision and Pattern Recognition, pages 928–934, June 1997.
[18] G. Bradsky J. W. Davis. Real­time motiontemplate gradiants using intel cvlib. IEEE ICCV Workshop on Frame­rate Vision, September 1999.
[19] B. Lenseigne. Intégration de connaissances linguistiques dans un système de vision. Application à l’étude de la langue des Signes. PhD thesis, Université Paul Sabatier, Toulouse 3, décembre 2004.
[20] B. Lenseigne and P. Dalle. A computational model for sign language grammar. In 2 Language and technology Conference, page (to be published), Poznan Poland, April 21­23 2005.
[21] B. Lenseigne and P. Dalle. Using signing space as a representation for sign language processing. In 6 International Workshop On Gesture And Sign Language Based Human­Computer Interaction, page (to be published), Île de Berder, France, May 18­20 2005.
[22] R.H. Liang and M. Ouhyoung. A sign language recognition system using hidden markov model and context sensitive search. In Proceedings of the ACM Symposium on Virtual Reality Software and Technology, pages 59–66, Hongkong, June 1996.
[23] N. Ahuja M. H. Yang. Recognizing hand gestures using motion trajectories. Proceedings of the 1999 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, June 1999.
[24] M. Bomb P. Horain. 3d model based gesture acquisition using a single camera. In Proceedings of the IEEE Workshop on Applications of Computer Vision (WACV 2002), pages 158–162, Orlando, Florida (USA), December 3­4 2002.
[25] K. R. Ramakrishnan R. Venkatesh Babu. Recognition of human actions using motion history information extracted from the compressed video. Image and Vision Computing, 22(8) :597–607, August 2004.
[26] K. R. Ramakrishnan R. Venkatesh Babu, B. Anantharaman and S. H. Srinivasan. Compressed domain action classification using hmm. In IEEE Workshop on Content­based Access of Image and Video Libraries (CBAIVL­2001), pages 44–49, Kauai, Hawaii USA, December 14 2001.
[27] S. Kawasaki S. Tamura. Recognition of sign language motion images. Pattern Recognition, 21(4) :343–353, 1988.
[28]
H. Sagawa, M. Takeuchi, and M. Ohki. Methods to describe and recognize sign language 53
based on gesture components represented by symbols and numerical values. Knowledge­Based systems, 10(5) :287–294, March 1998.
[29] R. Schumeyer and K. Barner. Color­based content coding with applications to sign language video communications. EIEEE Trans. Circ. Sys. Video Tech, submitted.
[30] T. Starner and A. Pentland. Real­time american sign language recognition from video using hidden markov models. Technical Report TR­375, M.I.T Media Laboratory Perceptual Computing Section, 1995.
[31] T. Starner, J. Weaver, and A. Pentland. Real­time american sign language recognition using desk and wearable computer based video. IEEE Transactions on Pattern Analysis and Machine Intelligence, 20(12) :1371–1375, decembre 1998.
[32] S. Sclaroff V. Athitsos. An appearance­based framework for 3d hand shape classification and camera viewpoint estimation. In 5 IEEE International Conference on Automatic Face and Gesture Recognition, Washinton D.C., May 20 ­ 21 2002.
54
3.3 Formes graphiques
3.3.1 Introduction
Les langues des signes (LS), langues naturelles des sourds, n’ont jamais développé de forme écrite, au sens du moins où l’on parle de forme écrite pour les langues dites vocales (langues de modalité audio­orale, désormais LV). Pour les sourds, la seule langue écrite accessible est de ce fait celle de la LV du pays dans lequel ils vivent —le français écrit pour les sourds de France. Or ces derniers sont aujourd’hui, pour une écrasante majorité d’entre eux, en grande difficulté avec cette forme écrite nationale. À cet égard, le seul chiffre actuellement disponible, donné par le Rapport Gillot [Rapport Gillot 98], indique 80 % d’illettrés parmi les sourds. Ce chiffre catastrophique, qu’il serait néanmoins urgent d’expliciter9 et d’actualiser, s’explique largement par les méthodes d’enseignement du français écrit les plus généralement appliquées en France depuis le Congrès de Milan (1880)10. Ces méthodes, dites « oralistes », sont fondées sur un enseignement en français oral, dont la maîtrise est posée comme condition sine qua non de l’accès à l’écrit, et l’absence de prise en compte de la langue naturelle, la Langue des Signes Française (LSF)11. Du fait de ces méthodes éducatives et du vécu de contrainte et d’échec qui les accompagne, les difficultés des sourds à l’écrit se doublent d’une relation douloureuse et complexe au français écrit et à l’écrit en général12.
C’est dans ce contexte que nous avons ouvert la problématique suivante : dans quelle mesure aujourd’hui en France les fonctions de l’écrit (fonctions sociales, cognitives, culturelles) sont­elles remplies pour les sourds dont la LSF est la langue principale et qui sont citoyens d’une société largement fondée sur l’écrit ? Qu’est­ce qui, le cas échéant, remplit ou, dans le cas contraire, pourrait remplir ces diverses fonctions ? Dans ce cadre général, une question importante est celle des fonctions de l’écrit que peuvent assumer, pour une langue visuo­gestuelle, la vidéo et les nouvelles technologies.
Aborder cette problématique des formes d’écrit pour la LSF et pour les sourds nous semblait d’autant plus urgent que la situation des sourds et de la LSF a évolué ces dernières années dans le sens d’une meilleure reconnaissance sociale de la LSF et d’une progressive reconnaissance institutionnelle du rôle qu’elle doit jouer dans l’éducation des enfants sourds. Mettant fin à plus d’un siècle d’interdiction de la LSF dans les écoles, la loi de 1991 (dite « Loi Fabius ») avait donné aux parents le droit de choisir pour leurs enfants entre le modèle classique d’éducation, de type oraliste, et une éducation fondée sur un bilinguisme LSF­français. La récente loi du 11 février 2005 « pour l'égalité des droits et des chances, la participation et la citoyenneté des personnes handicapées », en discussion au Parlement au moment du lancement du projet Usages de l’Internet, vient de reconnaître la LSF comme langue à part entière et d’en recommander la diffusion et l’enseignement aux enfants sourds. Comment dès lors envisager la généralisation d’une éducation en LS comme langue première des enfants sourds —ce que cette loi laisse présager sur un assez court terme—, si cela n’est pas précédé d’une part d’une réflexion sur ce qui peut tenir lieu d’écrit pour les locuteurs de cette langue et d’autre part sur les besoins et la possibilité d’écrire la LSF ? Or les sourds n’avaient jamais été consultés sur ces questions, qui les concernent pourtant au premier chef. Ces divers éléments nous ont conduits à l’élaboration d’une vaste enquête qualitative auprès des sourds, dont nous exposons ci­dessous les objectifs précis et le cadre méthodologique. Cette 9 Le rapport n’indique pas comment on a obtenu ce chiffre : qui a été consulté et comment ? Quelle définition donne­t­on de « illettré » ? A­t­on distingué production et lecture ?
10 Lors de ce congrès, tenu à Milan, a été décrétée l’interdiction de la LSF dans les écoles.
11 Voir à ce sujet [Courtin 2004] et [Garcia 2005 (a)].
12 L’enquête présentée ci­dessous a permis de préciser la nature de ce rapport des sourds au français écrit (cf. infra). Voir [Garcia 2005 (b)]
55
enquête a été menée dans le cadre conjoint de deux projets : le présent projet national Usages de l’Internet et un projet local (UMR 7023, Université Paris 8) sur les formes graphiques de la LSF subventionné par la Délégation Générale à la Langue Française et aux langues de France (DGLFLF, ministère de la Culture et de la Communication)13. La réalisation de cette consultation qualitative a permis la mise en place ultérieure du programme RIAM LS Script, programme pluridisciplinaire à 2 ans (2005­2007), dont l’objectif est l’élaboration d’un formalisme graphique pour la LSF14.
3.3.1.1
Méthodologie de l’enquête
Nos objectifs étaient les suivants. Il s’agissait de :
■
comprendre les représentations que les sourds, aujourd’hui en France, ont de l’écriture en général et du français écrit en particulier ;
■
comprendre quels sont leurs usages de l’écrit et leurs pratiques graphiques effectives, ceci incluant tout ce qui correspond à une forme d’inscription sur un support et, notamment, leurs usages de la vidéo et des nouvelles technologies ;
évaluer avec eux leurs attentes sur ce sujet des formes graphiques et, en particulier, leur perception d’une formalisation graphique éventuelle de leur langue.
La méthode des entretiens individuels qualitatifs de type semi­directif était la seule adaptée à une telle investigation en profondeur des représentations et des attentes. Nous avons réalisé 31 entretiens individuels de deux heures. Visant à rendre compte au mieux de la diversité en termes de situation géographique, de profession, d’âge et de parcours personnel, nous avons toutefois choisi, pour les raisons indiquées ci­dessus, de privilégier les milieux de l’enseignement, enseignement de et en LSF. Pour l’enseignement en milieu scolaire, notre démarche étant prospective, nous avons en outre mis l’accent sur les structures d’éducation bilingue (1% des structures scolaires accueillant aujourd’hui les sourds).
Les personnes rencontrées sont des adultes sourds de 24 à 59 ans, dont la LSF est la langue principale. Pour les raisons historiques indiquées dans le point 1., tous à l’exception d’un seul, dont la scolarité a été entièrement bilingue depuis le Cours Préparatoire, ont suivi une éducation de type oraliste. À leurs propres dires durant l’entretien, plus de la moitié d’entre eux sont en très grande difficulté en français écrit, 6 sont à l’aise dans cette langue (2 parfaitement), 9 en ont une maîtrise moyenne (obligation de faire appel à un tiers pour les écrits les plus formels).
Leur répartition géographique est la suivante : 12 de Paris, 10 de Toulouse, 3 de Poitiers, 2 de Bayonne, 1 de Bordeaux, 1 de Champ sur Marne, 1 de Grenoble, 1 de Suresnes. Professionnellement, ils se répartissent comme suit :
■
4 enseignants de LSF en association
■
2 enseignants de LSF en milieu scolaire
■
4 enseignants en LSF en milieu scolaire
■
4 intervenants universitaires
■
6 étudiants
■
4 comédiens et metteurs en scène
■
1 chercheur
■
1 collégien
13 Voir [Garcia 2005 (b)].
14 Ce programme associe 5 partenaires : SFL Paris 8, IRIT Toulouse 3, LIMSI Orsay, IRIS Toulouse et WebSourd Toulouse (voir http://lsscript.limsi.fr).
56
■
1 lycéen
■
4 de professions autres que l’enseignement ou le théâtre
L’enquête a été réalisée par 5 enquêteurs. Ceux­ci, faute de sourds actuellement formés aux méthodes de l’enquête qualitative, étaient entendants, accompagnés d’un interprète LSF/français. L’ensemble des entretiens a été intégralement filmé puis retranscrit par des professionnels en français écrit.
Le programme Usages de l’Internet a spécifiquement permis la réalisation des 10 entretiens de Toulouse et, notablement, auprès d’enseignants des classes LSF de l’institut IRIS. Les résultats présentés ici correspondent toutefois aux données collectées dans l’ensemble de l’enquête et sont centrés sur les objectifs spécifiques du programme : les usages et représentations liés à la vidéo et aux nouvelles technologies.
3.3.2 La vidéo, les NTIC et les formes graphiques
Comme il en a été pour le fax et le minitel, les nouvelles technologies dans leur ensemble sont très largement utilisées par les sourds —pour autant toutefois que leurs moyens le leur permettent15— simplement parce qu’elles remplissent pour eux l’une des fonctions traditionnelles de l’écrit, celle qui, pour les entendants a en partie été supplantée par le téléphone : la possibilité de communiquer à distance (le minitel avait été appelé « le téléphone des sourds »).
La problématique en jeu dans ce rapport à la vidéo et aux nouvelles technologies est d’évaluer dans quelle mesure elles sont à même de remplir les diverses fonctionnalités individuelles et sociales remplies par l’écrit et ceci en lien avec celles que remplit —ou ne peut remplir— le français écrit.
Deux problématiques sont en effet connexes à celle du rôle que peuvent jouer les NTIC : ■
celle de la possibilité pour les sourds d’accéder de manière satisfaisante et à assez court terme au français écrit, ceci étant la condition à laquelle on peut parler de complémentarité ;
■
celle de l’adéquation (et de l’acceptation) du français écrit comme forme d’écrit pour les locuteurs de LSF (c’est­à­dire celle de son caractère ou non satisfaisant pour les sourds) et celle de ses incidences possibles sur la langue (notamment dans l’enseignement de la LSF aux adultes entendants, où le recours au français écrit peut inciter à la production de « français signé »16).
Il importe de distinguer entre les technologies requérant le recours au français écrit ou l’usage de la vidéo.
3.3.2.1
Les NTIC fondées sur l’usage d’une forme écrite : une fonction de
désinhibition par rapport au français écrit
Les technologies concernées sont les suivantes : le minitel, le fax, le traitement de texte, les mails, la messagerie instantanée.
Pour quelques­uns des sourds rencontrés, souvent plus âgés mais surtout très en difficulté par rapport au français écrit et restés dans un rapport très conflictuel à l’écrit considéré comme une « chose d’entendant », ces technologies ne constituent pas un apport notable : ils les réduisent à un utilitaire, facilitant, au mieux, les prises de rendez­vous. Le SMS, en particulier, reste associé au téléphone et, par là, à des pratiques d’entendants qui n’appartiennent pas à leur culture. Ces personnes soulignent en outre que le SMS en particulier risque même, par le type d’usage du 15 Cette question des moyens n’est pas anodine : outre l’importance du taux de chômage parmi les sourds, la majorité de ceux qui accèdent à un emploi sont peu ou pas qualifiés et, de ce fait, faiblement rémunérés.
16 On appelle « français signé » le continuum de productions interlinguistiques qui consistent à utiliser des signes de la LSF en les ordonnant selon la syntaxe du français.
57
français qu’il suscite, d’entraîner une régression qualitative du français écrit chez les sourds.
Pour la grande majorité cependant, ces technologies ont eu un effet libérateur sur leur utilisation du français écrit, à divers titres : 1. Le traitement de texte : une mise à distance de la production
1. il permet d’effacer les traces de sa propre difficulté de production, de ne plus avoir à faire face à ses propres ratures et brouillons.
2. le clavier et l’écriture typographique induisent un dépassement de l’écriture personnelle (manuscrite) par la transformation immédiate de la production en un texte « propre ». 3. Les correcteurs automatiques sont perçus comme jouant le rôle du contrôle dont on ne dispose plus une fois que l’on est sorti du cadre scolaire 2. Les techniques d’échange (Minitel et fax, puis mails et SMS) : un écrit fonctionnalisé et dédramatisé.
1. Un écrit en contexte, doté de sens : écrire pour quelque chose et pour quelqu’un, avoir à répondre. Pour bon nombre des personnes rencontrées, cette dimension fonctionnelle de l’écrit est une vraie découverte. Elle s’oppose en effet à l’aspect mécanique et non contextualisé que l’écrit avait toujours revêtu dans le cadre scolaire, où prédominaient les exercices de transposition mécanique de l’oral et la pratique du par cœur. 2. Un écrit moins soumis à la norme et aux conventions formelles « … ça revient à dire qu’aujourd’hui on utilise la forme écrite au quotidien, tous les jours. On commence à oublier la forme de l’expression écrite. Moi je ne suis plus en train de me dire ‘qu’est­ce que je veux dire ? Quelle est la forme, l’expression ?’ maintenant de moins en moins je me pose la question, c’est ‘je veux dire ça’ et je le dis (…) voilà, ça libère. » (enseignant en LSF)
3. Le SMS : un outil valorisant la transmission de sens à moindre coût et légitimant le recours à un français télégraphique ou simplifié, voire ludique, ceci valant, en outre, aussi bien pour les entendants que pour les sourds.
4. Le minitel et la messagerie instantanée : l’effacement des effets angoissants du différé
1. L’interactivité immédiate fait qu’on sait qu’on pourra revenir sur sa production dès la réplique suivante, à la manière dont l’oral permet l’ajustement permanent de la production en cours.
2. La production est perçue comme éphémère, aussitôt effacée, et non comme une trace (à la différence du mail, dont la réponse peut se faire attendre et n’annule donc pas l’angoisse du regard évaluateur de l’autre). 3.3.3 Les NTIC visuelles: une nouvelle forme d’écrit pour la
LSF ?
On considère ici les NTIC utilisant la vidéo (analogique ou numérique), en particulier les mails ayant un fichier vidéo attaché, les systèmes de messagerie instantanée ou les systèmes de visio­conférence.
3.3.3.1
Le degré d’intégration des NTIC visuelles en fonction d’écrit dans
les faits
Pour la plupart et notamment les enseignants des structures bilingues, la vidéo est d’ores et déjà intégrée comme étant « la trace » de la LS. Pour plusieurs d’entre eux, elle est même « la forme d’écrit de la LSF », du moins sa forme actuellement la plus appropriée.
58
Elle a un usage de fait dans l’enseignement, en place de support écrit, au moins pour ce qui concerne les structures éducatives bilingues :
■
pour l’entraînement à la production : se voir, se corriger, revenir en arrière, garder la trace de ses productions précédentes ;
■
comme support pédagogique, notamment pour l’illustration de la diversité des registres ; ■
comme support pour évaluation ; ■
voire comme support de la leçon du jour (équivalent du cahier).
Le recours aux technologies de communication utilisant la webcam comme les mails vidéo et la messagerie instantanée (en LSF) est de plus en plus répandu (il semble avant tout fonction des ressources). Plusieurs éléments cependant montrent que ces usages diffèrent de ceux d’un écrit au sens classique :
■
on constate une prédilection pour la messagerie instantanée (cf. supra, l’effet de direct, l’annulation du différé) ;
■
la tendance à conserver les mails vidéo comme on le ferait d’un écrit n’apparaît que chez ceux qui sont en très grande difficulté avec le français écrit ;
La pratique de préparation du message avant envoi, à la manière dont on prépare un écrit (brouillon) ne semble pas très répandue : elle est soit le fait de ceux pour qui le français écrit est un réel obstacle, soit une démarche délibérée pour encourager cette pratique chez les autres sourds.
3.3.3.2
Au-delà des pratiques effectives actuelles, la vidéo (notamment
numérique) est considérée comme étant de fait à même de remplir
plusieurs des fonctions de l’écrit :
■
La préservation, l’archivage. On souligne toutefois le problème actuel d’une absence de gestion centralisée de cet archivage, de mutualisation des ressources (notamment pour l’usage pédagogique) et de diffusion.
■
Un support permettant de prendre un relatif recul sur la langue et sur ses propres productions (une dimension cependant limitée, cf. infra, .3)
■
Un support pédagogique (enseignement de et en LSF) : feed­back sur la production et autocorrection ; traces de la progression (fonction du cahier) ; support de leçons (fonction de manuel) ; montrer la diversité des styles et des registres ; support pour l’évaluation (« composition de LSF »)
■
Un support pour la mémorisation (notamment pour les comédiens)
■
Un support pour la « grammatisation » de la langue au sens de Sylvain Auroux17 : établissement et fixation de discours de référence (la norme) ; construction de dictionnaires et, éventuellement, de grammaires ; moyen d’enregistrement des néologismes.
■
Un moyen de diffusion de la langue
■
Un moyen de diffusion des (et d’accès aux) connaissances.
■
Pour autant, pour les personnes rencontrées, la vidéo présente un certain nombre de limites, dont certaines ne sont pas dépassables, au moins à court terme, par les progrès technologiques.
3.3.3.3
Les limites de la vidéo
Une limite est invoquée de manière récurrente, même si elle est le plus souvent perçue 17 [Auroux 1994]
59
comme temporaire —la lourdeur de manipulation, à différents sens du terme :
■
l’encombrement du matériel à transporter avec soi ;
■
l’impossibilité actuelle de sélectionner des données et la nécessité corollaire de manipuler l’ensemble des données ■
les lourdeurs de manipulation : retours en arrière, montage…
Certains soulignent que le support vidéo ne sera jamais comparable à de l’écrit en termes statutaires, parce qu’il ne relève pas du graphique au sens traditionnel et que l’écriture, socio­
culturellement, est du « linéaire ».
De manière plus récurrente, on refuse de considérer un discours vidéo comme relevant de l’écrit du fait de la présence physique visible du locuteur, toujours nécessairement un locuteur particulier. De ce fait, la vidéo reste pour les personnes rencontrées du côté de l’oral, la présence d’une personne (a fortiori lorsqu’il s’agit de soi­même) ne permettant pas une prise de recul comparable à celle qu’autorise l’écrit. Une limite qui semble absolue est que, quels que soient les progrès techniques et, par ailleurs, le degré de maîtrise en français écrit, le support vidéo ne peut pas jouer le rôle, assumé par l’écrit, de support à l’élaboration cognitive d’une réflexion, dans la mesure où celle­ci est menée en LSF (ce qui est le cas pour l’ensemble des personnes rencontrées) : ■
d’une part, parce que la modalité de la vidéo est celle du défilement temporel, à l’opposé de l’appréhension simultanée (de ce qui est déjà inscrit et de ce qui est en cours d’inscription) qui est caractéristique de l’écrit (et au fondement de ce que Jack Goody a appelé « la raison graphique » ;
■
d’autre part parce que le temps même requis par la production d’écrit est un soutien à l’élaboration cognitive, alors que le temps où l’on se filme est un temps passif.
À ce double titre, les enseignants notamment considèrent la vidéo et un écrit spécifique de la LSF au sens strict comme devant être complémentaires et non comme valant l’un pour l’autre.
D’une manière plus circonscrite, sont évoqués les limites ou questionnements suivants :
Pour les étudiants, le recours, comme support de prise de notes pendant les cours, aux techniques de la vidéo, est considéré comme peu satisfaisant, si perfectionnées que ces techniques (possibilités envisagées de moyen de sélectionner des données ou de réaliser des condensés vidéo):
■
soit on l’envisage comme une démarche passive ne permettant pas l’implication cognitive active à laquelle astreint une prise de notes écrite ;
■
soit on craint que ceci ne représente malgré tout un surcroît de travail par rapport à une prise de notes par l’écrit du français.
La vidéo n’est pas non plus un duplicata complètement satisfaisant de l’oral LSF : certes, c’est mieux que du français écrit mais ce n’est « que » du « 2D » (face aux 3D de la LS).
Plusieurs voient dans l’expansion des NTIC visuelles le risque d’accroître leur absence de motivation pour le français écrit et ce quel que soit leur degré de maîtrise de cette langue.
3.3.3.4
Une problématique spécifique émergente : les incidences de la
caméra sur le discours en LS
On évoquera simplement ici une problématique spécifique, qui devrait faire l’objet d’investigations linguistiques plus poussées. Produire un discours en LS devant une caméra (comme cela se pratique notamment dans les structures éducatives bilingues pour l’évaluation) génère deux particularités sémiotiques qui 60
rapprochent cette situation de celle qui caractérise l’écrit : 1) l’inscription sur un support fixe (permanent) et 2) l’absence d’interlocuteur physiquement présent : au destinataire se substitue l’œil de la caméra. Même si, comme le terme d’ « œil » l’indique, la présence de la caméra diffère d’une totale absence d’interlocuteur, ceci signifie l’absence de tout feed­back pendant la production (sauf à placer quelqu’un derrière la caméra, ce qui se pratique dans la constitution des corpus dits « spontanés »). On a souligné plus haut (noté par les sourds rencontrés eux­mêmes) ce qui, en revanche, constitue une différence de taille : la présence physique du locuteur dans ce qui est « inscrit ».
La vidéo et les NTIC visuelles peuvent, comme l’écrit lui­même, se prêter à des fonctionnalités plus ou moins formelles :
■
celles qui s’apparentent à des échanges téléphoniques, à des courriers personnels ou, plus largement, à ce champ d’expression et de communication nouveau ouvert pour tous par les mails et la messagerie instantanée, informel et encore peu normé, à mi­chemin entre l’écrit et l’oral : si, pour ce qu’il en est des mails vidéo, il n’y a plus de face­à­face, on peut dire qu’il n’est que légèrement différé. Dans ces cas­là, même s’il n’y a personne, de fait, derrière la caméra, on s’adresse à une personne précise (ou à un petit groupe, identifié). Même dans ces cadres­là, toutefois, un enseignant au moins (l’un de ceux qui conduit l’expérience la plus poussée d’utilisation de la vidéo dans l’enseignement de la LSF) souligne le caractère spécifique de la situation où se trouve le signeur qui veut envoyer un mail vidéo, et en quoi cette spécificité situationnelle a des implications sur la construction du discours :
■
l’absence d’interlocuteur et donc de feed­back entraîne la nécessité d’organiser le discours, de le préparer (de le refaire plusieurs fois, hors caméra ou non), de manière à produire un tout cohérent, compréhensible hors situation ; les hésitations, autocorrections, ajustements progressifs, caractéristiques de l’oral sont proscrits ;
■
la nécessité, dans le cas des webcam, parce qu’il faut signer assis, de minorer l’amplitude de ses gestes.
Mais la LSF filmée peut aussi être utilisée pour des fonctionnalités qui restent le domaine réservé de l’écrit et qui fondent à proprement parler la « scripturarité » et, notamment : les productions support d’évaluation (et éventuellement destinées à être dans un second temps traduites en français écrit) et les traductions au sens plein du terme : traduction en LSF de ce qui, dans la langue source, est de l’écrit. Dans ces cas où l’apparentement avec l’écrit se trouve renforcé du fait que le destinataire n’est pas connu et qu’il peut être multiple, les productions obtenues sont censées pouvoir être utilisées comme le sont les documents originaux. Ces situations, qui tendent à se développer 18, doivent permettre de mesurer plus précisément ce qu’il en est des conséquences discursives et linguistiques, sur la langue des signes utilisée, de ce cadre sémiotique spécifique (hors face­à­face) dans lequel elle peut avoir à s’inscrire si la perspective s’élargit d’une LSF vidéo en fonction d’écrit. Elles font émerger des productions en langue des signes d'un nouveau registre, plus formel, plus proche de l'écrit et semblent être un bon moyen pour faire accéder les enfants sourds à la compréhension des spécificités de l'écrit, d'après un interprète travaillant sur cette question.
Références bibliographiques
AUROUX S.,1994, La Révolution technologique de la Grammatisation, Mardaga, collection Philosophie et Langage.
COURTIN, C. et al, 2004, « Lecture, écriture et langue des signes : synthèse de recherches scientifiques », manuscrit envoyé à l’Assemblée Nationale [à paraître en 2005 dans la revue 18 Interprétis, une association d’interprètes de Toulouse, travaille sur ces questions depuis une dizaine d’années, et notamment dans le cadre de la constitution du site WebSourd.
61
Éducation et Sociétés plurilingues].
GARCIA B., FRUMHOLTZ M. ET DUHAYER V., à paraître en 2005, « Acquisition du langage chez l’enfant sourd : quelle oralité pour quel accès à l’écrit ? » in Acquisitions du langage : quelles applications / implications sur le terrain ?, Actes du colloque de Nancy (17­18 septembre 2004), organisé par l’équipe « Interface Grammaire, Sémantique et Discours », ATILF, Université Nancy 2.
GARCIA B., à paraître en 2005, Rapport du projet « LSF : quelles conditions pour quelles formes graphiques ? » (phase 2003­2004), DGLFLF, Ministère de la Culture et de la Communication, 60 p.
GILLOT, D., 1998, Le droit des sourds, rapport remis à Lionel Jospin (voir, pour l’ensemble de la documentation relative à ce rapport, le site de l’Association nationale des parents d’enfants sourds, l’ANPES : http://membres.lycos.fr/anpes/).
STOKOE William C., 1960, “Sign Language Structure, An Outline of the Visual Communication Systems of the American Deaf ”, in Studies in Linguistics, occasional paper n°8, Department of Anthropology and Linguistic, Unversity of Buffalo.
SUTTON Valérie, 1974­2003 Cf. <http://www.signwriting.org>
3.4 Sign Writing
Diverses réflexions et divers systèmes graphiques ont été élaborés depuis plus d’un siècle pour noter les LS mais exclusivement dans le cadre de la recherche sur ces langues et pour répondre aux besoins des chercheurs (entendants). Essentiellement conçus de ce fait pour la transcription de corpus et non pour la communication et l’échange, ces systèmes19 sont très largement inconnus des locuteurs sourds de la LSF et présentent des caractéristiques qui en rendent difficile et peu souhaitable l’utilisation comme systèmes d’écriture des langues des signes :
●
une lourdeur proportionnelle au degré de précision (le plus précis de ces systèmes, HamNoSys, compte un minimum de 200 symboles) ;
●
la quasi­absence de prise en compte de l’ensemble des phénomènes exploitant l’espace et, de ce fait, une efficacité limitée à la notation de signes isolés ou, au mieux, de séquences de signes non spatialiés : des limites, drastiques, donc, pour la restitution de séquences discursives de LS.
En termes de finalité assignée au système, l’une de ces notations fait exception, le système Sign Writing, conçu pour servir de moyen de communication écrite et comme support dans l’enseignement de la langue.
SignWriting, développé par Valérie Sutton [1], fait partie d'un ensemble de systèmes conçus pour transcrire n'importe quel mouvement du corps. Un signe y est transcrit en symboles. Chaque symbole est composé de signes de base, qui correspondent à des positions statiques ou dynamiques des différentes parties du corps. Ces signes de base sont particulièrement nombreux : dans la version 2003, ils sont au nombre de 425, répartis en 60 groupes à travers 10 catégories. Chaque signe de base peut avoir 4 représentations différentes, 6 remplissages différents (selon des motifs de noir et de blanc pour indiquer la facette exposée) et 16 orientations spatiales différentes. SignWriting est plus phonétique que phonologique, car bien qu'il découpe les signes de base en groupes, il est plutôt descriptif de la réalisation du mouvement.
19 Il s’agit notamment, pour les plus usités par les chercheurs, du système de notation de Stokoe [Stokoe 1960] et de HamNoSys [Prilwitz 1989].
62
Figure 3 : Exemple de SignWriting version 2003
Il est donc logiquement plus complet que les systèmes précédents et se trouve paradoxalement bien plus adapté qu'eux pour écrire la langue des signes, sans avoir été initialement conçu dans ce but.
Toutefois, SignWriting présente un problème lié à sa complexité pour être informatisé : les signes de base sont extrêmement nombreux, et sont de plus répartis sur deux dimensions. La combinaison de ces paramètres fait que plusieurs dizaines de milliers de signes de base uniques sont utilisables, dans un infinité de combinaisons liées au choix de ces signes de base pour composer un symbole, et à leur position bidimensionnelle respective.
3.4.1 Affichage et encodages
L'affichage est à rapprocher du codage. L'affichage à l'écran est réalisé par un ou plusieurs sous programmes qui à partir de l'encodage (forme enregistrée) reconstruit une forme prête à être affichée.
HamnoSys et Stockoe ne nécessitent aucun encodage spécifique étant donné leur caractère linéaire et le petit nombre de caractère. Un code est simplement attribué à chaque caractère. SignWriting nécessite par contre des encodages spécifiques.
3.4.1.1
Affichages
Deux types d'affichages sont possibles : vectoriel ou bitmap. L'affichage bitmap, qui correspond à un ensemble brut de pixels a été choisi initialement dans les systèmes d'affichages parce qu'il nécessitait un temps faible et constant de traitement. Cependant, un affichage bitmap produit des effets de pixellisation lors d'aggrandissements trop élevés. A l'inverse l'affichae vectoriel, avec lequel une forme est représentée par un ensemble de descripteurs géométriques est plus précis et plus facilement redimensionnable. De plus, le recous au vectoriel offre une relative indépendance vis­à­vis du médium d'affichage choisi.
Le type d'affichage n'est pas déterminé par la lecture de l'encodage, mais par l'interprétation qui est faite de cet encodage par un sous programme séparé. Ce dernier peut utiliser soit des polices de caractères bitmaps, soit des polices vectorielles.
HamnoSys et Stockoe gèrent facilement les deux types de polices du fait du petit nombre de caractères. Pour SignWriting par contre, la gestion de polices vectorielles est en cours, vu le nombre très élevé de caractères qui doivent être vectorialisés pour ainsi créer une police de caractère.
3.4.1.2
Encodages de SignWriting
Cette trop grande variabilité rend nécessaire d'utiliser un encodage des symboles se basant sur une combinaison des signes de base.
Encodage Binaire
SignWriter [1], le premier programme supportant SignWriting, utilisait un format binaire 63
pour sauvegarder ses fichiers SignWriting. Le type de chaque signe de base ainsi que ses coordonnées étaient stockés pour chaque symbole sur plusieurs bits. Les inconvénients étaient multiples ­ une interopérabilité difficile, et surtout de nombreux problèmes pour mixer SignWriting à d'autres formats électroniques.
Encodage SWML
Un encodage dénommé SWML [2] a résolu les problèmes les plus importants en se basant sur XML [3] pour réaliser ces opérations de stockage du type et des coordonnées des signes de base. Ainsi les documents SignWriting sont devenus plus faciles à partager et à intégrer au sein d'autres contenus. SWML est l'encodage le plus répandu actuellement. Grâce au format XML qu'il utilise, il est facile à manipuler et permet de mélanger du SignWriting et d'autres formats.
Encodage Unicode
Le format d'encodage le plus complexe, le plus complet et le plus répendu est Unicode [4] qui inclut grâce à la norme ISO 10646 [5] la plupart des caractères nécessaires pour écrire les langues humaines. Un encodage Unicode a donc été proposé [6] pour faciliter l'intégration au système d'exploitation. Il attribue un code à chaque signe de base, représente leurs variations grâce à des éléments d'information supplémentaires, et positionne ces signes de base grâce à des élements de positionnement. Le principe est voisin des premiers formats binaires utilisés par SignWriter DOS, ou du format SWML, puisque les mêmes paramètres sont encodés. Seuls changent le vecteur de transport du code et l'encodage.
Toutefois, il est nécessaire de réaliser plusieurs sous programmes avant qu'un système unicode soit totalement fonctionnel. Des recherches sont actuellement en cours.
3.4.2 Interfaces de saisie
HamNoSys ou Stokoe, peu complexes, peuvent être saisis de manière simple avec un clavier sur lequel les lettres et signes standards sont remplacés par leurs équivalents HamNoSys ou Stokoe.
SignWriting par contre nécessite une interface de saisie capable de gérer sa complexité. De manière générale, les interfaces de saisie SignWriting actuelles répondent toutes au même principe: choisir les signes de bases dans un système de menu, pour les poser sur un canevas et composer ainsi un symbole.
3.4.2.1
Clavier
SignWriter DOS utilisait un système de menu à l'écran affectant dynamiquement une fonction au touches du clavier, permettant une telle navigation dans les menu par de simples appuis sur les touches correspondantes. Les signes de bases sélectionnés étaient positionnés à l'aide des flèches, à côté du pavé numérique.
L'avantage principal de cette approche est la rapidité de saisie, qui permet à un utilisateur entraîner d'accéder en quelques appuis sur le clavier à un signe de base, en quoi cette méthode se rapproche des systèmes de macros (raccourcis vers des fonctions utilisant une séquence de touches – les macros sont populaires sur de nombreux logiciels). L'inconvénient est le temps d'apprentissage nécessaire pour bien gérer ce mode de saisie.
3.4.2.2
Souris
64
SW­Edit utilise aussi un système de menus, mais le choix et le positionnement s'y effectuent à la souris. L'avantage principal est la simplicité, le système permettant d'attraper les signes de base voulus dans des menus pour les poser sur le canevas sur le principe du glisser­déplacer (“drag and drop”). L'inconvénient est la lenteur du système.
3.4.2.3
Saisie assistée
Certains logiciels dédiés comme le dictionnaire SignPuddle utilisent un principe de saisie partielle, où les symboles sont rangés par familles morphologiques. L'accès à ses familles se fait par le signe de base le plus typique, les symboles étant ensuite rangés par fréquence d'utilisation. L'intérêt est la simplicité et la rapidité du système, l'inconvénient étant que ce système n'est applicable qu'aux signes les plus fréquents.
3.4.2.4
Autres mécanismes
L'absence d'autres mécanismes d'entrée de signes, comme à l'aide de surface sensibles (écran tactile, tablette graphique) est à noter. Toutefois, vu la simplicité, la rapidité et l'étendue du vocabulaire gérable par de tels systèmes sur des plateformes comme les assistants personnels (Palm, PocketPCs, Zaurus) et les tablettes (TabletPCs), ce système devrait être le plus intéressant pour l'utilisateur – s'il est réalisable vu la complexité intrinsèque à SignWriting.
Nous détaillons au paragraphe 3.7 les usages qui pourraient faits de ce formalisme dans le cadre de l’Internet et de l’exploitation du site de Websourd.
Bibliographie
[1] Sutton V., Gleaves R. (1995), "SignWriter ­ The world's first sign language processor" Ed. Center for Sutton Movement Writing, La Jolla (États­Unis)
[2] Da Rocha Costa A., Dimuro G. (2001) "A SignWriting­Based Approach to Sign Language Processing",GestureWorkshap 2001,Londres (Angleterre)
[3] Bray T., Sperberg­McQueen C. M. (1996) "eXtensible Markup Language", w3c working draft WD­XML­961114
[4] Unicode Consortium (1991) "The Unicode Standard", ISBN 0321185781
[5] International Standard Organisation (1993) ISO/IEC 10646­1:1993(E) Information Technology­­Universal Multiple­octet Coded Character Set (UCS).
[6] Aznar G, Dalle P. (2004) "Computer Support for SignWriting Written Form of Sign Language", Actes du Workshop RPSL, LREC 2004, p109­110, Lisbonne (Portugal)
65
3.5 Analyse du visage : identité et expressions
Le visage est un vecteur important de la communication humaine : il est un marqueur privilégié de l'identité d'un individu ainsi qu'un objet fortement articulé permettant la réalisation d'éléments de sens (i.e. les expressions). Les expressions faciales (mouvements musculaires internes au visage, ainsi que ceux pilotant le mouvement de la tête ou des yeux) font partie intégrante de la langue des signes. Elles interviennent aussi bien d'un point de vue lexical, comme composante de la définition d'un signe qu'à un niveau syntaxique, permettant l'introduction de nombreux modes du discours.
L'utilisation massive du support vidéo par les locuteurs Sourds et la volonté de rendre des témoignages anonymes (ou la nécessité pour des raisons d'ordre légal) pose problème lors d'une locution en langue des signes. En effet, étant donné que les expressions faciales font parties intégrantes du message signé, les techniques "classiques” de rendu anonyme (“flouttage”, “mosaïque”) altèrent une partie du message en altérant le visage du locuteur. Le but de l'anonymisation est alors d'empêcher l'identification du visage du locuteur sans altérer les expressions faciales nécessaires à la compréhension. L'idée est alors d'altérer le visage du locuteur pour faire tendre ces caractéristiques identitaires vers la moyenne, empêchant ainsi la reconnaissance du visage.
3.5.1 Modélisations du visage
Chaque application d'étude du visage, quelque soit sa tâche (identification d'identité, analyse des émotions, des expressions, etc.) nécessite de considérer un modèle de visage. La tâche consiste alors à décrire l'observation (i.e. le visage sur l'image ou la vidéo) par le modèle retenu.
On peut distinguer deux types de modélisation : les modélisations dites “empiriques” et les modélisations “statistiques”. Les premières sont construites à partir d'un certain nombre de connaissances a priori sur le visage (identité ou expressions), alors que les modèles statistiques sont construits à partir d'exemples.
Les premières applications qui ont eu un besoin de modélisation du visage furent l'identification de visages et la reconnaissance d'expressions émotionnelles à partir d'images. Les images brutes sont trop complexes pour décrire les visages, un sous­ensemble de ces images devait être selectionné. Il est généralement constitué d'un ensemble de points “importants” du visage, qui permettent de mieux les décrire que les images brutes. Les descripteurs sont généralement constitués des valeurs des pixels en ces points ou bien d'un ensemble de filtres appliqués sur l'image en ces différents points (notamment une batterie de filtres de Gabor par similarité avec les filtres de pré­traitement dans le système visuel [1,2]). La structure du “graphe” ainsi construit est relativement arbitraire (le concepteur doit avoir une idée a priori de ce qu'il tente de discriminer). Ainsi, il apparaît que les graphes nécessaires à la discrimination d'identité sont différents de ceux nécessaires à la discrimination d'expressions émotionnelles. Ces modèles restent les plus simples, mais ne véhiculent que peu d'information : il s servent essentiellement à la classification sur une base pré­déterminée.
66
Points de référence servant de descripteurs du visage, d'après [1] et [2]
Les maillages de points sont pourtant à la base de beaucoup de modèles de visages. Ainsi, les points peuvent être regroupés sous forme de courbes paramétriques, permettant d'introduire une certaine contrainte sur la forme décrite (paraboles, splines, courbes de Bézier, etc.) [3]
Le but de l'analyse automatique est alors généralement de modifier la position des différents points (et/ou de fixer les paramètres des courbes) afin de les faire correspondre à des composantes physiques faciales observables. Dans [3], les paramètres de chacune des courbes est modifié en fonction de résultats de traitement ad hoc sur le visage, introduisant de nouveau des connaissances a priori sur le comportement (en terme d'image) des composantes faciales.
Une classe particulière de méthode, couplant l'analyse et la synthèse d'image, permet de réaliser une telle tâche. Le principe est de minimiser l'erreur entre l'instance du modèle et l'image. Le modèle est alors généralement assez réaliste pour permettre une comparaison à l'image. Par exemple, Ahlberg propose un modèle générique de visage humain, formé par un maillage 3D [4] et une méthode associée permettant de mettre en correspondance ce modèle à une vidéo. Et bien que les modèles empiriques soient généralement assez simplifiés, certains prennent en compte une dynamique importante d'expressions. C'est le cas par exemple du modèle d'oeil présenté par [5], formé par une superposition de calques et représentant le mieux possible la dynamique (identitaire et expressive) de l'oeil humain observé sur une image. L'adaptation sur une image d'oeil consiste à générer un oeil synthétique le plus ressemblant possible à l'oeil observé sur l'image. Bien qu'il soit capable de décrire des mouvements musculaires fins (le plissement des yeux par exemple), un tel modèle demande des connaissances a priori importantes, sur la morphologie humaine notamment. Ainsi, il n'existe pas de modèle équivalent prenant en compte tous les mouvements musculaires du visage dans son ensemble.
Modèle générateur de l'oeil humain, d'après [5]
Les modèles statistiques, à l'inverse, sont construits par l'exemple. On introduit le moins possible d'a priori dans la construction du modèle. Un ensemble d'apprentissage (le plus hétérogène possible) est alors nécessaire. Une modélisation classique consiste à réduire l'espace des observations par analyse en composantes principales. Cette technique a été utilisée avec succès pour l'identification faciale (représentation sous forme de “visages propres” [6]).
La décomposition en un sous­espace propre est applicable aux données vectorisables. Ainsi, 67
l'étude de la dynamique des identités et expressions peut se faire sur les données de forme (données par un ensemble de coordonnées de points sur l'image) et de texture (données par l'ensemble des pixels de la forme). Ces deux types de données sont nécessaires à une description fine de l'identité et des expressions.
La méthode des modèles actifs d'apparence (Active Appearance Models [7,8]) permet d'adapter un modèle dont les déformations (en forme et en texture) ont étés apprises sur un ensemble d'apprentissage à une nouvelle image, permettant ainsi d'extraire la forme et la texture d'un nouveau visage.
On se tourne ici vers les modèles statistiques étant donné le peu de connaissances formelles existant sur les expressions faciales en LSF.
3.5.2 Anonymisation
Les modélisations statistiques du visage (type modèles actifs d'apparence) donnent généralement un sous­espace muni d'un système d'axes (orthonormaux). Chacun des axes peut représenter à la fois les variations en identité et en expressions. Dans le but de séparer identité et expressions, il est alors nécessaire de travailler sur ce sous­espace ou éventuellement de proposer une réduction de dimension, ou une transformation de l'espace initial donnant directement un système d'axes séparant identité et expressions.
En considérant le premier cas, à savoir la transformation du sous­espace propre, il est possible d'introduire une relation entre l'expression et l'identité, en considérant qu'un visage expressif est formé d'un visage ayant la même identité et une expression neutre et d'un visage ayant une identité neutre et la même expression [9]. Cette relation linéaire est apprise sur un ensemble d'apprentissage conséquent. Sur un nouveau visage, à partir de ses paramètres extraits par recalage via modèles actifs, il est alors possible d'en changer l'identité. On peut, par exemple, changer l'identité vers une identité “neutre”, permettant ainsi l'anonymisation.
Modélisation linéaire du visage
Principe de l'anonymisation
Le principal inconvénient de cette modélisation (et de celles trouvées dans [10] – notamment la modélisation bi­linéaire) est qu'elle considère une seule expression à la fois. La modélisation a 68
été introduite initialement pour l'étude des expressions émotionnelles, qui sont limitées en nombre et toujours isolées. Or, les expressions faciales en LSF ne peuvent être décrites uniquement par les émotions, le panel d'expressions étant plus riche, on préférera une description sous forme d'actions musculaires élémentaires (type Facial Action Coding System [11])
En supposant qu'une modélisation du visage prenant en compte l'aspect “additif” des expressions et permettant la séparation de l'identité des expressions existe, il est nécessaire de mener une étude sur la pertinence et la validité de cette forme d'anonymat. En effet, le visage modifié doit être le moins dégradé possible d'un point de vue de ses expressions tout en étant suffisamment dégradé pour empêcher sa reconnaissance : en particulier, à quel point les éléments extérieurs au visage (vêtements, cheveux) rentrent en jeu dans la reconnaissance de l'identité.
Références
[1] M. Lyons, S. Akamatsu, M. Kamachi, and J. Gyoba, Coding facial expressions with gabor wavelets, in Proceedings of the Third IEEE International Conference on Automatic Face and Gesture Recognition, (Nara, Japan), pp. 200 205, april 1998.
[2] L. Wiskott, J.­M. Fellous, N. Krüger, and C. von der Malsburg, Face recognition by elastic bunch graph matching, IEEE Trans. Pattern Anal. Mach. Intell., vol. 19, no. 7, pp. 775 779, 1997.
[3] Y. li Tian, T. Kanade, and J. F. Cohn, Recognizing action units for facial expression analysis, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 23, no. 2, pp. 97 115, 2001.
[4] J. Ahlberg, Candide­3 ­ un updated parameterised face, tech. rep., Dept. of Electrical Engineering, Linköping University, Sweden, January 2001.
[5] T. Moriyama, J. Xiao, J. Cohn, and T. Kanade, Meticulously detailed eye model and its application to analysis of facial image, in Proceedings of the IEEE Conference on Systems, Man, and Cybernetics, pp. 629 634, 2004.
[6] M. Turk and A. Pentland, Eigenfaces for recognition, Journal of Cognitive Neuroscience, vol. 3, no. 1, pp. 71 86, 1991.
[7] T. F. Cootes, G. J. Edwards, and C. J. Taylor, Active appearance models, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 23, pp. 681 685, 2001.
[8] I. Matthews and S. Baker, Active appearance models revisited, Tech. Rep. CMU­RI­TR­03­02, Robotics Institute, Carnegie Mellon University, Pittsburgh, PA, April 2003.
[9] Hugo Mercier, Patrice Dalle. Analyse du visage : identité vs expressions. Dans : 2e Congrès de l'International Society for Gesture Studies (ISGS) : Interacting Bodies / Corps en interaction, Lyon, 15 juin 18 juin 2005. École normale supérieure Lettres et Sciences humaines, à paraître.
[10] B. N. Abboud, Analyse d'expressions faciales par modèles d'apparence. thèse de doctorat, Université Technologique de Compiègnes, 2004.
[11] P. Ekman and W. V. Friesen, Facial Action Coding System (FACS) : Manual. Palo Alto : Consulting Psychologists Press, 1978.
69
3.6 Avatars signants
Les « avatars signants » sont des images animées de synthèse représentant un personnage produisant de la langue des signes. Il existe de nombreuses manière de les représenter visuellement (2D, 3D, réaliste, stylisé) et de les commander.
Plus que l'avatar (le personnage) en lui­même, il s'agit d'étudier ici la chaîne de production permettant de synthétiser un message en langue des signes. Cette production nécessite le recours à une représentation (plus ou moins fine) du message. On s'intéresse ici uniquement au problème de rendu de signes, phrases et/ou discours par un personnage de synthèse à partir d'une représentation du message dans la même langue : il ne s'agit pas d'étudier les systèmes de production de messages signés à partir, par exemple, de leur représentation en français écrit. Ce dernier point nécessite en effet, le recours à un système de traduction de la langue française vers la langue des signes (française), qui ne sera pas étudié ici.
Une telle chaîne de production de message signé synthétique peut être découpée en les modules suivants :
1. un module de rendu graphique, permettant à la représentation du personnage d'être affichée à l'écran : ce module fait appel aux techniques classiques de modélisation, d'animation et de rendu d'objets 2D ou 3D (simulation de l'éclairage, des textures, des styles de rendu, etc.)
2. un module de pilotage du personnage, permettant d'impulser des mouvements et gestes élémentaires. Le langage de commandes a une précision variable selon les types d'avatars. Il peut par exemple reposer sur une spécification formelle du geste (type notation HamnoSys [1] ou notation de Losson [2]) ou bien sur la valeur angulaire de chaque articulation d'un personnage en trois dimensions.
3. un module (optionnel) de construction du message, correspondant à un formalisme de représentation plus proche de la langue des signes que le langage de commande. Il correspond généralement à un formalisme de représentation du message dans son ensemble.
Chacun de ses modules peut être automatisé ou assisté par un utilisateur : chacun peut donc posséder une interface utilisateur, de plusieurs natures possibles : interface graphique classique ou périphérique de saisie particulier (associé généralement à un système informatique annexe, type capture de mouvements).
Le module de rendu graphique ne pose que peu de problème de recherche dans le cas présent : on s'intéresse d'avantage à la qualité du message produit qu'à l'aspect réaliste du rendu synthétique. Les techniques des rendu existantes permettent un rendu de qualité suffisante, même sur du matériel grand public. Le module de rendu graphique ne pose donc pas de problème de recherche dans notre cas.
L'animation de l'avatar peut être commandée directement par un acteur, l'avatar se contentant alors de rejouer à l'identique les gestes de l'acteur. Cette approche de l'animation d'humains virtuels est la plus ancienne, elle consiste à user de capteurs de mouvement permettant au système d'extraire la position 3D d'un ensemble de points fixés au corps de l'acteur dans le temps. Le personnage animé offre alors des avantages par rapport à la vidéo d'un acteur : dans un système en­ligne (type site Internet), le personnage virtuel peut être reconstitué côté client à partir d'informations de mouvements, généralement moins demandeuses en mémoire que la vidéo, permettant ainsi une économie de bande passante. Les systèmes à base de capture de mouvements permettent généralement de mouvoir des personnages virtuels dont l'apparence est différente de l'acteur, via une transformation géométrique des positions 3D captées. VisiCast [3] note également que dans le cas d'une capture de mouvements pour la production d'avatars signants, la compréhension est améliorée par rapport à la vidéo. Cependant de tels systèmes souffrent 70
d'inconvénients : les périphériques de capture sont onéreux et très contraignants. De plus, il n'est pas possible d'introduire des variantes dans la production signée, puisqu'aucune connaissance sur le sens n'est disponible.
Système de capture du mouvement pour l'animation d'avatar signant : capteurs magnétiques (corps) + marqueurs optiques sur le visage pour les expressions faciales.
La capture de gestes par un système de vision, beaucoup moins contraignante pour l'utilisateur, puisque ne nécessitant pas le recours à des dispositifs spécialisés est un problème de recherche à part entière. Quelques travaux ont été initiés permettant de suivre le déplacement de composants du corps. La difficulté de ses approches se trouve dans la reconnaissance des configurations, notamment des configurations des mains, essentielles à la capture des gestes de la langue des signes.
Dans l'optique de générer un message signé, il est nécessaire de pouvoir générer des signes isolés. Des systèmes existent, permettant de représenter une partie des signes standards, citons par exemple HamnoSys [1] ou encore le système de description des gestes de Losson [2]. Cependant, l'aspect « iconique » des signes [4] n'est pas pris en compte, ou très peu. Des recherches sont cependant menées dans ce sens, en permettant notamment la production de transfert de forme, situationnel ou personnel (les situations d'iconicité).
Avatar eSign piloté par HamnoSys, signes "moi" et "toi"
Pour introduire des variantes dans le message produit (par exemple proposer une structure de phrase fixe dont un élément lexical peut varier – type consultation d'horaires, météo, etc.), il est nécessaire d'avoir recours à une formalisation de la langue. Les approches classiques de la modélisation de la grammaire des langues orales sont ici difficiles à transposer, la langue des signes ayant un forte dynamique spatiale. Ainsi, décrire un message en langue des signes peut être abordé d'un point de vue initialement spatial : une scéne 3D mettant en mouvement des entités particulières (des personnages, des actions, des lieux, etc.) [5­7]. Une description du discours de 71
cette sorte, éventuellement augmentée de descriptions plus fines sur le lexique permet la génération de messages plus aboutis et notamment l'introduction de variations dans les signes.
3.6.1 Références bibliographiques
[1] S. Prillwitz, H. Zienert, Hamburg Notation System for Sign Language: Developement of a sign writing with computer application. 3rd Auropean Congress on Sign Language Research, Hamburg, 1989
[2] O. Losson, Modélisation du geste communicatif et réalisation d'un signeur virtuel de phrases en langue des signes française. Thèse de doctorat (17 janvier 2000), Université des Sciences et Techniques de Lille.
[3] Projet Européen « VisiCast » http://www.visicast.co.uk/
[4] Ch. Cuxac, La Langue des Signes Française (LSF). Les voies de l'iconicité, Paris­Gap, Ophrys, Bibliothèque des Faits de Langues n°15­16, 2000
[5] B. Lenseigne, Intégration de connaissances linguistiques dans un système de vision. Application à l’étude de la langue des Signes. Thèse de doctorat, Université Paul Sabatier, Toulouse 3, décembre 2004.
[6] B. Lenseigne, P. Dalle. A Computational Model for Sign Language Grammar, 2nd Language and Technology Conference: Human Language Technologies as a Challenge for Computer Sciences and Linguistics, Poznan, Pologne, 21 –23 avril 2005. Adam Mickiewicz University, Poznan, Pologne,
[7] B. Lenseigne, P. Dalle. Using Signing Space as a Representation for Sign Language Processing, 6th International Workshop on Gesture in Human­Computer Interaction and Simulation, Vannes, 18 ­ 20 mai 2005. VALORIA, Université de Bretagne Sud
72
3.7 Illustrations des usages
Dans cette section, sont présentés les usages de l'Internet et des médias envisageables dans le contexte WebSourd, via le recours aux briques technologiques retenues pour cette étude. Trois situations distintes ont été sélectionnées :
●
la situation où un usager isolé accède à un site possédant un contenu riche en langue des signes,
●
la situation où un usager accède à un service quelconque (sur Internet ou non),
●
la situation où plusieurs personnes distantes géographiquement tentent de communiquer
Dans chacune de ces situations, on suppose qu'au moins une des personnes présente s'exprime en langue des signes.
3.7.1 Situation 1 : interaction avec un site Internet
La première situation correspond à un utilisateur en interaction avec le site WebSourd, ou un quelconque site comprenant des contenus en langue des signes française (LSF). L'utilisateur peut être signeur ou non, bien que l'étude soit centrée sur les utilisateurs signeurs. On détaille ici les usages relatifs aux tâches d'« entrée » et de « sortie » à un site Internet, c'est à dire à la navigation, et la consultation de contenus et à l'affichage, la présentation de contenus.
3.7.1.1
En entrée
Interaction gestuelle via webcam
Dans le cadre d'une personne consultant le site Websourd, il est possible d'envisager la navigation sur le site par un système de vision par ordinateur.
L'environnement dans lequel se situe la personne est un point clé dans le choix des méthodes de traitements d'images à utiliser. En effet, la complexité des opérations augmente lorsque les contraintes de l'environnement utilisateur diminuent. Ceci a un effet sur les temps de calcul et de réponse de l'ordinateur.
La dimension du vocabulaire est également critique pour une application "temps réel''. L'espace d'interaction est réduit du fait du contexte, une personne face à son ordinateur. Une caméra positionnée sur un bureau ne peut filmer que dans un champ réduit : les gestes du corps ne peuvent pas être amples, à moins de ne pas filmer le visage par exemple. Nous nous intéresserons donc aux mouvements et expressions du visage ainsi qu'aux mouvements et configurations de la ou des mains. Navigation par interaction gestuelle
73
Le site WebSourd propose un contenu bilingue en français et langue des signes. Cependant, certains éléments, de navigation notamment, n'existent qu'en français écrit. Il est donc logique de vouloir garder une homogénéité dans les contenus, en proposant au maximum le recours à une seule langue. Certains utilisateurs du site ont exprimé le besoin d'un continuum dans l'accès au site, en évitant le recours forcé au français écrit (cf 2.5 p. 34).
Il s'agit donc ici d’interpréter des gestes simples correspondant soit à des commandes pour le navigateur proprement dit (page précédente/suivante) soit à des signes isolés correspondants aux noms des différentes rubriques du site parcouru. Dans les deux cas, de nombreuses méthodes permettant d’identifier quelques dizaines de signes isolés, même à partir d’images de qualité moyenne, existent. Leur mise en œuvre pose néanmoins deux problèmes : d’une part celui de l’apprentissage nécessaire, dans la plupart des méthodes, pour permettre la reconnaissance des gestes et celui de l’adaptation de sites existants à cette nouvelle fonctionnalité. Si le problème de l’apprentissage peut être partiellement résolu par le choix d’une méthode de reconnaissance robuste, la possibilité de naviguer en langue des signes sur des sites qui n’ont pas été prévus pour cela pose des problèmes plus complexes. Il faut en effet à ce moment être capable d’analyser sémantiquement le contenu du site pour en déduire les signes à utiliser pour la navigation (et ce y compris sur des sites en langue étrangère) puis disposer d’un vocabulaire suffisamment large pour pouvoir naviguer sur des sites généralistes. De tels lexiques sont au­delà des performances actuelles des systèmes de reconnaissance basés sur la vision. En revanche, l’intégration de fonctionnalités de reconnaissance de signes dans les navigateurs permet d’appliquer de façon quasi directes les techniques existantes. En effet de tels systèmes doivent fonctionner pour un nombre réduit d’utilisateurs et il est possible, comme pour les systèmes de reconnaissances vocale, de faire précéder l’utilisation d’une phase d’apprentissage réalisée par l’utilisateur et d’augmenter le lexique au fur et à mesure de l’utilisation. Enfin dans de tels systèmes le lexique est le plus souvent réduit puisqu’il se réduit aux commandes du navigateur et aux signets de l’utilisateur.
Interactions en langue des Signes naturelle
De nombreuses applications liées à l’internet peuvent nécessiter des fonctionnalités plus évoluée de reconnaissance des signes. Il s’agit, par exemple de l’interrogation de langue des signes de bases de données ou de la dictée de messages en langue des signes.
De telles fonctionnalités nécessitent des modèles complexes de la langue et, dans le second cas, la prise en compte de larges vocabulaires. En contexte réduit, de tels modèles existent et leur couplage avec des outils d’analyse et d’interprétation d’images fait l’objet de recherches actives. Il a notamment été montré que dans le cas de l’interrogation d’une base de données la combinatoire des énoncés susceptibles d’être produits était réduite à quelques dizaines de possibilités qui sont en outre fortement contraintes par le contexte de l’énonciation, ce qui rend possible une analyse rapide et robuste des signes.
Participation au site ­ forum en langue des signes
Au delà d'une navigation classique, passive, qui ne consiste qu'en la consultation d'articles et de documents écrits et/ou vidéo, les sites Internet se doivent de mettre à disposition de leurs usagers un espace de communication, permettant une navigation plus « active », une participation à la vie du site et/ou de l'entreprise par le dépôt de commentaires ou de sujets d'ordres plus généraux.
Le site WebSourd propose une rubrique, pour l'instant restée en construction, nommée 74
« Forum signes », correspondant à l'idée d'un forum de discussion en langue des signes. Les utilisateurs pouvant discuter d'un sujet commun, argumenter et commenter en langue des signes. Equipé d'une webcam, l'utilisateur pourrait déposer un message sur le forum à la disposition des visiteurs. Un tel usage est envisageable actuellement, puisque le site de WebSourd propose déjà à ces visiteurs de déposer un message vidéo. C'est un service permettant aux utilisateurs du site de réagir sur le site, mais les messages ne sont pas rendus publics, comme ils le seraient sur un forum de discussion.
L'un des intérêts d'une communication via un forum sur Internet est l'accès à un certain niveau d'anonymat, notamment par l'utilisation de pseudonymes. Or, l'utilisation de vidéo pour la diffusion de la langue des signes empêche un tel accès à l'anonymat. En effet, les techniques classiques de masquage du visage d'une vidéo ne sont pas utilisables directement sur une vidéo contenant un message en LSF : les expressions faciales sont importantes pour la compréhension du message signé et les masquer gêne la compréhension. Il a donc été envisagé une application de “rendu anonyme” spécifique à la langue des signes. Le type de communication est particulier (et relativement nouveau pour la langue des signes). En effet, l'utilisateur s'adresse à une webcam pour déposer un message sur le site. Les contraintes techniques (cadrage, compression) font que la langue des signes produite n'est pas tout à fait la même que la langue des signes que l'on pourrait trouver dans une communication classique. Il n'y a, de plus, pas de présence physique de l'interlocuteur (cf 3.3.3.4). Ce contexte particulier rend envisageable un traitement vidéo de la production signée.
Par exemple, un traitement vidéo permettant de changer l'identité du visage de l'utilisateur (cf plus haut) par un visage « moyen » permettrait un rendu anonyme. Traiter le visage par un système de vision (une webcam) dans le contexte le plus général (plusieurs personnes observées, ces personnes peuvent communiquer entres elles, etc.) rendrait l'analyse très difficile (présence de fortes rotations et/ou occultations du visage). Ici, l'utilisation de la webcam rend les rotations hors plan relativement faibles et la séquence vidéo analysable directement.
De plus, le principe de fonctionnement « différé » d'un forum de discussion (les messages sont produits, puis consultés à la différence des systèmes de messagerie instantanées où les messages sont produits et consultés par d'autres dans le même temps) permet une certaine souplesse dans le temps de calcul nécessaire au traitement. Il n'est pas nécessaire que le traitement (« anonymisation ») se fasse en temps réel, en même temps que l'utilisateur signe. On peut donc imaginer un traitement différé : le message est produit, puis une fois la fin marquée, le site (ou un logiciel côté client) traite le message et le message traité est effectivement déposé sur le site (avec le consentement de l'utilisateur).
Les méthodes d'analyse actuelles restent trop limitées pour être utilisées en temps réel sur une production en langue des signes (présence d'occultations et de rotations hors plan). En particulier, l'usage qui consisterait en un système de messagerie instantanée par vidéo en ajoutant un traitement d'anonymisation ne pourrait se faire qu'en temps réel et reste donc sujet de recherches.
Sous un angle différent, une telle technique d'anonymisation permet­elle de modifier le rapport à la vidéo ? Il est en effet noté, d'après l'enquête sur les formes graphiques (cf 3.3.3.3) « De manière plus récurrente, on refuse de considérer un discours vidéo comme relevant de l’écrit du fait de la présence physique visible du locuteur, toujours nécessairement un locuteur particulier ». Si le locuteur n'est alors plus un locuteur particulier (puisque locuteur « moyen »), se rapproche t­on plus de l'écrit ?
Aide à la navigation pour des sites destinés aux sourds
Les sites dédiés aux sourds gagneraient en lisibilité et en accessibilité par l'utilisation d'une forme écrite dans les menus pour faciliter l'accès aux différentes sections, ou dans les contenus 75
proposés pour faciliter la compréhension, peu de sourds maîtrisant bien le français écrit, alors que la langue des signes est mieux connue.
Aucune technologie spécifique n'est nécessaire pour la saisie et l'affichage de forme graphique : comme le montre www.signwriting.org, il suffit d'insérer des images correspondant à la forme écrite pour dès maintenant rendre un site naviguable dans les deux langues français et langue des signes. Comme le montre www.signpuddle.org, l'entrée en langue des signes est aussi possible à partir de menus visuels de multiples clics sur les images correspondants à des signes de base caractéristiques de symboles permet d'accéder à la signification du mot.
Exemple d'éditeur de signes SignWriting en ligne (SignMaker) ­ l'élaboration d'un signe passe par un ensemble complexe de menus
Toutefois, une telle interaction est fortement limitative. Idéalement, une fois qu'un système basé sur Unicode serait prêt, les annotations pourraient directement être réalisées dans cet encodage, ce qui permettrait une navigation plus rapide et une économie de ressources (bande passante, espace de stockage). De plus, l'entrée serait grandement facilitée : plus besoin de cliquer sur des icônes présentant une liste fermée des choix disponibles, puisqu'une entrée en texte libre serait aussi possible par exemple pour un moteur de recherche.
Mécanisme de saisie de SignWriting
Afin de faciliter l'entrée à un débit efficace tout en étant facilement réalisable par les utilisateurs, il semble nécessaire de privilégier les interfaces habituelles de saisie pour un utilisateur d'ordinateur:
■
clavier
■
souris
■
écran tactile
76
■
tablette graphique
■
manettes sténographiques ("chording keyboards", ex: Nostromo N52)
Ces mécanismes ont l'avantage d'être répandus et peu chers, contrairement à d'autres comme les gants sensitifs (ex: PowerGlove). De plus, à l'inverse des interfaces d'entrée basées sur la reconnaissance vidéo, il est légitime d'espérer de très bons résultats à très court terme.
La difficulté logicielle se situe dans l'adaptation de ces dispositifs de saisie à la complexité de SignWriting. Faire appel à plusieurs de ces périphériques en même temps (ex: clavier+souris) au sein d'un dispositif multi modal devrait faciliter l'interaction.
La problématique de reconnaissance de SignWriting sur une tablette graphique est un problème à part entière, nécessitant des apports de l'interaction homme machine et de traitement d'image, tout en tenant compte des contraintes spécifiques à la plupart de ces dispositifs (ex: résolution limitée)
3.7.1.2
En sortie
Transmission de vidéos en langue des signes La problématique de la compression de séquences vidéos à des fins de transmission sur un réseau informatique avait perdu de son actualité avec l’avènement des connexions haut débit, mais retrouve une dynamique nouvelle avec l’apparition d’outils de communication évolués tels que les “salons de discussion” (chat rooms) ou les environnements de travail collaboratif. Il s’agit alors en effet de gérer simultanément un grand nombre de connexions simultanées et de transmettre, parfois des vidéos de grande taille (conférences, groupes de travail,…). Si ces nouveaux besoins trouvent une solution partielle dans les standards vidéo existants, celles­ci montrent leurs limites lorsqu’il s’agit de filmer et de transmettre les images de plusieurs personnes s’exprimant simultanément en langue des signes. Pour de telles applications, des techniques de compression adaptatives dédiées à la compression de telles images peuvent apporter un gain substantiel en termes de taux de compression et donc de bande passante. Ces applications pourront en outre être associés à des dispositifs d’interaction permettant par exemple de détecter les prises de parole et les locuteurs qui s’expriment afin de limiter la compression des régions correspondantes dans les images.
Extrait du site WebSourd ­ une locution en langue des signes américaine, traduite, sur la même vidéo, en langue des signes française. La faible résolution résultant du partage de l'espace vidéo initialement prévu peut poser des problèmes de compréhension. Des méthodes de compression spécifiques à la langue des signes (généralisables au langage co­verbal) permettrait d'augmenter la résolution de la vidéo.
77
Affichage de SignWriting
Aucun développement particulier n'est nécessaire pour qu'un site Internet propose dès à présent un contenu en SignWriting, il suffit de considérer les symboles SignWriting comme des images à insérer dans les différentes pages du site. Cependant, une modélisation informatique de cette forme graphique, notamment par son intégration dans les normes d'encodage des caractères existantes permet d'envisager des applications intéressantes.
Extrait du site www.signwriting.org ­ les éléments de navigation du site sont "sur­titrés" par des symboles SignWriting
Des sites internet comme www.google.com ou babelfish.av.com permettent d'accéder en temps réel à des sites internet rédigés dans d'autres langues.
Pour celà, ils traduisent les pages demandés par l'utilisateur avant de les afficher dans la langue voulue par l'utilisateur. Seule une fonction de sortie est nécessaire. Le recours à une forme graphique de la langue des signes (et à son encodage informatique) permet d'envisager pour cette langue les mêmes outils que ceux existants pour les langues vocales, en particulier les systèmes de traduction automatique mentionnés. Un logiciel dédié utilisant SWML serait possible à très court terme. Il serait toutefois consommateur de beaucoup de ressources sur l'ordinateur naviguant. L'idéal serait un site internet de traduction automatique, ce qui nécessiterait un système basé sur unicode.
Avatars signants
La production de vidéo signée demande des ressources importantes. Il est parfois difficile de produire des messages signés dans l'urgence. De plus, il existe des cas où un message ayant une structure de base peut se décliner en un nombre important de variantes. Pour ces cas, il peut être envisagé le recours à un personnage de synthèse produisant de la langue des signes. On parle alors d'avatars signants.
Les avatars signants offrent de plus certains avantages par rapport à une vidéo : si l'avatar est reconstitué au niveau du poste de l'utilisateur, un gain en bande passante réseau peut être obtenu; l'avatar a un comportement humanoïde, mais rien n'empêche d'en changer la morphologie (et ainsi proposer une morphologie animale ou imaginaire peut être plus adaptée à certains contenus pédagogiques) ; et enfin l'avatar ne représente pas une personne physique ; l'anonymat permet au récepteur du message de se concentrer sur le message et non sur le locuteur. Ainsi, les avatars 78
signants offrent des avantages certains par rapport à la vidéo, même s'ils se contentent de rejouer sans variaton ce qui a été précédemment enregistré. Les techniques nécessaires à l'enregistrement du mouvement sont largement disponibles.
Un avatar judicieusement programmé peut permettre la génération de messages signés dont la structure ne change pas, mais ayant une variation de lexique importante. C'est le cas par exemple de la consultation d'horaires (de transports, d'événements, etc.) ou de signalétiques en général, sorte d'équivalent signé des messageries vocales. Si le contexte linguistique est bien choisi, il peut ne s'agir que d'une succession de signes lexicaux supposés connus selon une structure déterminée.
Et d'une manière plus générale, un avatar peut servir à la génération de tout type de messages. Ceci nécessite cependant le recours à un formalisme de description des messages et des signes. Le but est de permettre l'expression la plus riche possible (prise en compte des divers degrés d'iconicité de la langue, spatialisation des concepts, expressions faciales, fluidité du mouvement, etc.) plutôt que de concentrer les recherches sur l'amélioration de la qualité visuelle du personnage virtuel.
3.7.2 Situation 2 : service via Internet
Dans cette situation, un utilisateur est en communication avec un service via Internet. Il peut s'agir d'un service Internet ou d'un service administratif. L'accès à Internet peut se faire par l'ordinateur personnel de l'utilisateur ou bien par un service mis à disposition.
3.7.2.1
Interprétation à distance
La majorité des services (et en particulier les services administratifs) proposent un accueil au public selon la modalité orale, non adaptée aux personnes sourdes signantes. Dans ce cas de figure, l'appel à un interprète en langue des signes est nécessaire. Cependant, la présence physique d'un interprète n'est pas toujours possible. Un usage particulier d'Internet consiste à mettre “à disposition” un interprète distant. L'interprète ne se trouve pas physiquement sur place, mais via un dispositif adapté. Ce dispositif consiste en un ordinateur multimédia équipé d'un écran et d'une webcam (pour la captation de l'utilisateur sourd), d'un système audio (pour l'agent d'accueil entendant). Le même dispositif est présent chez l'interprète et le tout est relié via Internet par un logiciel dédié.
Ce système existe, a été développé par WebSourd en partenariat avec France Télécom et est déjà déployé, en particulier dans le réseau des Caisse d'Allocations Familiales de Toulouse, qui en sont toutes équipées. Ce service est également présent à l’accueil de la mairie de Toulouse, à la médiathèque et également dans les CAF de Montauban, Albi, Rodez, Nancy. WebSourd est en contact actuellement avec la mairie de Paris pour mettre en place ce service, ainsi qu’avec des entreprises privées. Cependant, sur ce dernier point, l’offre commerciale n’est pas encore 79
totalement calibrée, mais des accords de principe ont déjà été donnés par Airbus France, France Télécom et EDF.
De plus, une évaluation auprès du public sourd de ce système a été menée, notamment dans le cadre du présent projet de recherches (cf p. 21)
3.7.2.2
Portail de services
Les applications présentées précédemment (navigation par interaction gestuelle, requête en langue des signes, affichage d'avatars signants) étaient envisagées dans le cadre d'un site de services prévu pour. Dans le cas d'un site Internet quelconque, non initialement prévu pour ces applications, sont­elles envisageables en passant par un site tiers ?
La navigation par commande gestuelle est généralisable à n'importe quel site, puisque les commandes ne sont pas spécifiques à un site particulier. Il s'agit ici d'une modalité d'interaction à mettre en parallèle avec les modalités classiques faisant appel aux périphériques tels que la souris ou le clavier. Ainsi, c'est au système informatique de l'utilisateur de s'adapter à cette nouvelle modalité et non aux sites consultés.
En revanche, une navigation basée sur la reconnaissance de signes isolés, telle que le parcours de la hiérarchie d'un site par reconnaissance successive du signe de chaque rubrique, est difficilement envisageable dans le cas général. En effet, les techniques de reconnaissance utilisent généralement une base connue de signes. Et les limites actuelles ne permettent pas d'envisager une base de données suffisamment grande pour prendre en compte un corpus, même simplifié, de l'ensemble des signes standards. Cependant, il est possible d'ajouter un côté sémantique à la navigation par commandes gestuelles évoquée plus haut : il peut être envisagé un système de "raccourci gestuel" permettant à l'utilisateur d'associer un signe à un lien particulier d'un site particulier, par exemple.
Les systèmes de saisie et d'affichage de la langue des signes, sous soit une forme graphique (SignWriting) ou sous forme d'avatars signants ne sont applicables à des sites non prévus pour cela, que s'il existait un système de traduction automatique langue du site / langue des signes. Or, ceci est un problème de recherche non résolu à lui seul. 3.7.2.3
Travail sur vidéos de LSF
L'absence de forme écrite établie de la langue des signes implique que le médium d'échange privilégié pour travailler sur la langue est la vidéo. Les fonctions disponibles à l'écrit n'ont actuellement pas d'équivalent en vidéo. Cependant, le recours à des outils informatiques permettrait de surpasser certaines de ces limites.
Ainsi, dans le cadre d'un travail sur une production vidéo signée à distance, qu'il s'agisse de la correction de la langue des signes d'un élève en formation ou d'un échange lors de l'élaboration commune d'un document vidéo, la vidéo est un objet d'étude, se rapprochant d'un support "écrit".
Annotations
L'annotation, nécessaire à tout travail collaboratif, est difficile à effectuer sur un document qui sort de la modalité textuelle. Ainsi, annoter une vidéo nécessite un ensemble d'outils spécifiques. En particulier, des outils de visualisation temporelle d'un ensemble d'informations parallèlement à la vidéo sont à l'étude. Les informations sont ajoutées à la vidéo sous forme de "partition" ­ comme on représente une partition musicale, chaque piste représentant une information particulière. Ce type d'annotations est utilisé par les linguistes dans l'analyse d'un discours signé. Des outils informatiques ont été proposé afin d'automatiser cette tâche. Un tel document vidéo "enrichi" échangé entres les différents intervenants, permettrait un travail 80
collaboratif, en proposant à chaque intervenant d'ajouter une annotation, sous forme écrite ou bien sous forme de vidéo.
Une telle annotation peut aussi servir à la correction, comme lors de la correction d'une copie papier. Le correcteur doit alors pouvoir travailler sur la langue des signes, à plusieurs niveaux : lexique, syntaxe, etc.
Un outil de visualisation et d'édition de l'espace de signation a été développé permettant de mettre en évidence la forte organisation spatiale du discours en langue des signes. Il peut permettre le support à un cours sur la syntaxe spatiale de la langue ou encore à une correction syntaxique, le logiciel servant à la désignation de l'élement erroné.
Exemple de production de l'éditeur d'espace de signation
Un outil de description assistée des expressions faciales a été développé. Le but est de décrire une expression , ou un ensemble d'expressions, de la manière la plus "naturelle" possible. Cet outil propose un formalisme de description des expressions proche d'une description naturelle, partant de l'hypothèse qu'il est difficile de décrire une expressions de manière objective sous forme écrite. Cependant, un tel formalisme et l'outil permettant de le manipuler doivent être validés par les utilisateurs.
81
Annotateur vidéos "en partition" (arrière­plan) et module spécialisé d'annotation des expressions faciales (avant­plan)
Dans un deuxième temps, l'utilisation de ces outils peut permettre d'envisager une certaine automatisation de l'annotation. Ainsi, une partie des composants du signe (configuration, mouvement, expression faciale) ou du discours (syntaxe) pourront être analysés puis envoyés à un correcteur voire corrigés automatiquement pour certaines erreurs "classiques". La tâche de tels correcteurs automatiques seraient alors de comparer une observation à un modèle, en supposant le formalisme de description fixé, et de mettre en évidence les différences.
3.7.3 Situation 3 : visio-conférence
La troisième situation d'étude correspond à la configuration de visio­conférence, ou visio­
interprétation. Plusieurs personnes sourdes ou entendantes sont éloignées géographiquement et désirent communiquer. Il peut s'agir d'une communication centralisée (type formation à distance) ou « totale », une réunion par exemple.
3.7.3.1
Gestion de la prise de parole
Le système de visio­interprétation WebSourd a été testé dans le cadre d'une réunion entre deux sites géographiquement distants, avec une dizaine de personnes, sourds, entendants et interprètes mélangés.
Il s'est avéré qu'un tel dispositif est insuffisant à une communication efficace dans ce cadre. Outre les problèmes techniques et le placement idéal des participants en fonction de l'angle de vue de la caméra, la prise de parole pose un réel problème. En effet, il est très difficile de distribuer les tours de parole "à travers" les deux sites. Le système de visio­conférence ne permet donc pas, d'abstraire complètement la distance.
L'idéal serait de déléguer la gestion de la prise de parole à une entité externe à la réunion. Il a été envisagé un "animateur électronique", système de vision permettant de détecter, d'un côté ou de l'autre de la réunion, les demandes de prise de parole (cf. 3.1.6 p. 42)
3.7.3.2
Cours de LSF à distance
On suppose ici un service de formation à la langue des signes dont les participants seraient distants géographiquement. Une formation par Internet serait envisageable : chacun des participants (le formateur y compris) posséderait une connexion haut débit à Internet et un système de captation vidéo (webcam).
Les débits des connexions actuelles et l'état d'avancement des compressions ne permettent d'envisager une communication en langue des signes qu'à un nombre réduit de personnes (en 82
incluant le formateur), de l'ordre d'une demi douzaine. Il n'existe actuellement pas de compression vidéo spécifique à des contenus vidéos en langue des signes, alors qu'il existe des compressions spécifiques à des contenus sonores parlés. Il est donc nécessaire de développer un tel type de compression. Il est en effet possible de ne pas introduire trop d'a priori dans le système de compression pour qu'il reste applicable à des vidéos d'humains en interaction (le langage co­verbal, accompagnant la parole revêtant la même forme).
Dans ce contexte de formation à distance, la situation n'est pas la même que dans un cours classique. En effet, la webcam ne représente qu'une petite fenêtre visuelle sur chaque participant. Cependant, il est possible de mettre à profit des outils informatiques pour contr­balancer cet inconvénient.
Ainsi, des outils d'annotations vidéos permettraient au formateur de mettre en évidence les erreurs de réallisation de signes des participants, à destination d'un élève en particulier ou de tout le groupe, formant un "tableau blanc vidéo" partagé Ceci renvoie aux recherches menées sur l'annotation de séquences vidéos de langue des signes. La difficulté supplémentaire est ici d'annoter une vidéo de langue des signes de manière ergonomique et rapide : les systèmes d'annotations existants sont plutôt destinés à une annotation linguistique, systématique et différée. L'annotation se doit de proposer des modules spécialisés : chaque composante d'un signe ayant des annotations pertinentes (emplacement du signe, configuration, expressions du visage, utilisation de l'espace, construction grammaticale, etc.)
Dans un deuxième temps, on peut envisager une automatisation : de l'annotation, via des techniques d'analyse d'images ou de la comparaison entre la réalisation du signe "idéale" (donné par le formateur) et la réalisation de l'élève. Montrer à un apprenant la vidéo de sa production aide déjà grandement à l'apprentissage. Un tel système permettrait de rendre compte des erreurs de manière visuelle, par un système de symboles et codes couleurs judicieusement choisis par exemple.
3.8 Conclusion
Le projet "Usages de l'Internet" a permis d'envisager différentes briques technologiques à développer dans le contexte particulier suscité par WebSourd et ses usagers. Certaines de ces briques ne sont qu'à l'état d'idées et mériteraient des recherches plus approfondies. Les usages présentés dans ce document sont une première idée des applications envisageables à court et long terme pour la communication en langue des signes, via le recours aux nouvelles technologies, et en particulier Internet.
La question des formes graphiques de la langue des signes, fait l'objet d'un projet de recherches annexe en cours (projet RIAM), nommé "LS Script", initié par l'Université Paris 8 et associant WebSourd, IRIS, l'IRIT et le LIMSI.
Les avatars signants sont sujet à débats dans la communauté sourde : il est nécessaire de continuer les recherches sur les besoins de la communauté et l'adéquation avec la faisabilité technologique.
Quelques techniques sont en cours de développement et nécessiteraient une validation et une évaluation auprès de la population utilisatrice, les techniques et scénarios n'étant qu'inspirés de communications informelles avec la communauté.
De plus, d'autres situations et d'autres usages sont envisageables via d'autres technologies. D'un point de vue technologique, par exemple, le développement rapide de la téléphonie mobile, offrant de nouveaux médias de diffusion et d'accès à la communication et à l'information devraient permettre des applications intéressantes pour la communauté sourde. Les techniques et usages repertories ici peuvent s'étendre à des situations qui passent par l'utilisation de supports liés aux nouvelles technologies plus généralement : formation en et de langue des signes, par exemple où 83
l'on n'utilise pas explicitement Internet, mais la vidéo et les technologies permettant de les manipuler.
84
4 - Sous-projet 3 – étude sociologique
Sourds et entendants au travail en LSF
Les usages d’Internet à WebSourd
Sophie Dalle­Nazébi
WebSourd est un terrain d’étude inédit en sociologie pour être une entreprise employant dès sa création une forte proportion de personnes sourdes, misant d’emblée sur l’utilisation de nouvelles technologies, et posant dès le départ le plurilinguisme français­LSF comme principe de fonctionnement. Cette entreprise s’inscrit de plus dans les réseaux de l’économie solidaire pour avoir opté dès février 2004 pour le statut, récemment créé, de Société Coopérative d’Intérêt Collectif.
Le projet de WebSourd est de contribuer à une meilleure participation sociale des personnes sourdes, en construisant un réseau de diffusion d’une information en Langue des Signes Française (LSF) et en démocratisant des dispositifs de communication bilingue Français ­ LSF. Cette entreprise propose en effet, avec ses partenaires, des services d’interprétation à distance utilisant la vidéo et le réseau internet. Elle travaille à la conception de présentation visuelle et de traduction en LSF de contenus initialement présentés en Français. Elle offre sur un site internet une plateforme de grande diffusion de ces documents comme de productions originales visuelles ou en LSF. Ces services s’adressent à toutes les générations et concernent différents secteurs d’informations ou d’actions (administratives, culturelles, sociales, scientifiques ou informations de presse …).
85
Un site internet en LSF et français
A gauche : Traduction de formulaires en ligne. A droite : "Signes en ligne", un service de visio­interprétation en langue des signes dans des administrations françaises. Un outil d’interprétation à distance. Un outil de communication entre locuteurs de LSF
LSF et TIC dans des situations de travail
86
4.1 Penser sourds et entendants au travail en LSF
4.1.1 Problématique
Notre démarche de recherche est basée sur l’hypothèse que les situations de travail au sein de WebSourd donnent à voir les ressources, les potentialités et les difficultés d’une organisation du travail centrée sur une communication visuelle, que celle­ci soit gestuelle, vidéographique ou graphique. Récemment créée, cette entreprise donne la possibilité d’observer la mise en place des relations de travail entre personnes sourdes et entendantes, des personnes de langues, d’expériences professionnelles et de niveaux de formation différents. Elle permet également de suivre les modes d’appropriation, dans ce cadre, des différentes technologies de communication et d’information (TIC), technologies dont les possibilités visuelles sont susceptibles d’être plus particulièrement explorées. L’usage de la langue des signes dans ces deux domaines, celui des relations de travail et celui des outils de communication à distance, est une situation tout à fait inédite, dans le monde de la recherche en sciences humaines comme dans la sphère économique. C’est également sur cette originalité que repose la collaboration de partenaires très hétérogènes, comme, par exemple, le ministère de la culture et de la communication, l’entreprise nationale France Telecom, la Société Coopérative Insite ou le groupe industriel AirBus.
Notre problématique de recherche est donc construite sur la particularité de ce site d’observation, pensé comme un lieu possible d’apprentissages croisés et de gestion du bilinguisme entre sourds et entendants, un lieu de conception et d’expérimentation d’usages visuels des TIC, ainsi qu’un lieu de promotion à plus grande échelle de pratiques de communication et de collaboration entre sourds et entendants prenant en compte la langue des signes.
4.1.2 Travail et LSF : État de l’art.
4.1.2.1
Les sourds et la LSF en entreprise : des lacunes.
Il n’y a pratiquement pas de recherches portant sur des situations de travail où la langue des signes est utilisée, même s’il existe bien des études sur les personnes handicapées dans le monde professionnel, de même que sur la communication interculturelle en entreprise.
Les sourds eux­mêmes figurent pourtant parmi les auteurs de publications sur leurs difficultés en matière d’insertion économique et de formation. En témoignent depuis les années 1950 les actes des différents congrès de la Fédération Mondiale des Sourds, les comptes­rendus de conférences ou de conseils d’administration d’associations régionales ou nationales de sourds, diffusés localement ou à travers la presse sourde. La prise en compte de la langue des signes y reste cependant particulièrement réduite. Plusieurs raisons expliquent cette situation. La Langue des signes, faiblement reconnue socialement, est tout d’abord, de fait, traditionnellement peu pratiquée dans les entreprises. Les personnes sourdes y sont rarement employées collectivement, et connaissent, de manière générale, des difficultés d’embauche. Elles restent essentiellement représentées dans des secteurs de travail manuel et/ou supposant peu de communication. C’est là un effet des formations proposées au sein des institutions spécialisées comme de la conception, par la plupart des employeurs, d’un poste « adapté » à du personnel sourd. Jusqu’au mouvement social français des années 1980 associant des sourds et des entendants pour la promotion de la langue et du statut social des personnes sourdes, très peu de personnes entendantes pratiquent la langue des signes. Ce n’est donc que très récemment que la langue 87
gestuelle des sourds investit l’espace public.
Elle est également très rarement maîtrisée par des scientifiques, y compris par ceux­là même qui étudient les expériences sociales des personnes sourdes, du point de vue de l’ergonomie, du travail social, de la psychologie ou de la sociologie. Dans les quelques cas où la LS est prise en compte dans l’analyse de parcours d’employés sourds et de leurs situations de travail, l’enquête (par entretien ou questionnaire) est paradoxalement menée sans recours à cette langue. Dans les publications scientifiques sur les sourds en entreprise, on ne peut donc trouver aucune observation de situations de travail où la langue des signes est pratiquée.
La reconnaissance empirique actuelle de l’importance de la langue des signes dans la vie quotidienne des sourds reste par ailleurs particulièrement ambigüe. Bien plus que la langue d’un collectif de personnes sourdes qui partagent et se transmettent des manières de faire spécifiques, c’est un moyen d’adaptation propre à une population handicapée qui commence à être reconnu. Ce phénomène concerne plusieurs pays, pourtant marqués par des traditions très différentes de gestion politique de la diversité culturelle et linguistique. Les réponses institutionnelles aux revendications des sourds en France s’appuient, comme au Québec par exemple, « sur un travail de traduction de revendications linguistiques et culturelles en dispositifs d’assistance sociale, une transformation de la notion de citoyenneté en critères d’accessibilité » (Dalle­Nazébi & Lachance, à paraître). Dans cette perspective, des recherches portant sur les expériences professionnelles des personnes sourdes sont destinées à définir des critères d’insertion sociale, à analyser l’adaptation technique de poste de travail ou de dispositif d’accompagnement social de personnes handicapées dans l’entreprise. Elles ne visent tout simplement pas à comprendre des relations interculturelles et des situations de bilinguisme. Dans ce contexte, les entreprises pourtant récemment ouvertes de manière tout à fait nouvelle à la fois à la constitution d’équipe mixte impliquant plusieurs personnes sourdes et à l’usage de la langue des signes (comme Airbus, France Télécom, Delarue assurance…), ne sont pas davantage l’objet de recherches et ne travaillent pas (ou pas encore ?) à la diffusion de leurs réflexions et expériences.
Cette situation explique que les quelques entreprises créées par des sourds mais aussi les nombreuses associations de sourds développant des activités culturelles et sportives, ainsi que des services de formation, d’information et d’aide sociale, n’aient jamais été observées. Ces expériences auraient pourtant leur place dans le cadre d’une réflexion sur l’organisation du travail dans une équipe constituée majoritairement de sourds et utilisant la langue des signes. Il y a là un ensemble déjà ancien de savoir­faire et de difficultés, sur lequel rien n’est publié ou rendu public. Les récits de vie de sourds laissent pourtant entrevoir la richesse de telles expériences, à la fois professionnelles et associatives, comme en témoigne le livre intitulé « Moi, Armand, né sourd et muet… » (2002), co­signé par A. Pelletier et un ethnologue, Y. Delaporte.
4.1.2.2
Les situations où la LSF est au cœur des échanges : des repères.
Si l’on souhaite trouver des points de repères ou de comparaisons dans l’analyse de situations de travail à WebSourd, il faut se tourner vers des publications portant sur des services où la langue des signes est au cœur de l’échange : les cours de langue des signes ou les lieux de travail sur la langue des signes (H. Hugounenq, 2003 ; ASLF, 1980 ; S. Kerbourch, 1997; J.L. Brugeilles, 2003), les services de guidance parentale auprès des familles d’enfants sourds, les services psychologiques spécialisés, les structures scolaires d’enseignement en langue des signes (A. Young & al., 2000 ; C. Mas, 1983; P. Gache & H. Herrier, 1994 ; D. Abbou, 1999 ; B. El Khomsi, 2003), les pratiques d’interprétation (A. Bacci, 1999 ; P. Gache, 1999 ; C. Quipourt, 1999 ; Strickland­Yates G 1999, mais aussi les laboratoires de recherche linguistique sur des langues des signes (A. Young, 2000 ; C. Dubuisson, 1996 ; L. Lelièvre, 1996 ; S. Dalle­Nazébi 2000b, 2005). Les relations professionnelles entre sourds et entendants y sont abordées, sans y être la plupart du temps le sujet de l’étude. Des manières de faire propres aux sourds sont évoquées, éclairant la dimension 88
interculturelle de certaines relations entre sourds et entendants.
Ces études mobilisent les résultats d’analyses anthropologiques des manières de faire propres à des collectifs de sourds en France et en Amérique (Croneberg C.G., 1965 ; Padden C. & H. Markowicz, 1976; B. Mottez, 1981 ; Y. Delaporte, 2002). Sans les reprendre de façon exhaustive, on en évoquera quelques aspects. Elles font également échos à des recherches consacrées à des situations moins publiques de communication interculturelle et de gestion du bilinguisme français­ LSF : le quotidien des familles composées de sourds et d’entendants. La description des processus de constructions identitaires et des pratiques socio­linguistiques qui y sont développées apporte un point de comparaison possible (B. Mottez, 1990 ; A. Bacci, 1997 ; C. Deletra, 1995 ; S. Dalle­
Nazébi, 2000a, 2005). L’ensemble de ces publications constitue des ressources intéressantes pour mettre en évidence quelques thématiques centrales dans l’étude d’activités partagées par des entendants et des sourds locuteurs de langue des signes.
Rapports sociaux sourds/entendants et impact de la LS
La surdité tout d’abord confère un statut social particulier, qui influence les idées que l’on peut spontanément avoir sur les compétences et les responsabilités possibles d’une personne sourde. On connaît l’incidence des rapports sociaux de sexe dans les relations de travail. Les relations entre sourds et entendants sont du même ordre : une collaboration entre sourd et entendant est spontanément perçue comme étant hiérarchisée, le sourd ne pouvant être que l’employé ou l’informateur de l’entendant (A. Young & J. Ackerman, 2000 ; A. Pelletier & al., 2002). Un des aspects « révolutionnaires » de la mise en place de cours de langue des signes dans les années 1980 en France repose sur le renversement de cette hiérarchie : des personnes sourdes devenaient les professeurs de personnes entendantes. Cette réorganisation des rapports sociaux entre sourds et entendants se joue également sur un autre registre, celui de la maîtrise du français écrit. Cette compétence n’a pas été un critère de sélection lors de la création en France de la plupart des services où la langue des signes est au cœur des échanges. La négociation quotidienne de relations sociales plus équitables entre sourds et entendants se joue donc pour une part dans la promotion de la langue des signes. Elle n’a cependant pas fait disparaître les déséquilibres évoqués entre personnes sourdes et entendantes dans l’appréciation de leurs compétences et de leurs responsabilités possibles. L’essor de la langue des signes a été accompagné par la reconnaissance d’une expertise spécifique apportée par des sourds. Mais ceux­ci sont alors bien souvent considérés comme des ressources qu’il convient de distribuer, de répartir, entre les différents professionnels d’une institution scolaire comme d’un laboratoire de linguistique (Dalle­Nazébi, 2000b). Si l’on doit voir dans ces pratiques une valorisation réelle et institutionnelle de savoirs faire propres aux sourds, cette forme de reconnaissance reste pour le moins limitée et perverse, comme en témoigne le récit suivant :
« J’ai pu observer, dans la rubrique des qualifications professionnelles des membres d’un établissement pour enfants sourds, la mention « Adulte sourd ». Quelqu’un d’avisé demanda alors si les études pour obtenir cette qualification professionnelle étaient difficiles et si le métier était bien payé » (D. Donstetter, 1993, p.43).
Les sourds ne peuvent se cantonner à des postes où des savoirs incarnés et intuitifs propres à des personnes sourdes locutrices de LS sont les seuls atouts.
De lourds enjeux portent sur les modes d’accès de chacun à l’information et à la prise de parole (en direct, à distance ou en différé) au sein d’une organisation, qu’elle soit une entreprise ou une association. La gestion des situations d’interprétation et la question des supports de 89
capitalisation des informations ou de communication à distance sont alors des lieux de travail particulièrement décisifs. L’analyse des archives de l’association nationale 2LPE (1980­1988), associant sourds et entendants dans la réhabilitation de la LSF, témoigne de l’importance de ces questions dans la communication et la coordination de ses membres (Dalle­Nazébi, thèse en cours). Elle montre aussi les difficultés pratiques à résoudre ces questions. Les solutions imaginées ont notamment été de développer l’usage de l’outil vidéo d’une part, et de travailler davantage les liens entre français et langue des signes d’autre part. Différentes initiatives en la matière ont été entreprises par des personnes que l’on retrouve aujourd’hui parmi les porteurs et les partenaires actuels de WebSourd. Cette entreprise travaille à promouvoir de nouvelles solutions à travers le système de visio­
interprétation, la diffusion sur internet d’informations en langue des signes, et la valorisation de support de communication visuelle. WebSourd est cependant également concernée par ces questions dans l’organisation de son fonctionnement interne.
Organisation communautaire et définition de l’autorité au sein du groupe de locuteurs.20
Parler de situations où la langue des signes est au cœur des échanges engage à aborder la dimension communautaire des sourds locuteurs de cette langue. La définition des frontières d’un groupe socio­linguistique ne relève pas de critères objectifs intangibles. Les critères d’appartenance ou de non­appartenance sont produits par le groupe lui­même, qui se pense et se construit à travers ce travail. Être un bon locuteur de la langue des signes ne donne pas toute autorité en la matière. Les entendants (enseignants, parents d’enfants sourds ou interprètes), sont amenés à penser leur place au sein du réseau de locuteurs. S’ils peuvent manier la langue, ils ne feraient cependant pas référence : La validation de toute évaluation dans les façons de signer, tout néologisme ou tout anthroponyme, relève de façon tacite mais convenue de l’autorité de personnes sourdes. Il en va de la langue comme des manières de faire. La définition de ce qui est propre aux sourds suppose la validation des intéressés. Le contrôle des pratiques reste cependant difficile. Ceci explique l’ambivalence de nombreux sourds à s’investir dans des collaborations avec des entendants ou à les initier davantage à leurs manières de faire.
Cette question de l’autorité concerne également les sourds eux­mêmes, notamment ceux qui tiennent une place importante dans des processus de transmission ou de diffusion à grande échelle de la langue des signes ou de discours sur les sourds. Ils portent, aux yeux des autres sourds de la communauté, une lourde responsabilité dans ce qui est publiquement transmis. Cette dimension communautaire peut être alternativement perçue comme une contrainte ou comme une ressource. Elle conduit d’une part à différentes formes de consultation des autres membres de la communauté, qui sont des formes d’engagement d’autres sourds. Ce processus est présent dans l’histoire et le fonctionnement même de WebSourd, dont le projet ou différents sous­projets reposent sur des comités de réflexion, de soutien ou des groupes d’expérimentation au sein de réseaux et d’associations de sourds (dont IRIS). Cette distribution de l’autorité engage certaines manières de faire. Le lancement d’un projet de recherche visant la participation de nombreux sourds avec qui les chercheurs ne sont pas déjà en contact suppose la mobilisation de réseaux personnels de sourds ou l’intervention d’associations qui jouent en quelque sorte le rôle de médiateurs. L’appropriation par ce public des « objets » et des services produits par WebSourd suppose la visibilité de l’équipe d’une part et la mobilisation des 20 Cette thématique a été enrichie par les échanges informels avec des membres de WebSourd, ainsi que par les observations de réunions de travail. Elle a également été débattue lors de la réunion de synthèse du projet Usages de l’internet en juillet 2005 à WebSourd.
90
réseaux associatifs d’autre part. Cet aspect communautaire échappe bien souvent aux partenaires entendants ou bouscule leurs propres manières de faire.
Ils n’en ont bien souvent conscience que lorsqu’ils rencontrent des résistances ou quand les sourds contactés ne veulent pas collaborer. Comme des linguistes en témoignent (C. Dubuisson & D. Machabée, 1995), ce fonctionnement communautaire peut conduire à des formes d’auto­censure ou de désapprobation collective des personnes sourdes impliquées.
Des pratiques sociales et linguistiques spécifiques aux sourds.
Cette dimension communautaire n’est curieusement pas souvent considérée comme un phénomène culturel. Certaines formes de présentation de soi et de reconnaissance des pairs mais aussi des règles d’interaction sont plus couramment évoquées pour définir des pratiques culturelles spécifiques aux sourds. Les lieux de scolarisation seraient des repères identitaires importants. Le partage d’expériences scolaires et sociales spécifiques aux personnes sourdes a en effet été souligné par différents sociologues et anthropologues (A.S. Lunde, 1956 ; C. G. Croneberg, 1965 ; Padden & al. 1976; B. Mottez, 1992; Delaporte, 2000). Il permet de rendre compte de représentations communes sur les relations entre sourds et entendants, mais aussi des processus de transmission entre pairs d’une langue des signes et de savoirs faire dans un monde d’entendants. La définition d’une frontière entre « nous » et « eux » est au fondement de toutes cultures et constructions identitaires. Les termes de « sourds » et d’ « entendants » ne renvoient pas forcément à des statuts audiologiques. Ils peuvent recevoir une signification anthropologique et désigner les membres ou les étrangers au groupe culturel « des sourds » (C. Padden ; N. Lachance, 2002 ; Y. Delaporte, 2002).
Les réseaux sociaux de sourds, organisés autour de nombreuses associations régionales, seraient déterminants dans la vie quotidienne et les constructions identitaires de sourds. C’est également là que se reçoivent les anthroponymes, communément désignés comme les « noms en langue des signes » (Delaporte, 2002), et que s’apprennent différentes manières de faire. Les pratiques culturelles des sourds locuteurs de langue des signes impliquent notamment une utilisation spécifique de l’espace et du regard comme l’a montré J.F. Mercurio, ancien directeur des classes bilingues de Poitiers (A. Bacci, 1997 ; D. Abbou, 1999 ; Y. Delaporte, 2002) . Ainsi, les groupes de discussion se font en cercle ; la prise de parole s’appuie sur des échanges de regard ; fermer ou détourner les yeux signifie le refus de l’échange ; interpeller une personne passe par un contact physique, ou, dans le cas d’un appel à distance, par l’utilisation des vibrations au sol ou de la lumière d’un interrupteur, etc.
Sans que ces éléments doivent être remis en cause, il nous faut cependant souligner une folklorisation générale des pratiques culturelles des sourds, qui se joue dans cette mise en liste de traits spécifiques pensés comme immuables. Cette conception figée et essentialiste des phénomènes culturels explique que les définitions qui sont communément données de la culture sourde « ne rendent pas compte de la variabilité des comportements et des pratiques, ni même de la flexibilité des frontières de la communauté et des stratégies identitaires employées par l’acteur social » (N. Lachance, 2002, p.239). Il convient donc de rappeler le caractère transmit mais aussi éminemment interactif et construit des phénomènes culturels.
Les réseaux de transmission linguistique et culturelle de sourds sont notamment susceptibles de se transformer. La politique d’intégration scolaire tend à déplacer les rassemblements de sourds de leurs lieux traditionnels (les institutions spécialisées) vers des réseaux associatifs. Parallèlement, l’essor de la langue des signes permet l’investissement de lieux publics plus diversifiés qu’autrefois (café, cinéma, espace­carrefour des centres urbains…). Les collectifs de sourds existent plus que jamais à travers des réseaux, et sont susceptibles d’investir de manière importante les médias 91
électroniques (S. Dalle­Nazébi, B. Garcia & S. Kerbourc’h, 2005). Penser les pratiques culturelles à travers une série de caractéristiques pré­définies est une pratique courante dans les relations interculturelles. Elles ne favorisent cependant pas la rencontre, puisqu’elles figent « l’autre » dans des manières de faire et de penser résolument « différentes » voir incompréhensibles (Spinelli B. & R. Dolci, 2004, J.R. Ladmiral & al, 1989, Intercultures). Inversement, ignorer la dimension interculturelle présente dans les échanges entre sourds et entendants conduit à des séries de malentendus et de tensions (B. Truffaut, 1982 ; A. Bacci, 1996). Toute différence dans les manières de faire est alors interprétée comme une déviance par rapport à une norme : l’interlocuteur est impoli ou incompétent. 4.1.2.3
La communication interculturelle, un cadre d’analyse.
Ces remarques sollicitent l’attention du chercheur sur les représentations que les personnes rencontrées à WebSourd peuvent se faire des sourds et des entendants, mais aussi sur les modalités de leur collaboration. Elles ont également des implications méthodologiques.
Le chercheur participe au travail d’interprétation des pratiques et des logiques des différentes personnes dans leurs activités. Il pourrait être tentant d’expliquer tout malentendu ou toute difficulté par des inégalités sociales ou des différences de culture, et ceci d’autant plus que de telles interprétations seront inévitablement produites par les personnes rencontrées.
Inversement, les désaccords et incompréhensions entre collaborateurs sourds et entendants sont potentiellement des moments et des « lieux » où se donnent à voir les différentes logiques culturelles. C’est là aussi que peut s’expliciter et s’observer de manière plus tangible les moyens utilisés pour rétablir un dialogue et construire des supports ou des repères de travail communs.
On cherchera donc avant tout à comprendre les logiques guidant les pratiques et à construire des repères d’analyse pouvant guider l’interprétation des actions et des interactions. Compte tenu du cadre de cette recherche, l’analyse présentée ici est focalisée sur les usages d’internet au sein de WebSourd. Elle ne rend pas compte de manière exhaustive de la richesse des apprentissages croisés et des pratiques associés à l’ensemble des documents visuels qui sont produits et qui circulent au sein de cette entreprise. Cet aspect pourra faire l’objet d’une valorisation ultérieure. On se propose d’exposer ici les utilisations, par des sourds et des entendants en situation de travail, des différentes technologies de communication et d’information. 4.2 Méthodologie
Il nous faut insister tout d’abord sur le caractère situé des pratiques associées à internet comme à toute technologie de communication et d’information.
4.2.1 Le site d’observation.
92
■
Si les pratiques observées informent sur les critères de choix pertinents pour des sourds, elles dépendent aussi d’un travail d’appropriation de ces outils par une équipe. Le fait qu’un média de communication soit partagé, utilisé, par plusieurs de leurs interlocuteurs est un des critères importants de choix mentionnés par les membres de l’équipe de WebSourd, qu’ils soient sourds ou entendants. ■
Le travail en entreprise apporte également un certain nombre de contraintes qui ne doivent pas être sous­estimées. – Elles tiennent d’abord à la gestion du temps : cette pression joue sur le choix du média. Elle conduit parfois à choisir le média le plus rapide et non pas le plus confortable. Elle limite également l’exploration de nouveaux outils de communication, comme l’utilisation et la comparaison de différents environnements de chats vidéos (exploration réalisée par une seule personne à WebSourd). – L’omniprésence de l’écrit est une autre forme de contrainte propre au monde du travail, et du secteur tertiaire en particulier. Il est au cœur du fonctionnement de la plupart des entreprises partenaires de WebSourd. Il est également imposé par un certain nombre de procédures administratives et légales.
■
Les pratiques décrites sont par ailleurs observées à un moment particulier de la vie de l’entreprise et sont susceptibles d’évoluer. WebSourd est une jeune société coopérative où l’on travaille toujours à définir les différents postes professionnels, l’organisation générale et les modes de collaborations avec les partenaires extérieurs. - Contrairement à la plupart des études sur les TICs en entreprise ou dans la recherche 21, il ne s’agit pas d’observer l’introduction d’une nouvelle technologie dans une organisation du travail pré­existante, qui se verrait ainsi renforcée ou transformée. Modes de communication et types d’organisation se pensent et s’expérimentent ici d’emblée de façon conjointe. - Ce travail collectif implique plusieurs traditions professionnelles et culturelles apportées par les différents employés et partenaires de WebSourd. Les TICs y sont donc également un « lieu » de médiation potentiel.
- Compte tenu de ces caractéristiques, il existe à WebSourd une ouverture et une grande flexibilité concernant le type d’outils utilisables et le type de pratiques associées. La gestion du temps de travail et la recherche de quelques « éléments de routine » limitent cependant l’investissement dans des expérimentations socio­techniques et expliquent qu’elles puissent être étalées dans le temps. 4.2.2 Étapes de la recherche
L’analyse des usages d’internet s’appuie sur plusieurs périodes d’ observation (voir tableau en annexe 5).
■
Un premier travail exploratoire a été réalisé de novembre 2003 à avril 2004. Au début de cette période, l’équipe, récemment constituée, disposait de relativement peu d’outils de communication à distance (email, téléphone audio, fax). L’installation d’outils plus diversifiés d’internet (Wifi, distribution de WebCam, installation d’un poste de visio­conférence, partage d’espace informatique entre partenaires) a été réalisé à la fin de cette période d’observation. Certaines personnes avaient alors déjà expérimenté à titre privé et de façon récente l’usage de 21 L. Garton & B. Wellman, 1995 ; M. Grossetti, 1997 ; M. Grossetti & al., 1996 ; Voir les actes des IXèmes Journées de sociologie du travail, 27­28 nov. 2003, Paris, et notamment les contributions de N. Valière; D. Combrouze ; I. Bazet. 93
la WebCam. Par ailleurs, cette période d’observation correspond à celle de la vente, par WebSourd, des services de visio­interprétation. Une familiarisation avec ces outils a précédé donc leurs usages dans l’entreprise. Ils s’accompagnent cependant dans les deux cas d’un changement de contexte : – passage d’une utilisation domestique de la WebCam à un usage professionnel,
– transposition de la visio­interprétation conçue pour des situations publiques, auprès des services administratifs, vers le domaine d’activités professionnelles de communication à distance entre partenaires.
■
Le travail d’analyse des usages d’internet s’est déroulé de novembre 2004 jusque début juillet 2005. Par rapport à la phase exploratoire, l’équipe s’est agrandie et s’est davantage approprié les outils de communication à distance. En plus du téléphone audio, des téléphones portables (SMS), du fax et d’un serveur local (mettant à disposition de l’équipe reportages vidéos sur WebSourd et écrits administratifs), l’équipe utilise désormais email écrit et vidéo, chat écrit et vidéo, ainsi que le logiciel E­conf sur un poste fixe permettant d’utiliser le service d’interprétation à distance. Ce poste changera plusieurs fois de place, jusqu’à ce que l’environnement correspondant à son utilisation à WebSourd soit trouvé. Trois des partenaires de cette entreprise (IRIS, INTERPRETIS, VISUEL­LSF) disposent également d’un poste e­conf, pour lequel des positionnements différents ont été choisis au sein des espaces de travail. La phase exploratoire et cette comparaison ponctuelle entre sites servent ici de contre­points pour comprendre le travail d’appropriation des TICs à WebSourd. Une première démarche a donc consisté à s’intéresser à ce qui avait changé, dans le temps, ou entre sites. Deux des partenaires de WebSourd, IRIS et INTERPRETIS, sont également investis dans la conception et la production de différents services développés par WebSourd. Ils partagent un espace informatique permettant la mise en commun d’information et d’objets vidéos. CRP, OCTAVO, INSITE et NUANCES DU SUD sont aussi les partenaires actifs de la mise en forme et en ligne du site de WebSourd. Ils sont donc impliqués dans un travail à distance d’échanges d’objets et d’informations. Pour avoir été perçu trop tard, cet aspect­là du travail de WebSourd ne sera pas décrit. La liste des outils de communication à distance au sein de WebSourd n’est pas destinée à être close. Certains membres de l’équipe explorent de nouveaux environnements pour des technologies déjà en usages (comme pour le chat : MSN, mais aussi Visio­Wanadoo…), tandis que des partenaires s’investissent dans la recherche de support de travail plus visuels (comme les schémas heuristiques)… La question des supports graphiques de travail collaboratif en interaction directe ne sera pas traitée de manière exhaustive ici. Il convient cependant de souligner ici que certains outils de travail (logiciels libres comme SPIP, FreeMind…) sont « apportés » par une communauté d’internautes et peuvent « impliquer » l’entreprise (et les réseaux sur lesquels elle s’appuie), dans cette communauté. C’est là un aspect inattendu des usages d’internet à WebSourd.
Comme dans la première étape de la recherche, une partie de l’enquête repose sur l’observation de différentes situations de travail (avec prise de notes et/ou enregistrement vidéo) et sur la « collecte » de documents. Ceci répond à un triple objectif : 1. s’informer sur les projets en cours, l’organisation du travail et ses difficultés ainsi que sur les nouveaux partenaires,
2. observer la nature des supports de travail collectif,
3. observer ce qui circule de main en main comme par voix électronique.
Cette démarche permet de comprendre les utilisations des outils internet dans le fonctionnement de l’entreprise et leurs enjeux.
94
Cette analyse s’est poursuivie à travers une série d’entretiens avec des personnes de WebSourd et certains de leurs partenaires. L’objectif était ici de mieux comprendre la logique de leurs pratiques et de découvrir les outils et usages qui m’avaient échappé ou que je ne n’avais pas pu observer. Afin de se confronter à la réalité des pratiques et des situations décrites, certains entretiens portant sur les usages d’internet ont été réalisée à distance, à l’aide de ces mêmes outils. On reconduit ainsi la démarche engagée par Grossetti & al. (1996). Les outils mobilisés sont cependant plus diversifiés et utilisés dans ce contexte très particulier de situations de travail bilingues français­
LSF. Si l’on est conscient des limites d’expression (et de prises de notes) que cela implique, cette expérimentation des possibilités comme des frustrations apportées par ces situations de communication a été bénéfique pour l’analyse.
4.2.3 Une situation originale de travail
Il nous faut insister sur la particularité des situations de travail observées. Elle oriente en effet le type de questions qu’un sociologue peut se poser. On avait envisagé, au début de cette étude, de modéliser sous forme de schémas la distribution du travail à WebSourd. Il s’agissait de montrer les liens entre statut professionnel, ou type de travail, et compétences linguistiques, ou appartenances identitaires. Ceci permettait de comparer ce site d’observation avec des études de laboratoire de recherche linguistique associant sourds et entendants. Il s’agissait également de prendre en compte les éventuels changements de langue en fonction du contexte et de l’interlocuteur. Une comparaison était possible ici avec les études réalisées auprès de familles composées de sourds et d’entendants. La comparaison s’est révélée fructueuse. Ces efforts de modélisation ont servi de révélateurs : il est très difficile de décrire les situations de travail et de communication observées à WebSourd à partir des repères d’analyses construits sur ces autres terrains (laboratoires de linguistiques et familles). Dans certains laboratoires de recherche linguistique spécialisée, comme dans beaucoup de situations de travail offrant des services où la LSF est au cœur de l’échange, les sourds sont reconnus, avant tout autre statut, comme des experts de la Langue des signes considérée (cf état de l’art). Pour décrire leur fonction professionnelle, il « suffit » de reconstruire la chaîne de production, d’utilisation ou de traitement de cette langue. Les sourds y sont étroitement associés, au détriment de toute autre fonction. Leurs savoirs faire sont alors fortement liés à l’organisation du travail de ces milieux professionnels. La distribution des tâches à WebSourd ne repose pas de manière prioritaire sur des compétences linguistiques. C’est là une situation tout à fait originale, qui concerne aussi bien les entendants que les sourds. Ceci n’empêche pas que la langue des signes soit posée comme « la langue de travail », c’est­à­dire la langue de toute communication orale. C’est même là une autre de ses particularités. Le français est utilisé entre entendants dans des situations informelles en dehors des temps de travail collectifs. Ceci peut éventuellement conduire à des pratiques d’interprétation en différé, sans être ni obligatoires, ni systématiques. Le français est également utilisé en situation de travail par des non locuteurs de LSF, membre ou partenaire de WebSourd. Ceci explique l’intervention d’interprètes professionnels. Les situations informelles d’échanges entre sourds et entendants non locuteurs de LSF, sont marquées par une diversité de stratégies déjà expérimentées par les sourds dans leur vie quotidienne : recours à l’écrit, au mime, à un médiateur impromptu, et, parfois à un interprète professionnel. Cette logique de gestion de la diversité linguistique, qui incite à l’apprentissage de la LSF et à 95
la pratique du français écrit, est très différente de celle observée dans les milieux professionnels et familiaux évoqués. La LSF y est globalement perçue comme la langue permettant l’expression et la participation des personnes sourdes. Elle n’est pratiquement jamais la langue du groupe, que celui –ci soit une famille ou un laboratoire. Du point de vue des interactions linguistiques, WebSourd est à comparer avec le milieu associatif de sourds, mais aussi avec quelques services où la LSF est au cœur de l’échange, comme les services d’éducation en LSF en particulier.
Ceci explique par ailleurs que la connaissance de la LSF soit un atout non négligeable pour mener ce type de recherche, mais aussi que l’utilisation de la vidéo est ici incontournable. Elle a été utilisée dans le cadre de certains entretiens, mais aussi pour garder la trace d’échanges en LSF ou de certaines pratiques de travail pendant les réunions. Ce matériau n’est pas montré ici. Il fait pourtant parti du travail de terrain et de collecte de données au même titre que peuvent l’être les prises de notes ou les enregistrement audio dans d’autres contextes. 4.3 Analyse des usages d’internet à WebSourd
4.3.1 Partir du regard des utilisateurs.
Proposer une analyse des usages d’internet à partir de la liste des outils considérés induit une interprétation des pratiques à partir des seules fonctionnalités techniques des média. Ce type de présentation a donc été évité dans un premier temps. Pour rentrer dans la logique des pratiques, on reprend d’abord ici les critères explicites mobilisés par les personnes de WebSourd pour expliquer leurs choix de communication. C’est à l’intérieur de ce cadre que sont discutées les contraintes, ressources ou stratégies techniques, linguistiques ou sociales relatives aux différents média. L’analyse compréhensive des usages des TICs au sein de WebSourd repose aussi sur les pratiques observées venant en quelque sorte « discuter » ou « questionner » les pratiques telles qu’elles sont présentées.
Il existe au sein de WebSourd un consensus sur deux principaux critères guidant le choix et le mode d’utilisation des médias : la situation de travail et les compétences en français écrit. Un troisième critère apparaît ensuite rapidement, et repose sur l’idée qu’il faut utiliser le même média que son interlocuteur pour le toucher, ou recevoir une réponse de sa part : il faut donc prendre en compte, en plus de ces premiers critères, les habitudes de son interlocuteur.
La présentation des grandes catégories de travail pertinentes, en matière d’usages des TICs, pour le personnel de WebSourd, sera l’occasion de construire quelques repères de recherche. Elle débouche sur une analyse des caractéristiques de ces outils en fonction de la place de ceux­ci au sein d’une collection, et en fonction du contexte socio­linguistique et interculturel propre à WebSourd.
Les deux autres critères de choix mobilisés par le personnel de WebSourd (les compétences en français et les habitudes de l’interlocuteur), seront l’occasion de revenir sur quelques­uns des enjeux et des usages d’internet qui semblent spécifiques. Ils permettent d’évoquer la manière dont des sourds se débrouillent avec une organisation du travail et des outils de communication à distance qui sont tous les deux largement investis par le français écrit. 4.3.2 Un choix contextualisé : média et situations de travail
4.3.2.1
Premiers repères
Les situations de travail sont essentiellement définies par les personnes de WebSourd en fonction du caractère formel ou informel de l’échange.
Dans le cas de situations formelles, sont évoquées :
96
– les questions d’assurance et de démarches légales
– la diffusion collective d’informations courantes,
– l’envoi d’injonctions précises – et les demandes formelles de validation de procédures ou de rendez­vous. ■
Les échanges à distance son engagés pour faire savoir ou faire faire des choses. Ils doivent aussi permettre de faire preuve. On retrouve ici les fonctionnalités de l’écrit mentionnées par B. Fraenkel (2002b) (en référence aux pratiques graphiques des infirmières). L’interaction directe entre les interlocuteurs ne semble pas prioritaire. C’est l’importance d’une trace de l’échange qui est soulignée. Cette trace est par ailleurs susceptible d’être conservée sur un autre support pour être archivée ou pour être utilisée comme document de travail.
■
L’image associée à ce type de situation est celle de l’émail écrit en français et des « objets » traditionnels qu’il fait circuler (inclusion d’un autre ou d’un ancien message dans l’envoi, copie d’un texte ou extrait de texte dans l’email et document écrit attaché).
Les situations informelles renvoient quant à elles au monde de l’explication et de l’interaction, à l’image d’une discussion orale entre collègues partageant un même espace de travail ou collaborant sur un ensemble de tâches. ■
Les interlocuteurs veulent s’assurer qu’il y a bien inter­compréhension. Ils veulent contrôler la situation d’interaction : interpeller, s’adapter, réagir, montrer, intervenir, orienter ou réorienter un travail comme une réflexion. Il s’agit de situations très diversifiées où l’essentiel du dispositif consiste à assurer la co­présence des interlocuteurs et un confort de communication. ■
Il s’agit – soit de « faire ensemble », en organisant à travers des échanges parfois très courts une action concertée ou la coordination des interlocuteurs ;
– soit d’élaborer ou de partager des savoirs­faire, en discutant en profondeur sur des procédures et des démarches de travail.
■
De telles descriptions de situations de coordination à distance renvoient avant tout au caractère frustrant d’une communication médiatisée: les outils y seraient lourdement présents, embarrassants :
– soit parce qu’ils imposent un échange par écrit et en français – soit parce qu’ils apportent un cadre contraignant de communication en LSF à distance (obligeant à « cadrer » les signes et offrant une piètre visibilité) et de manipulations (par la lourdeur des procédures associées à l’utilisation de la vidéo).
Les média utilisés dans ces situations de travail informel sont alors appréciés en fonction de la capacité des outils à se faire oublier et du type d’interactivité qu’ils permettent. L’utilisation des différents médias en fonction des types de situations de travail est rapidement ramenée, dans le discours du personnel de WebSourd, a des différences de langues. Le choix peut donc paraître simple. Si la diversité des outils permettrait de s’adapter aux compétences et préférences de chacun, la logique générale d’utilisation des TICs, quand des sourds sont impliqués dans l’échange, serait la suivante : – le français écrit pour les situations formelles, avec des rapports à l’écrit différents dans le cas d’un Email, du Chat (plus interactif et imagé), et d’un dispositif encore à construire qui serait de la 97
Visio­traduction.
– la LSF pour les situations informelles, avec des dispositifs plus ou moins confortables en termes d’interaction et de confort visuel : Email vidéo, Chat(s) vidéo, poste fixe avec le logiciel e­conf (avec ou sans visio­interprétation selon les compétences des interlocuteurs en LSF).
Une forme de spécialisation des situations de travail passant par l’oral ou par l’écrit se trouverait en quelque sorte matérialisée dans les outils de communication et dans les langues utilisées (LSF / français).
4.3.2.2
Des repères qui n’expliquent pas tout.
Cette analyse a sa pertinence. Elle explicite notamment les représentations que sourds et entendants d’une même société partagent sur les fonctions sociales de l’écrit. Elle ne rend cependant pas compte de l’ensemble des pratiques et notamment de celles qui sont les plus surprenantes pour des personnes en difficulté avec le français. Elle ne permet pas de comprendre comment se fait la coordination du travail dans le contexte de WebSourd.
■
Pourquoi par exemple une personne sourde, qui se dit peu à l’aise avec le français, utilise t­
elle régulièrement le chat écrit (MSN), y compris avec des personnes présentes sur les mêmes lieux de travail ?
■
Pourquoi certaines discussions, entre sourds, portant sur des manières de faire, ont lieu par email écrit, alors même que les limites de ce média sont parfois évoquées au cours de l’échange (« demain je t’expliquerai, direct en LSF », « on en reparlera ») ?
■
Pourquoi les emails vidéo, alors même qu’ils sont pensés comme une forme d’écrit, ne sont pas perçus comme un objet pouvant faire preuve ? Qu’est­ce que l’écrit ? Comment penser les emails vidéo ? ■
Comment penser l’organisation et la coordination du travail si la plupart des informations formelles, des directives, des lieux et ordres du jour de réunions ainsi que leurs comptes­
rendus passent par des emails en français écrit, une langue très inégalement maîtrisée par les membres et les partenaires de WebSourd ? …
Les recherches portant sur les « écrits au travail », reposant sur l’observation de situations, montrent « le chevauchement constant de l’oral et de l’écrit » (B. Fraenkel, 2001, p.123). Cette opposition est­elle donc toujours opératoire ? Pourquoi, dans l’analyse des pratiques, restreindre l’écrit aux relations formelles ? Que faire des nombreux écrits manuscrits produits par le personnel de WebSourd, destinés à alimenter les comptes­rendus ensuite diffusés par internet ? Doit­on faire abstraction des documents, également diffusés par voie électronique, utilisés pendant les réunions de travail, ces moments privilégiés d’échanges en LSF ? Doit­on ignorer l’ensemble des postits, plannings, emails, coupures de presse et organigrammes affichés, qui « peuplent » l’environnement de travail à WebSourd comme dans de nombreuses autres entreprises ? L’écrit apparaît comme un objet éminemment visuel, servant de supports à des échanges de paroles, et servant de repères dans le déroulement de différentes activités. Ces documents, qui transitent pour une large part dans les réseaux électroniques, représentent des ressources cognitives et communicationnelles pour un travail mené à distance comme en interaction directe. Les études développées depuis une vingtaine d’années sur le langage et le travail, dans les entreprises comme dans les laboratoires de recherche, invitent à reconsidérer notre manière de penser les pratiques conceptuelles, graphiques et langagières22.
22 A. Borzeix & B. Fraenkel, 2001 ; Amman & Knorr­cetina, 1990 ; Colloque ARTCO 2005 (notamment les 98
■
Tout d’abord, beaucoup des écrits de travail sont des écrits « situés » : ils tirent leur sens des situations dans lesquelles ils sont produits ou utilisés. Comme le souligne B. Fraenkel, nous avons tendance à penser le rapport à l’écrit à partir d’un contexte qui reste exceptionnel dans le monde du travail : Le livre « est d’une certaine façon son propre univers, le lecteur y est « pris », absorbé, coupé du monde, il ne fait que lire, il est seul et d’une certaine façon il vit dans le livre qui devient momentanément son contexte. Cette situation de lecture tout à fait exceptionnelle nous sert pourtant à penser la lecture en général. Or ce rapport­là à l’écrit est peu courant au travail. (…) car souvent les écrits de travail ne peuvent être interprétés sans le recours à des éléments situationnels. » (B. Fraenkel, 2001a, p. 126)
Les pratiques de communication prennent leur sens dans des univers de travail dont il faut tenir compte. Les échanges d’objets et de paroles utilisant les technologies d’internet s’inscrivent dans une histoire. Quelles actions préparent ou permettent­ils ? Qu’est­ce qui se construit à travers eux ? ■
Le langage est un élément crucial des activités de travail. Il permet de diriger, contrôler, modifier et coordonner les activités d’autres personnes. Il structure et transforme d’autres activités. Le partage d’une « vision du monde » au sein d’un corps professionnel, permettant d’anticiper les actions de l’autre et de partager des critères d’interprétation et d’adaptation à différentes situations, passe pour une large part par la parole (qu’elle soit vocale ou gestuelle). Le langage est une activité de travail en soi, qui prend également son sens en contexte. Les actes de parole s’inscrivent dans un espace et dans un ensemble de pratiques, auxquels ils font référence. Qu’est­ce qui est impliqué dans l’usage d’un outil de communication ? Quelles pratiques y sont associées ? Comment se joue le partage d’un environnement spatial et temporel de travail ? La compréhension des usages des TICs suppose aussi de penser les liens et les passages entre différents outils. ■
Cette attention au caractère situé des usages des TICs amène une réflexion sur les supports. Questionner la dimension matérielle des activités de langage est peut­être plus pertinent que de réfléchir sur la seule opposition entre écrit et oral. La nature du support d’une inscription, ou de ses supports possibles, intervient dans la définition du statut d’un document. Elle oriente sa lecture et cadre ses utilisations. Le texte d’un email peut par exemple être imprimé, tandis qu’un « email vidéo » n’est qu’un objet attaché à un courrier électronique. Une fois imprimé, il devient un objet aveugle : Présent par une icône, il reste invisible quant à son contenu et même quant à son auteur. Ceci nous engage à repenser la collection des outils d’information et de communication à contributions de D. Faïta, J. Boutet, Ch. Goodwin, L. Mondada) : http://sites.univ­
lyon2.fr/artco/accueil.html
99
distance utilisés à WebSourd. 4.3.2.3
Repenser la collection des outils.
Considérer deux groupes d’outils l’un médiatisant de l’écrit, l’autre de la vidéo, n’est pas toujours pertinent en termes d’usages. Quelle similitude de pratiques observe t­on entre – la production d’un discours en LSF sans interlocuteur où le contexte doit être explicité, le message préparé, voir répété, avant d’être envoyé, attaché à un email écrit,
– et une discussion en LSF médiatisée par une caméra et un dispositif informatique, mais réalisé en interaction avec l’interlocuteur ?
Il s’agit dans le premier cas d’un échange d’objet, et dans l’autre d’un dispositif particulier d’interaction visuelle. Inversement, il existe des usages très diversifiés de l’écrit électronique. Les signes utilisés, en LSF, pour désigner du chat écrit et un email écrit, rendent compte de ces différences. « MSN » évoque des tours de parole et/ou l’annonce qu’une personne s’adresse à vous (par le mouvement d’une icône sur le bureau de l’ordinateur). « Email » associe le signe graphique @ indiquant le principe de diffusion, à l’espace d’une page (matérialisée par la main gauche).
Associer, comme je l’ai spontanément fait, email écrit et email vidéo, MSN écrit et MSN vidéo, visio­conférence et visio­interprétation, ne permet pas davantage d’isoler des pratiques qui, bien qu’utilisant des langues différentes, seraient globalement du même ordre. Le partage d’un environnement informatique (la messagerie électronique), pas plus que le partage d’un outil (la webcam par exemple), ne conduit pas aux mêmes pratiques. Si un email vidéo peut, comme un email écrit, être considéré comme un objet, il lui manque probablement cette dimension spatiale, cette « surface » stable, pour être manipulé, et utilisé, de la même manière. Les conditions de communication en LSF via e­conf ne sont pas similaires quand l’interlocuteur est la personne à qui s’adresse le message, ou quand elle est un interprète qui médiatise l’échange avec une autre personne, absente du champ du visuel, et qui s’exprime en français. On se propose donc, pour comprendre les usages d’internet, de considérer Email écrit, email vidéo, chat écrit, chat vidéo, poste fixe econf, poste de visio­interprétation, comme des situations de communication distinctes, où se développent des pratiques différentes, et cela quand bien même seraient partagés des espaces, des objets ou des moments de travail. Il convient de la même manière de penser comme des situations « indépendantes » la visio­interprétation en vis­à­vis (comme dans les démarches administratives) et la visio­interprétation entièrement « téléphonique » (comme à partir de WebSourd). L’utilisation de ce même dispositif de visio­interprétation à des fins de traduction serait encore une troisième situation de communication, impliquant des pratiques différentes. Il est possible que des services d’interprétation ou de messagerie écrite ou vidéo à partir cette fois du site internet de WebSourd, donnent lieu à des pratiques spécifiques, ne reprenant pas forcément les logiques d’interaction et de communication associées aux mêmes outils dans d’autres environnements.
La diversité et les spécificités des usages d’internet se trouvent ainsi mises en valeur. Cela permet également de penser en quoi l’articulation de ces différents médias entre eux, et le passage de l’un vers l’autre, sont des lieux de travail. À partir de quel critère doit­on maintenant repenser notre collection ? Les usages d’internet à WebSourd sont pour une part prescrits. Ils s’inscrivent dans le champ plus large des réseaux de circulation des informations dans le monde du travail comme dans l’espace public. Ici, l’email écrit s’impose dans la sphère du travail, tandis que le chat écrit, et plus particulièrement MSN, semble mobiliser de manière également importante un réseau plus public de relations.
100
4.3.3 Les pratiques en cours
4.3.3.1
L’email écrit
Une donnée incontournable.
L’arrivée d’un nouveau salarié à WebSourd est aussitôt suivie de l’envoi collectif de l’adresse email que lui octroie l’entreprise. La messagerie électronique apparaît comme le média de base de gestion collective de l’information et de la communication. Il ne s’agit pas forcément d’équiper un travail à distance mais d’organiser une distribution aussi bien collective qu’attitrée de l’information, et d’en permettre un traitement différé dans le temps. L’utilisation des emails contribue à formaliser des groupes de travail. WebSourd possède ainsi une liste de diffusion de « l’équipe », circonscrivant un réseau de communication interne, une liste « websourd » qui concerne toujours l’équipe mais qui isole une catégorie d’informations, émanant ou concernant les associations de sourds, et une liste « technique », transversale à plusieurs entreprises. De nombreux échanges concernent également des sous­groupes de travail. La messagerie électronique est utilisée pour distribuer dans un même geste un message destiné à certaines personnes, et l’information sur cet échange, à d’autres personnes, placées « en copie ». Ces différents destinataires ne sont pas impliqués de la même manière, et le statut de l’email n’est pas le même dans les deux cas. S’il s’agit de l’annonce d’une réunion par exemple, les principaux destinataires doivent y lire une injonction de s’y rendre, ou de prévenir en cas d’empêchement. Les autres, placés en copie, sont invités à y participer ou, selon l’histoire de cet email, simplement informés de sa tenue.
À WebSourd comme dans d’autres entreprises, la distribution de l’information par email contribue à structurer des relations de travail. Elle est également un moyen de coordination. Par ce média circulent de nombreuses informations sur des rendez­vous collectifs, des comptes­rendus de réunion, mais aussi, comme cela a déjà été précisé, des annonces et des demandes plus officielles. Beaucoup de ces échanges ont pour fonction de compléter des informations de manière très brève, de rappeler des rendez­vous et de fournir les traces d’un échange qui a déjà eu lieu (comme les comptes­rendus). Ils viennent donc valider ou formaliser des actions déjà engagées « ailleurs ». Il est difficile d’avoir un regard exhaustif sur ce qui circule par email dans une entreprise. Il semble cependant que ce média soit globalement dédié par l’équipe de WebSourd à ce type de tâches. Ceci n’est pas forcément explicite pour les partenaires extérieurs. Devant des difficultés d’organisation qui ne sont pas toujours comprises, ceux­ci s’appuient sur des « personnes relais », chargées de prendre en charge localement ce qu’ils n’arrivent pas à gérer à distance : centraliser des informations, coordonner l’équipe et ses partenaires.
101
Des repères communs en question.
Les emails écrits semblent être, aux yeux même des employés, une donnée incontournable du monde du travail. La question de leur technicité et celle du temps que prennent des opérations devenues routinières comme de joindre un compte­rendu ou d’effacer et de classer les messages, ne sont jamais abordées lors des discussions.
Penser la formulation et l’organisation spatiale d’un email en fonction des actions que l’on attend en retour est un travail qui n’est jamais évoqué. Il est pourtant visible dans certains emails qui circulent au sein de WebSourd. L’espace y est largement occupé, laissant respirer le message par de nombreux sauts de ligne entre les phrases et paragraphes. La couleur y est parfois utilisée pour préparer la lecture de différents interlocuteurs selon différents thèmes de travail. Il semble pourtant que cette attention à la forme du message soit spécifique. Ici plus qu’ailleurs, l’incidence de la mise en mots et de la mise en espace est pensée comme un élément central de l’échange.
Le temps investit dans l’utilisation des emails écrits et leur aspect pesant sont exclusivement associés dans le discours des employés
– soit à leur nombre trop important, qui, comme dans toute société d’informations, viendrait brouiller la transmission des messages,
102
– soit à la langue qui y est utilisée, le français.
Le premier point concerne de nombreuses entreprises (N. Valière, 2003 ; H. Assadi & J. Denis, 2003), et souligne l’importance considérable que joue la communication et les TICs dans l’organisation et la réalisation de nombreuses activités professionnelles. Le second est plus spécifique. Sourds et entendants sont ici particulièrement sensibles au travail de formulation et d’interprétation des écrits qui transitent entre eux par la messagerie électronique. Le recours à l’écrit est marqué par la crainte du malentendu, du contre­sens, et par le sentiment de ne pas maîtriser totalement la communication qui s’y joue. Ceci explique sans doute que les nombreux emails échangés en interne soient dans leur majorité des échanges brefs, allant droit au but et prenant de ce fait un aspect plus formel.
Les analyses traditionnelles de l’email écrit ne s’appliquent alors que partiellement à la situation spécifique de WebSourd. Le courrier électronique a en effet été présenté par de nombreux observateurs comme un média permettant une communication plus rapide, précisément parce qu’on ne s’y embarrasserait pas avec les formalismes.
« les courriers sont rédigés rapidement, la relecture est rare (ou du moins n’est pas systématique), les correspondants consacrent souvent une faible attention à la forme (orthographe, présentation, civilités). (…) dans les forums comme dans les courriers, il est inconvenant de faire allusion à des fautes d’orthographe ou de style, à des maladresses. » (Akrich & al, 2000, p.166)
Cette tolérance vis­à­vis du style et de l’orthographe est un aspect intéressant pour des sourds peu à l’aise avec l’écrit. Mais elle n’efface pas toutes les appréhensions. Contrairement à ce qui est communément dit du courrier électronique (L. Mondada, 1999, Ph. Hert, 1999, Akrich & al, 2000), ces formes d’écriture ne se rapprochent pas, aux yeux des sourds, d’un mode de communication « oral ». Les emails restent pour eux attachés à l’univers de l’écriture et aux efforts qu’il suppose. Les emails ne s’écrivent pas forcément vite à WebSourd. Tout dépend du sujet, de l’interlocuteur, des échanges déjà engagés ailleurs sur le sujet… Ils ne sont cependant pas plus élaborés que les emails « traditionnels » : on n’y fait pas plus attention à la ponctuation ou à la contextualisation des messages. Or c’est là que se joue un des effets pervers de l’email : « Les malentendus ne sont pas rares, liés à des rédactions rapides, des plaisanteries mal comprises ou mal exprimées, des expressions à demi­mot, de décalages temporels entre l’action et la réaction. » (Akrich & al., 2000, p.167)
Le décalage temporel entre écriture et lecture d’un message est un atout de ce mode de communication, permettant à chacun de gérer son temps de travail. Mais il est également une des difficultés apportées par ce média. Le courrier peut être écrit rapidement après un échange ou dans un contexte particulier éventuellement partagé avec l’interlocuteur. Le caractère situé du message reste implicite. Ceci pose des problèmes d’interprétation pour celui qui le reçoit et le lit dans un tout autre contexte (L. Sproul & S. Kiesler, 1986). Ce problème de contextualisation est amplifié chez les sourds, et notamment dans des échanges entre sourds et entendants. Il y a deux raisons à cela.
1. Sourds et entendants ne maîtrisent pas forcément les codes, non pas linguistiques, mais culturels d’utilisation de l’écrit de leurs interlocuteurs.
Comme en attestent les propos de cette enseignante, écrire implique des manières culturelles de faire et de dire : 103
« L’écrit des élèves sourds est (…) un écrit qui « sonne étranger ». Pour lire le français, l’élève a besoin de connaître des éléments de la culture de celui qui écrit et de ceux pour lesquels il écrit, ou d’être accompagné pour saisir tout ce qui est d’ordre culturel. Pour l’écrire, il doit avoir intégré ces codes et les maîtriser. Les compétences ne sont pas les mêmes. On observe donc qu’il ne s’agit pas seulement d’apprendre la grammaire, la syntaxe et le lexique aux élèves pour qu’ils sachent écrire. Ils doivent également prendre en compte toute une dimension culturelle qui va de la manière de nommer une personne à l’écrit à la façon d’argumenter en français écrit. » (B. El Khomsi, 2003, p.80)
Parce que les sourds doivent s’approprier les manières de faire qui sont ancrées dans des pratiques d’écritures, ils doivent prendre conscience de différences de repères. Les entendants n’ont pas toujours cette réflexivité. Elle est pourtant nécessaire au développement de WebSourd qui souhaite s’adresser, à travers son fonctionnement, ses services et ses produits, à un public qui n’a pas forcément cette culture de l’écrit. Les repères et manières de faire des sourds ne sont pas destinés ici à être abandonnés. L’importance d’une nécessaire prise à distance des références à la fois professionnelles et culturelles des entendants et des partenaires de WebSourd se ressent cependant plus fortement sur des projets de travail (la conception du site notamment) que dans l’organisation de la communication interne.
2. L’explication des incompréhensions qui peuvent exister entre eux n’est jamais recherchée dans le média ou le dispositif de communication lui­même. Alors que le phénomène de production rapide et d’absence de contextualisation des emails peut couramment susciter des malentendus, ceux­ci sont spontanément ramenés à ce qui fait « différence » entre des interlocuteurs sourds et entendants, ou entre des interlocuteurs sourds plus ou moins performants en français écrit.
L’utilisation du courrier électronique dans le contexte de WebSourd rend davantage palpables ou visibles différents rapports à l’écrit, qui ne se résument pas à la seule maîtrise du code (l’écriture) ou de la grammaire de la langue utilisée. Elle accentue et révèle certaines des caractéristiques de ce média (comme, finalement, le côté peu « oral » de ce qui y est produit) ainsi que quelques uns de ses effets pervers (notamment l’incidence d’une absence de contextualisation). Le courrier électronique a été loué pour être un mode de communication rapide et peu intrusif. « L’e­mail semble ainsi un moyen d’entrer en contact « à moindre coût », c’est­à­dire sans s’engager complètement dans l’échange, et éviter la vulnérabilité à laquelle, comme l’a montré Goffman, chacun s’expose dans les interactions en co­présence. » (H. Assadi & J. Denis, 2003, p.2)
Mais ce caractère « indirect » ou « asynchrone » de l’email n’est pas forcément un atout dans un contexte de travail impliquant des sourds. Au­delà de l’homniprésence du français écrit, cette analyse de l’utilisation de l’email met en évidence un travail de réévaluation permanente, par le personnel de WebSourd et probablement par les sourds en général, des moyens les plus appropriés pour contacter leurs interlocuteurs. « Si l’on n’est pas sûr du délai de la réponse à un message, si l’on doute même des compétences, ou des préférences, de son interlocuteur en matière de courrier électronique, la question de savoir quel est le moyen le plus approprié pour le joindre devient centrale. (…) » Ceci « place la personne concernée en position réflexive, l’oblige à échafauder des stratégies de communication qui ne seraient pas opportunes dans une situation plus stable. Ces stratégies engagent d’ailleurs bien plus que le seul choix d’outils « en tant que tels ». C’est à la fois la posture de la personne vis­à­vis de son interlocuteur, et le sens qu’elle veut donner à ses échanges qui y sont mobilisés. » (H. Assadi & J. Denis, 2003, p.7)
Les utilisations de la messagerie instantanée écrite et de la visio­conférence s’inscrivent dans 104
cette recherche d’un autre type de relation, plus adapté à leur interlocuteur ou à la nature du travail à faire ensemble. La messagerie instantanée, et plus précisément MSN, passe encore par l’écrit mais serait un média largement utilisé par la population sourde. Les dispositifs de visio­
conférence permettent quant à eux une communication en LSF mais ne sont pas aussi populaires.
MSN écrit, un média largement partagé.
« J’utilise souvent MSN, au même titre que toute l’équipe. Ca fonctionne bien, c’est expressif (avec les nouveaux émoticones), c’est très spontané, c’est personnalisé, bref, c’est très pratique et les sourds l’utilisent beaucoup et sont ouverts à ce type de communication. » Nicolas, assistant de direction, entendant.
MSN n’est pas simplement un outil de communication. Il est un carrefour. On utilise à tort une seule expression, « la messagerie instantanée », pour désigner une diversité d’environnements informatiques imperméables entre eux. Pour communiquer par MSN, il ne suffit donc pas d’avoir une adresse électronique. Il faut s’inscrire dans ce dispositif (en utilisant la même adresse ou en en créant une nouvelle), et connaître le moyen de contacter ses interlocuteurs. Le personnel de WebSourd, pas plus que leurs partenaires, au sein d’IRIS par exemple, ne rend public ce type de contact. Il est fourni à la demande ou au grès des échanges. Construire la liste des contacts est en quelque sorte construire un réseau, se définir un environnement de travail, une communauté d’interlocuteurs, que ceux­ci soient ou non membres de WebSourd. Certaines entreprises se méfient de cette ouverture sur un espace public incontrôlé, et encadrent la pratique de la messagerie instantanée qui serait propice au bavardage. Ce n’est pas le cas de WebSourd.
Les échanges via MSN sont d’emblée présentés par le personnel sourd comme appartenant davantage au monde de l’oralité. Il serait utilisé pour « discuter », et non pas pour « écrire », quand bien même l’échange se ferait à l’écrit. Ce parallèle tient plus à l’usage qui est fait de ce média que de ses seules caractéristiques. Plusieurs personnes ont ainsi précisé que, contrairement à l’email, on ne peut pas conserver ici les traces de l’échange. Il existe pourtant une fonction « archivage » qui permet d’enregistrer les discussions. Mais ce média n’est pas utilisé dans le but de faire preuve. Les traces produites ne constitueraient pas des « documents ». Elles ne donnent à voir qu’un enchevêtrement de paroles, scandées par des petits dessins, appelés « émoticones », destinés à rendre compte de l’état d’esprit et de l’expression du visage de l’interlocuteur. Les traces de ces échanges semblent être avant tout des comptes­rendus d’interactions, mentionnant à chaque tour de parole le nom de l’auteur et l’heure de son intervention. Les abréviations y sont nombreuses, les phrases souvent incomplètes. Ces écrits semblent autant tenir de la prise de notes que du discours oral. Les prises de parole se superposent. Mais ces enchevêtrements de paroles ne conduisent pas à des digressions. Ils impliquent tout au plus des délais de réponse. Ceci est tout à fait pertinent en interaction, mais difficilement lisible à partir de sa trace.
105
Il existe une grande diversité d’usages du MSN écrit à WebSourd. Il peut être le lieu de plaisanteries comme de discussions de travail, le moyen de transmettre rapidement une information urgente ou d’interpeller quelqu’un. Le principe de la messagerie instantanée est de pouvoir être « appelé » par les membres d’un groupe. Lorsqu’on se connecte à MSN, on se rend visible à ses interlocuteurs potentiels, et l’on voit pour sa part qui est connecté et qui ne l’est pas. Les interlocuteurs sont en quelque sorte en co­présence. Il est possible de préciser la nature de sa disponibilité en indiquant si on est « en ligne », « occupé », « de retour dans une minute », « sorti manger » etc. Lorsqu’un interlocuteur veut communiquer avec vous, l’icône de MSN se met à bouger afin de vous alerter. Ce dispositif est utilisé à WebSourd pour partager un rythme de travail et pour se coordonner, à distance comme à proximité. Plusieurs personnes de l’équipe travaillent régulièrement dans d’autres villes ou depuis leur domicile. MSN est alors un moyen – de rester dans le rythme, en coordonnant les pauses ou en étant simplement informé sur les grands types d’activités des collègues
– de se rendre disponible si une information urgente doit être donnée ou une décision prise
– d’avoir des échanges d’informations relevant de discussions informelles.
Le sentiment de co­présence ou de discussion en direct est relatif. Les discussions se font entre deux personnes, mais plusieurs échanges parallèles peuvent avoir lieu. Il est également courant de faire autre chose en même temps : la messagerie instantanée est installée sur des postes de travail… Ceci implique des délais de réponse, conduisant parfois certaines personnes de WebSourd a délaisser ce média pour les questions urgentes. Dans la mesure où il peut être utilisé, le poste fixe de visio­conférence est alors préféré. Ici, la co­présence ne semble plus virtuelle. Mais parce que cette messagerie est installée sur le poste de travail, parce que l’on peut être en permanence « connecté », et que l’on peut faire autre chose en même temps, ce média est également utilisé à WebSourd pour coordonner des actions ou des personnes entre elles. Certains l’utilisent pour signifier à quelqu’un présent dans le même bureau qu’ils souhaitent discuter avec 106
eux. D’autres y ont recours pour transmettre une information urgente, pendant une activité où une interruption serait gênante (comme lors d’une réunion avec des partenaires). La messagerie instantanée est également utilisée, au sein des bureaux, pour interpeller une personne sourde à moindre coût (évitant de se déplacer, de faire de grands gestes ou de solliciter un autre collègue). Ces pratiques concernent aussi bien des personnes de WebSourd partageant le même bureau que des personnes travaillant à distance. Si l’interlocuteur que l’on souhaite contacter à WebSourd n’est pas connecté, un autre collègue sera sollicité pour l’alerter et permettre un échange sur MSN.
L’usage de ce média, bien que relevant de l’écrit, n’est donc pas particulièrement utilisé pour des tâches formelles ou de validation. Il est souvent préféré à un média utilisant la vidéo, pour sa rapidité, sa discrétion et parce qu’il permet de faire plusieurs choses à la fois. La spécificité de l’utilisation de la messagerie instantanée à WebSourd est de ne pas être dédiée à un type de tâche en particulier, ni à un type d’interlocuteur. Tous les registres de communication s’y croisent. Une grande diversité d’interlocuteurs y est possible. Écrire en interaction permet de s’adapter à son interlocuteur, aussi bien en termes de niveaux de langue, d’habitudes, que de contenu. L’adaptation se fait en situation et non pas de manière anticipée et virtuelle comme dans le cas des emails écrits. La messagerie instantanée mobilise et crée un réseau. MSN est un carrefour car de nombreuses personnes l’utilisent et de nombreux sourds en particulier (B. Garcia, 2005). Échanges professionnels et non professionnels y coexistent. Il associe des fonctions du courrier traditionnel, l’envoi de fichier, et des fonctions plus interactives médiatisées par l’écrit. MSN est un carrefour parce qu’il permet de connecter plusieurs média entre eux. Techniquement d’abord, on peut y envoyer des SMS, des Email, des objets attachés, partager un arrière­plan ou passer en visio­
conférence. Ce type d’articulation de différents média et situations de communication, est par ailleurs étendu, comme on l’a souligné, à d’autres pratiques par l’équipe de WebSourd ainsi que certains de ses partenaires, comme IRIS. L’usage de MSN est utilisé pour interpeller quelqu’un, à proximité ou à distance, pour poursuivre un échange à l’oral en vis à vis ou par visio­conférence, à partir de MSN ou depuis un poste fixe dédié à cet usage. Il permet également à des sourds, plus particulièrement à IRIS, d’utiliser le téléphone via une personne entendante, contactée par MSN. C’est donc pour une large part comme lieu­transit que la messagerie instantanée écrite est massivement investie par l’équipe de WebSourd. Il est approprié comme un outil de coordination et de médiatisation culturelle par excellence. 107
4.3.3.2
La communication en LSF par visio-conférence, une pratique
plébiscitée.
« Enfin une communication directe en LSF de façon confortable » Christine, responsable de projet, sourde.
La visio­conférence est un dispositif de communication à distance associant l’image et le son. Il peut être utilisé à partir de différents environnements et matériels informatiques. À WebSourd, la visio­conférence est utilisée – soit à partir des postes personnels de chacun, via MSN, ou, de façon plus ponctuelle et expérimentale, via visio­wanadoo, – soit à partir d’un poste fixe, où le logiciel e­conf est installé. Il s’agit alors dans ce cas d’un objet (et d’un lieu) dédié à la communication en LSF à distance.
Ces deux utilisations de la visio­conférence supposent un dispositif similaire chez l’interlocuteur. IRIS, VISUEL et INTERPRETIS sont dotés d’un poste fixe. À WebSourd, il est utilisé dans deux contextes différents :
– soit pour des échanges entre locuteurs de LSF (membres d’Iris, Visuel ou Interprétis ou se déplaçant chez ces partenaires)
– soit pour permettre une interprétation à distance. Ce service de « visio­interprétation » a été développé par WebSourd, Interprétis et France Télécom pour faciliter les démarches administratives. Plusieurs caf, mairies, Anpe et préfecture disposent de postes fixes permettant de recourir à ce service. Comme on le précisera plus loin, le contexte d’utilisation de la visio­
interprétation depuis WebSourd est très différent.
S’il convient de différencier ces pratiques, le choix d’un espace approprié pour ce poste fixe à WebSourd tient compte de l’ensemble de ses utilisations. Trouver un emplacement pour un poste fixe de visio­conférence participe à la conception et au cadrage des usages qui peuvent en être fait. C’est un aspect a priori anodin qui n’est semble t­il pas assez pris en considération par les clients, administratifs, du service de visio­interprétation. La conception de l’emplacement « adéquat » ne répond pas à des normes techniques mais à l’espace social et physique dans lequel il est destiné à s’inscrire. La recherche du « bon » lieu à WebSourd et la comparaison de son installation sur différents sites révèlent les différents usages de cette technologie de communication à distance en LSF. Conception des usages du poste de visio­conférence et organisation des espaces de travail.
Le fait même que l’on doive, pour comprendre les usages de la visio­conférence, tenir compte de son inscription spatiale, différencie ce média des autres TICs évoqués. Il appartient en ce sens clairement au monde de l’oralité : il s’agit de gérer, d’organiser ou d’exploiter les discussions croisées mais aussi la visibilité, depuis l’extérieur, des espaces de travail. La langue des signes est une langue qui se voit de loin. La gestion des discussions privées et publiques, mais aussi d’espaces de travail préservés en quelque sorte des discussions des autres, se joue différemment lorsque la langue de travail dans l’ entreprise est une langue orale ou visuelle. Ici, l’écrasante majorité des échanges se fait en LSF. L’occupation de l’espace des bureaux s’est donc faite en conséquence. Lorsque la toute première équipe de WebSourd a investi les locaux actuels de l’entreprise, elle 108
a modelé l’espace en fonction de ses besoins en abattant des murs ou en rajoutant des panneaux mobiles permettant d’ouvrir ou d’isoler certaines pièces. Un espace adapté à une prise d’informations visuelle et à une communication en LSF est a priori « ouvert ». Le service multimédia d’IRIS dispose d’un local de ce type : il s’agit d’une grande pièce où, à la manière d’une tour de contrôle, plusieurs postes informatiques sont installés, indiquant différents espaces de travail sans qu’aucune paroi ne les matérialise davantage. Une partie du mur du couloir est vitrée, permettant une information sur la circulation des personnes à IRIS et certaines discussions « de couloir », ou « en passant », à partir de ce bureau collectif. Le poste de visio­conférence d’IRIS s’inscrit dans cet espace ouvert : tout le monde peut assister à l’échange, et une grande partie de cet espace de travail collectif est visible depuis le poste de visio­conférence de WebSourd. L’équipe de WebSourd n’a pas opté pour une occupation de l’espace entièrement ouverte. Elle a articulé des espaces publics, des univers plus restreints et « protégés » de travail, et des espaces privés. Ces lieux ont été partiellement redéfinis au cours de l’observation (voir l'Annexe 6 sur l'occupation des locaux de WebSourd et son évolution).
Initialement, l’occupation de l’espace se présente ainsi :
■
espaces publics: – la cuisine et un comptoir de documents, lieux de pauses et d’échanges informels ;
– la salle et la grande table centrale, lieu de réunions, lieu d’accueil et de travail des partenaires ou des stagiaires ;
– même si un panneau peut l’isoler de la salle de réunion, l’espace administratif est initialement un lieu public. Il centralise les premiers moyens de communication à distance ainsi que la photocopieuse. Une partie de ces outils, notamment le serveur, la photocopieuse et, dans un premier temps, le poste de visio­conférence, se déplacent ensuite vers un espace­carrefour. Ils sont rassemblés contre le mur séparant l’espace administratif et la salle de réunion, et sont relativement près de la porte d’entrée.
■
univers de travail :
– deux espaces partiellement ouverts sur la salle de réunion rassemblent deux ou trois bureaux chacun. Les places permettent une communication en LSF entre les travailleurs. Elles les préservent cependant, comme la disposition des salles elles­mêmes, des échanges plus « publics » ou « informels ».
Les personnes sourdes ne sont pas rassemblées en un lieu pour des raisons d’accessibilité ou en fonction d’un mode de communication commun (comme cela peut s’observer dans certains laboratoires de recherches linguistiques). On observe une occupation sexuée de l’espace de travail. De l’avis du personnel de WebSourd, ceci ne serait pas volontaire : la distribution des bureaux répondrait avant tout à des fonctions professionnelles. On peut remarquer à ce titre que les responsables de projet sont davantage isolés des échanges collectifs ou informels qui se jouent dans la salle commune. Les responsables de questions techniques ou de communication vers l’extérieur y sont davantage perméables. ■
espaces privés :
– un espace caché des regards a été investi comme lieu de discussions privées et comme un espace alternatif de discussions informelles. Cet espace qui, en français, a été nommé « l’isoloir », a pour partie servi de cabine téléphonique pour les nombreux appels audio avec différents partenaires et clients. Il a également été utilisé pour des discussions ponctuelles en LSF.
109
Cet isoloir est l’espace le moins stable de l’entreprise. Il a servi de lieu d’expérimentation avant d’être englouti par l’espace administratif. Personne ne se souvient plus de cet isoloir aujourd’hui. C’est pourtant là que la table de montage vidéo a d’abord été installée, avant d’investir finalement les bureaux de travail les plus près de la salle commune de réunion. Les responsables de questions techniques et de communication sont alors entrés de pleins pieds dans les échanges informels et collectifs en occupant l’ancien espace du comptoir de documentation. Deux personnes, l’une anciennement, l’autre nouvellement embauchée, toutes deux investies dans le secteur de la communication, n’ont plus d’espaces attitrés et transite d’un espace à l’autre. C’est également dans cet isoloir que le poste de visio­conférence a connu sa deuxième installation. C’est parce qu’il n’était pas assez « isolé », qu’il occupera finalement un troisième lieu : l’espace clos et protégé des regards d’un placard. L’utilisation de la visio­conférence à WebSourd relève de la communication téléphonique, et cela à plusieurs titres.
On aura compris l’analogie spatiale avec la cabine téléphonique. Un autre point pousse à cette comparaison. Il n’y a à WebSourd, aucun signal lumineux, que ce soit pour la sonnerie de la porte, pour l’arrivée d’un fax ou pour prévenir d’un appel via visio­conférence. Alors même que les sourds sont majoritaires dans les locaux de cette entreprise, ce type d’informations transitent uniquement par le son et donc par l’intermédiaire de personnes entendantes. Ce fonctionnement d’appel sonore (qui utilise du son mais non pas une sonnerie) existe également à INTERPRETIS, dans une utilisation de l’espace plus ouverte qu’à WebSourd. Cette société d’interprètes développe le service de visio­interprétation. L’utilisation de l’espace et l’emplacement du poste de visio­conférence sont liés aux particularités de cette activité. L’environnement visuel doit être neutre (fond blanc et personne ne passant dans le champ visuel de la caméra), l’espace protégé des bruits et des interventions extérieures. Mais les interprètes qui sont sur place à Interprétis doivent gérer différentes activités tout en restant « connectés », prêt à répondre à des demandes d’interprétation à distance. Ceci explique l’exploitation des bruits pour repérer une demande. Il est possible que ce mode d’appel sonore propre à Interprétis ait été transposé à WebSourd. La « cabine téléphonique » de visio­conférence est proche de l’espace administratif qui est donc le lieu de prise en charge et de relais de ce type d’appel, lorsqu’ils viennent de l’extérieur.
Mais tous les partenaires ne fonctionnent pas ainsi. Ni VISUEL ni IRIS n’utilise le son pour appeler un correspondant. Il n’est donc pas pertinent pour joindre ce type de partenaires. Et ceux­ci n’ont parfois tout simplement pas branché de micro. Ils ne peuvent donc pas non plus émettre de son. Ici les échanges par visio­conférence se font la plupart du temps sur rendez­vous, pris oralement ou par email. MSN est également utilisé ici pour interpeller les interlocuteurs. On comprend ici le caractère stratégique de la disposition spatiale du secteur multimédia d’IRIS et de la place du poste de visio­conférence. Lorsqu’une personne à WebSourd choisi de s’adresser à IRIS à partir du poste dédié, la caméra donne à voir l’espace collectif de travail du secteur multimédia. On peut donc y voir qui est là, intercepter le regard d’une personne et joindre de cette manière l’interlocuteur souhaité. Il est courant d’interpeller l’interlocuteur via MSN pour que l’échange se poursuive via visio­conférence. Ce dernier média est utilisé à IRIS comme une fenêtre. Cette organisation met l’accent sur des activités de coordination.
De la diversité des situations et modes d’interaction possible, via visio­
conférence (poste dédié et chat)
Le personnel de WebSourd dissocie fortement les usages et les conditions de communication avec la visio­conférence selon les environnements socio­techniques. Le poste dédié est considéré comme étant aujourd’hui la situation idéale en termes de qualité d’image et de confort. Comme 110
d’autres expériences le soulignent également (R. Ologeanu, 2000), ce média oblige à cadrer les gestes ; Il limite l’utilisation de documents (problème de visibilité) ou suppose une organisation parallèle d’envoie par email. Parce qu’il n’est pas mobile et parce qu’il n’y a pas de partage d’environnement informatique, l’utilisation de ce média repose sur une organisation, sociale, spatiale et temporelle, de la rencontre. La communication en LSF par ce média reste cependant comparée à une discussion en directe, par le personnel sourd de WebSourd, et ceci même si l’interaction visuelle est légèrement décalée. Le rapport à ce média semble ainsi beaucoup plus décontracté dans cette entreprise que dans la plupart des situations où il a été expérimenté (R. Ologeanu, 2000). Leurs auteurs mentionnent généralement une restriction des échanges informels et des interactions en général qui doivent être davantage sollicitées. Le fait de se voir soi­même dans l’écran serait un élément perturbateur alors qu’il n’a jamais été mentionné comme tel par les sourds. Cette image permet au contraire de « cadrer ses gestes ». L’existence de ce « retour », de ce possible « feedback » pendant sa propre production est une situation tout à fait inédite dans une communication en LSF.
L’utilisation d’un poste fixe de visio­conférence est considérée comme un moyen de communication fiable, contrairement à son utilisation via MSN. Celle­ci est pourtant recherchée, parce qu’elle peut être associée à d’autres pratiques de communication. Comme dans d’autres contextes de travail, la visio­conférence via poste fixe ou via MSN est mobilisée entre le personnel de WebSourd et ses partenaires pour « coopérer par le partage interactif de leurs connaissances » (N. Valière, 2003, p.6). Mais comme dans d’autres cadres professionnels, ce média est plébiscité sans parvenir à se populariser. Il impliquerait des modalités de travail plus collectives et plus clairement interactives qu’elles ne le sont d’ordinaire. Cette dimension du travail n’est pourtant pas un frein à l’utilisation de ce média à WebSourd. Elle en est même au contraire le moteur. Le travail réalisé via Visuo­interpétation dans cette entreprise concerne des activités de validation, d’explicitation de consignes et de directives ainsi que des situations de réflexions collectives. Parce que ce dispositif n’offre pas de traces ou de partage d’écrits, et parce qu’il suppose une organisation particulière, il n’est utilisé qu’en dernier recours. Une communication via MSN écrit ou, tout simplement, une rencontre sur place remplace bien souvent l’utilisation de ce média. Il est ainsi apprécié pour être une solution d’urgence de qualité.
L’utilisation de la vidéo dans le cadre de la messagerie instantanée reste limitée pour des raisons à la fois techniques et sociales : – elle est pour le moment sur MSN limitée à un échange entre PC
– la qualité de l’échange est pour une large part tributaire du débit de la connexion et du type de webcam utilisé,
– mais aussi de l’environnement où se trouve l’interlocuteur (lumière, caractère privé de ce qui se passe « derrière », visibilité de l’échange par ceux qui sont « autour » …) . Cette donnée, variable, oblige à des manipulations ou compromet la visibilité.
– Elle n’est pas encore maîtrisée par la plupart des interlocuteurs.
D’autres environnements informatiques sont évoqués ou expérimentés, comme visio­wanadoo ou ichat. L’un est réservé à un échange entre PC, l’autre entre Mac. Le premier offrirait une meilleure qualité d’image mais serait peu ergonomique (long à installer, peu intuitif). L’autre ouvre sur des développements logiciels intéressants comme Tiger où trois fenêtres sont possibles, mais reste limité dans sa portée. D’autres, comme ivisit sont potentiellement des outils carrefours (accessibles par mac et pc, associant image, texte et son) mais ne sont pas encore identifiés ou collectivement explorés.
L’utilisation à WebSourd de la visio­conférence via MSN reste donc limitée. Elle n’est utilisée que dans des situations de travail à distance, et notamment dans des connections entre domicile et travail. Elle répond à un véritable besoin et confronte régulièrement les sourds aux limites de leurs 111
outils de communication.
La visio­conférence est, dans cet environnement, inscrite dans des pratiques d’écritures : on transite du MSN écrit vers de la vidéo ; on utilise l’échange via vidéo pour produire un écrit indépendant de MSN ; on poursuit en alternance avec la communication en LSF des discussions parallèles par écrit… Les utilisations déjà décrites de MSN à WebSourd laissent entrevoir toutes les opportunités d’une communication plus « connectée » et plus généralisée de la visio­conférence. Elle pourrait être davantage articulée à la collection des outils utilisés et des usages développés par WebSourd, ses partenaires et la communauté de sourds. Elle s’inscrit dans cette logique de changement de média et de langue selon l’interlocuteur, le contexte humain immédiat des interlocuteurs et la nature de leur travail collectif. Or, comme cela sera développé plus loin, cette mobilité et cette articulation entre média est également un lieu d’articulation entre langues et matériau de travail. Cette mobilité connecte et coordonne échanges oraux et prises de notes, cadres normés et réinterprétation selon le contexte. Elle est en soi, un lieu de travail.
4.3.3.3
Les emails vidéos, des objets difficiles à saisir
Parce qu’il est la trace d’une production en LSF produite en dehors de toute interaction, l’envoi d’emails vidéos est une situation de communication et d’échange d’informations tout à fait original au sein des pratiques développées par WebSourd. Elle reste cependant marginale au sein de cette entreprise. La spécificité des usages associés aux emails vidéos tient à leur statut « d’objet » : les emails vidéos ne sont pas perçus comme un espace de communication, un lieu où se déroule l’échange. Ils sont comparés à cet autre objet qu’est la lettre manuscrite, rangée dans une enveloppe et envoyée par la poste. De ce point de vue, les emails vidéos sont associés à de l’écrit. Mais cette représentation en limite aussitôt l’usage. On ne lit ni ne manipule de la vidéo comme une page de texte, et encore moins comme un courrier électronique. Il lui manque à la fois – cette dimension spatiale stable qui permet de lire en diagonale, d’avoir une vue d’ensemble ou de lire directement la partie qui nous intéresse ; – et cette décomposition possible en éléments discrets, segmentés, qui permet d’isoler certains aspects d’un texte à peu de coût. Des questions techniques renforcent ce contraste avec l’écrit. Ces « documents » n’offrent en effet que de piètres « prises » au lecteur : contrairement aux possibilités de manipulation des vidéos consultables sur le site internet de WebSourd, on fait difficilement des retours en arrière ou des bonds en avant dans un email vidéo. La qualité de l’image est de surcroît globalement mauvaise. 112
Détail crucial, un email vidéo ne peut pas être le support d’inscription de marques ou de commentaires. De telles pratiques mobilisent en tout cas des opérations trop compliquées pour être réellement tentées dans un contexte où la gestion du temps est primordiale.
Ceci renforce le caractère finalement oral de cet objet, sans en avoir pour autant les principaux atouts, comme de pouvoir adapter en situation la forme et le contenu d’un message. Ceci conduit à le considérer comme la « lettre des illettrés ». Cette étiquette ne favorise certainement pas son usage public, et ce d’autant plus qu’un tel document transporte avec lui l’image du locuteur. Cela reviendrait à s’afficher publiquement comme un illettré. On retrouve ici l’importance décisive de l’appropriation collective d’un outil dans la définition et dans l’essor de pratiques de communication.
Les utilisations mais aussi la construction des emails vidéos semblent pourtant extrêmement variées et particulièrement originaux. De lourds enjeux pèsent de surcroît sur cette pratique, comme on va tout d’abord le rappeler.
La révolution oubliée des webcams.
La messagerie électronique a été décrite à travers plusieurs études comme le moyen d’élargir le cercle des échanges, de faire davantage circuler l’information, et de faciliter la participation de tous à des débats internes, quelque soit le niveau hiérarchique (L. Garton & al., 1995 ; M. Grossetti & al., 1996). Le fait qu’une part importante des échanges se fasse à travers des emails écrits et que le français reste le support de tous les documents de travail, ne permet pas, de prime abord, d’étendre cette image démocratique de la messagerie électronique à WebSourd. Tel est l’enjeu à première vue des emails vidéos : permettre la participation de tous, quelque soit leur compétence ou leur appétence à lire et écrire le français.
Pourquoi alors cette voix de communication n’a pas été davantage développée dans cette entreprise? L’équipe a connu avec la distribution de webcams dans l’entreprise, une période d’importante motivation pour son utilisation. Certains parlèrent alors de la « révolution des webcams », permettant enfin une réelle communication à distance pour les sourds. L’utilisation de cet outil a pourtant très vite été réduit, pour être finalement exceptionnellement utilisé dans le cas des emails vidéos tout particulièrement. Outre le statut ambigu de ces objets, le personnel de WebSourd évoque un désintérêt général pour ce mode de communication, qui n’encourage pas son usage. Certaines personnes insistent plus particulièrement sur des problèmes techniques ou sur l’absence de savoirs faire spécifiques :
– la lecture de ce type de productions vidéos renvoie à des difficultés techniques de visibilité, mais pas uniquement : cette situation de communication peut impliquer des manières de dire particulière ;
– l’appropriation de cet objet­vidéo se fait en référence au monde du texte (annoter, copier, coller, archiver, rechercher rapidement une information) et se trouve confrontée à des limites matérielles ; – les manipulations effectivement associées aux emails vidéos sont perçues comme une perte de temps (enregistrer, répéter, compresser, envoyer).
Plusieurs personnes ont également évoqué, de façon anodine, la possibilité de produire une mauvaise langue des signes ou, de manière plus générale, le risque de présenter une mauvaise image. Ceci renvoie à des questions techniques, mais pas seulement. Le document vidéo véhiculerait bien plus que le message. On retrouve ici toute la problématique d’une écriture par l’image, bien connue des anthropologues. « L’écriture permet, en effet, au chercheur qui a archivé une à une ses pièces à conviction, d’énoncer une généralité et de passer à l’abstraction. Il lui est facile de se débarrasser du 113
caractère individuel et singulier des expériences qui ont contribué à forger sa conviction, alors que le cinéaste reste, si l’on peut dire, avec le corps de ceux « à qui les choses arrivent » sur les bras. » (J.P. Colleyn, 1999, p.24)
Ce « surplus » d’informations serait lié au corps du locuteur et à son environnement physique et social. Il reconduit une réflexion sur ce qui relève du public et du privé. Cette notion de « bonne image » rappelle également la nature essentiellement orale de la culture des sourds. Ce qui est destiné à s’écrire ou non, et la manière de le faire, relève bien de pratiques culturelles. P. Williams (1997) mentionne, à propos des Tziganes, des réticences similaires à mettre par écrit certaines tournures et à utiliser leur langue dans certains contextes.
Ce qui se joue autour des emails vidéos est à divers titres particulièrement crucial. Il révèle certaines pratiques culturelles et ouvre vers de nouvelles manières de faire. Il est en cela porteur d’innovations autant techniques que sociales. Au­delà de la faible utilisation des emails vidéos, il est donc intéressant d’analyser les quelques rares pratiques observées sur ce sujet.
Points de résistance des emails vidéos
Les malentendus produits par les emails écrits peuvent amener les utilisateurs de messagerie électronique à abandonner ce média pour aborder les sujets les plus sensibles ou complexes. Ici, les échanges oraux sont préférés (Ph. Hert, 1999). La production de compte­rendus par le biais d’email vidéos peut être choisie à WebSourd pour éviter ce type de problèmes. Elle est cependant une pratique extrêmement rare, malgré des sollicitations répétées encore récentes d’une partie du personnel pour en systématiser l’usage.
L’utilisation d’emails vidéos pour produire des comptes­rendus est beaucoup plus développée à IRIS qu’à WebSourd. Point de contraste cependant, cet usage y est collectif dans le sens où l’email y est produit par plusieurs. Il est une prise de note collective. Il est un compte­rendu réalisé en situation de co­présence et distribué plus tard par le courrier électronique. Il peut également être partagé sur place via une clé USB. Il serait donc particulièrement intéressant de multiplier les sites d’observation pour comparer mais aussi pour mettre en commun les différentes pratiques et expérimentations autour des emails vidéos.
L’analyse de trois emails vidéos diffusés au sein de WebSourd montre la diversité des productions possibles, des fonctions qu’elles sont destinées à remplir et des pratiques qu’elle suscitent. On a déjà souligné le fait que les emails vidéos sont à première vue des fichiers vidéos attachés à un email « traditionnel ». Ils restent donc associés à de l’écrit. Ces trois exemples, impliquant un même locuteur, montre des imbrications très différentes entre le texte de l’email et le discours de la vidéo. Ces articulations sont des lieux de dialogue entre monde de l’écrit, monde de l’oral et monde de la vidéo, entre français, images et LSF.
■
Un document bilingue : l’annonce de l’ouverture du site de WebSourd
114
La partie vidéo de cet email est un objet particulièrement travaillé, reposant sur un scénario, et incluant des pages du site web. La partie écrite reprend la « traduction de la vidéo » : elle inclut donc dans le texte de cette annonce officielle, des formes d’expressions relevant de la forme orale. Cette traduction est pourtant particulièrement pauvre par rapport à la production vidéographique. Ce décalage entre le niveau d’informations véhiculé par l’image, la LSF et le français est au cœur de la réflexion sur l’édition bilingue. Comme dans la réalisation du site lui­même, le rapprochement entre français et LSF conduit à un travail sur les possibilités d’une écriture plus riche en informations visuelles.
■
La mobilisation de 2 langues et de 2 médias pour écrire un seul message : l’invitation.
Avec cet exemple, on change d’échelle de communication : le message s’adresse à des collègues au sein de WebSourd comme au sein d’entreprises partenaires. On change également de moyen de production et de contexte de lecture. Cet email n’est pas destiné à être la vitrine de l’entreprise, mais à convier de manière conviviale un ensemble de personnes à une soirée.
115
L’intérêt de ce document réside dans le caractère imbriqué du document vidéo en LSF et du texte écrit. Ils ne sont pas la traduction l’un de l’autre. Il y a relativement peu de redondance. Chaque partie de ce document apporte suffisamment d’informations en soi pour qu’une lecture rapide de l’un ou de l’autre suffise pour être « au courant ». Mais le message complet est constitué de l’ensemble. ■
Écriture vidéo et écrits autour de la vidéo : le document de travail.
Ce document vidéo attaché est un document de travail. Il s’adresse ici à un groupe de travail au sein de l’équipe de WebSourd. Il s’inscrit dans une histoire : un projet, des discussions en LSF, une réunion à venir, une page web à réaliser… Il est le lieu d’une prise de parole en LSF (le discours est adressé) et un support de travail (des propositions sont faites, des exemples donnés). Son auteur explique sa démarche et attend des réactions sur les différentes formes d’expression proposées en LSF. Cet échange porte donc sur des manières de faire, de conduire le projet, et sur des manières de dire en LSF. Il s’agit donc d’un type de discussions généralement absent de la messagerie électronique à WebSourd.
Cette situation est intéressante à plusieurs titres. Le document vidéo lui­même est structuré en plusieurs parties, dissociant des passages d’annonce, de mise en contexte des exemples, de 3 exemples de présentations en LSF jouant sur la forme d’expression, et de commentaires clôturant le message. Cette structure est en partie matérialisée par des pages écrites. Le contexte dans lequel ces exemples sont destinés à s’inscrire est également explicité. Il est représenté ici par l’image de la page web, qui ne figurait pas dans le message initial.
116
Cette vidéo, attachée à un courrier écrit qui l’introduit brièvement, n’est pas et ne peut pas être le lieu des échanges qu’elle suscite. Elle réclame cependant des réactions qui passent ici par des réponses écrites. Dans le cadre d’un autre projet impliquant l’évaluation de la production de traducteurs en langue des signes, des vidéos ont également été attachées à un email écrit et ont également suscité des réactions écrites par email. Il est intéressant de constater que l’email vidéo déplace ici certaines activités qui restaient spécifiquement confinées à des situations de travail en direct, que ce soit chez les entendants comme chez les sourds. Ceci explique peut­être aussi le faible développement de cette pratique.
Si donc l’utilisation des emails vidéos n’a pas connu l’engouement escompté, si la Webcam semble s’être spécialisée dans la messagerie instantanée, il n’en reste pas moins que cette pratique de la lettre ou du document vidéo résiste. Comme on a pu le montrer, ces pratiques d’une communication vidéo sont très diversifiées, s’inscrivent dans différents contextes de travail et se jouent à différentes échelles. Elles sont des lieux d’expérimentation de types de dialogues et d’articulations entre français, LSF et image.
4.3.3.4
Le service de visio-interprétation, ou l’impact du contexte
117
d’utilisation.
L’utilisation du service de visio­interprétation à WebSourd est marquée par l’ambivalence. Certains y voient une véritable libération, d’autres sont déçus, tandis que d’autres encore détestent y avoir recours. Ce service utilise pourtant le poste de visio­conférence qui, pour ce qui concerne les seuls échanges entre locuteurs, est largement plébiscité. Il a également été largement commercialisé et globalement bien accueilli par les utilisateurs. Le personnel sourd de WebSourd évoque tout d’abord les difficultés engendrées par les créneaux horaires où ce service est disponible. Trop réduit, il ne serait pas forcément disponible aux bonnes heures. Ce problème semble être directement lié au succès que ce service rencontre auprès des administrations françaises. Mais il n’explique pas à lui seul l’ambivalence vis à vis de ce dispositif de communication à WebSourd. Deux autres données sont à prendre en compte :
– Le service, utilisé depuis WebSourd et non pas « sur place » face à l’interlocuteur entendant, présente des différences notoires d’interaction ; des aménagements techniques sont nécessaires.
– Les savoir­faire associés à une communication téléphonique ne sont pas forcément connus des sourds ou sont inexistants pour ce type de communication là.
Le premier aspect est lié à la situation d’interaction qui a servi de référence dans la mise en place du service. En principe, l’utilisateur sourd se déplace auprès d’une administration (une mairie) ou d’un établissement public (une bibliothèque). Ses interlocuteurs entendants sont en face de lui mais ne le comprennent pas. Ils utilisent donc l’un le téléphone, l’autre la caméra pour communiquer par le truchement d’un interprète. Dans le cas d’une utilisation depuis WebSourd, l’utilisateur ne voit pas son interlocuteur. Impossible pour lui de savoir « à quoi il ressemble », quelle est sa posture, s’il est souriant, tranquille ou pressé… Difficile aussi de savoir quand il peut prendre la parole. Il n’a que l’interprète en face de lui et cela ne semble pas suffire. Une personne de WebSourd a ainsi suggéré de rendre accessibles, par des signaux visuels, ces informations portées par la voix. L’utilisation d’une webcam par les deux parties permettrait également de situer l’interlocuteur.
Dans le cas de figure de WebSourd, les personnes sourdes ne sont pas forcément à l’origine de la démarche. Elles peuvent être appelées de façon imprévues par une personne qu’elles ne connaissent pas et qui les sollicite sur un projet de travail de manière impromptue. Le poste de visio­conférence, marqué par l’importance de l’organisation de la rencontre, se retrouve ici être le lieu de l’imprévu par excellence. C’est le monde du téléphone que les sourds découvrent par ce biais. Certains constatent avec amertume que ce dispositif ne rend pas leurs interlocuteurs plus disponibles qu’avant. Les interprètes n’organisent pas, dans le cadre de ce service, la prise de contact avec l’interlocuteur. Ainsi, du point de vue des personnes sourdes, ce qui est associé à la visio­interprétation, est un réel élargissement des interlocuteurs possibles, mais aussi le stress d’une interaction mal maîtrisée à tous les niveaux.
L’acquisition des savoir­faire associés à l’utilisation du téléphone dans notre société permettrait probablement d’anticiper davantage les situations d’interactions et les difficultés rencontrées. Elle ne résout cependant pas tout. L’intervention d’un interprète, ici pas plus que dans une situation d’interaction directe, n’efface la dimension interculturelle. Il est par exemple difficile de prendre des notes pendant un discours en langue des signes. L’observation des réunions de travail montre plusieurs stratégies possibles. Une prise de note par mots clés peut être faite pendant l’échange puis développée ensuite. Elle peut être également organisée collectivement, soit en instaurant des pauses dédiées à cette activité, soit en produisant ensemble un compte­rendu. Interrompre quelqu’un pour laisser le temps de noter ou pour vérifier que l’on a bien compris ne 118
choque personne parmi des locuteurs de langue des signes. Ce sera perçu comme un signe d’impolitesse dans un autre contexte.
La compréhension de ce qui se joue ou peut se jouer à travers ces nouvelles technologies repose sur l’observation de leurs usages mais aussi de ce qui se passe en leur absence. Reprenons l’exemple de la visuo­interprétation auprès d’une administration. On connaît l’importance, dans ce contexte, des documents écrits. Une première évaluation collective de ce dispositif par différents partenaires identifie un problème rencontré dans cette situation : l’interprète, à distance, ne voit pas le document et peut avoir de la difficulté à interpréter. Une autre difficulté pourrait apparaître : il est impossible pour une personne sourde de regarder et le document, et l’interprète. Elle ne peut donc pas non plus suivre en temps réel ce que son interlocuteur montre sur le document. Ce type de difficulté a été rencontré par l’équipe de WebSourd lors de la tenue de réunions collectives. Cette gestion spécifique du regard suppose une gestion différente du temps, et suscite bien souvent, d’autres modes d’interactions. Les implications d’une communication entièrement visuelle sont généralement ignorées. Les raisons pour lesquelles le projet WebSourd a été créé et les services d’interprétation, de traduction et d’information en LSF ont été développés, sont également fréquemment oubliées. En effet, il semble que partenaires et interlocuteurs oublient l’importance de l’illettrisme chez les sourds.
Ceci nous ramène, pour conclure, aux autres paramètres, pertinents pour le personnel de WebSourd, dans le choix des outils de communication.
4.3.4 Un choix contraint ? Média, pratiques et rapports au
français écrit.
Les membres de WebSourd évoquaient l’importance des compétences en français des interlocuteurs dans le choix d’un outil de communication à distance, ainsi que la prise en compte de leurs habitudes. Le sentiment général est en effet de se débrouiller relativement bien pour réaliser des tâches assez complexes de coordination et de communication à distance ou en différé, tout en utilisant des outils qui seraient globalement inadaptés. Si l’on reprend à grands traits la description qui nous est faite par les sourds de la situation, se trouve juxtaposés les constats suivants :
■
La communication en LSF est incontournable pour aborder des sujets de fond, pour traiter de manières de dire et pour être sûr d’avoir compris et d’avoir été compris. Elle est donc nécessaire à l’action. Les hésitations face à l’information impliqueraient des hésitations dans l’engagement des personnes. Les services d’interprétation à distance ou en direct permettent de nouvelles collaborations enrichissantes. Cette médiation reconduit cependant le constat et la crainte de malentendus. Comme le précise à juste titre D. Abbou (1999), les entendants ont une confiance aveugle dans les interprètes, tandis que les sourds ont davantage conscience du caractère médiatisé de l’échange. Les observations de réunions montrent que ceci a des impacts dans les modes d’interactions et notamment dans la gestion des tours de parole. ■
Les technologies de communication à distance utilisant la vidéo ne sont pas encore assez partagées. Les plus populaires ne sont pas d’assez bonne qualité. Elles contraignent à de nombreuses manipulations et à des pratiques peu routinières qui font perdre du temps. Elles représentent une avancée considérable, font naître de nouvelles pratiques, ouvrent de nouvelles opportunités et continuent de devoir être développées et explorées. Associées à des situations instables ou à une dépense en termes de temps, ces technologies ne peuvent cependant être pour le moment le principal recours.
■
Le français écrit est une donnée incontournable, qui permet une diffusion rapide de l’information. Contrairement à d’autres groupes de culture orale, les sourds lui accordent une 119
grande valeur symbolique.
« Des membres de mon laboratoire du CNRS, spécialistes de divers groupes ethniques, ironisent quelquefois à propos de la manière dont sont menés les colloques sur l’illettrisme où ils sont invités, parce que se désoler sur leur illettrisme est souvent loin d’être une donnée pertinente pour ces groupes. Ce n’est pas le cas pour beaucoup de sourds, qui éprouvent une authentique souffrance d’être exclus de la culture de leur pays. » (Y. Delaporte 2002, p.150)
L’écrit est le monde de l’archive, du support de travail et de la preuve. Le signe « valider » en LSF fait explicitement référence à la marque apposée sur une feuille. L’écrit est cependant également associé à l’idée d’efforts parce qu’aux yeux de beaucoup de sourds, il n’appartiendrait pas réellement à leur monde (B. Garcia, 2005). Au­delà de la maîtrise de la langue française, il leur faudrait penser son ancrage et ses implications culturelles. Beaucoup ont alors le sentiment de ne pas maîtriser tous les éléments d’une communication passant par l’écrit.
On a montré que ces représentations ne rendaient pas compte de l’ensemble des pratiques observées à WebSourd. Elles nous intéressent parce qu’elles soutiennent et expliquent certaines stratégies déployées par des membres de WebSourd pour communiquer à distance mais aussi pour accompagner certains interlocuteurs dans leurs pratiques de communication à distance.
La première démarche des sourds comme des entendants, à WebSourd comme ailleurs, quand tous les interlocuteurs ne maîtrisent pas bien une langue, est d’adapter son niveau, d’aller à l’essentiel et d’isoler les messages. Ceci se joue dans les interactions directes, en langue des signes et se retrouve dans les emails écrits. On observe également, dans la trace des échanges, des emprunts à chacune des deux langues (comme « figer le site »).
Mais les sourds exploitent aussi de manière tout à fait spécifique la diversité des médias et des supports. On a déjà décrit l’importance de l’utilisation de MSN comme d’un média­transit, permettant de naviguer entre différents environnements, langues et outils. Cette description pourrait être étendue. Les SMS peuvent être utilisés pour faire lire des emails. L’envoi d’emails écrits après une entrevue en vis­à­vis en LSF peut accompagner la prise de note de son interlocuteur. Il convient d’insister sur la prise en compte par les sourds de la dimension en quelque sorte matérielle du support de l’échange : une prise de notes sur ordinateur limite par exemple la production de graphismes mais balise la production de l’écrit (sous word notamment). Un échange réalisé d’ordinaire par email aura lieu par SMS parce que le dispositif technique y accompagne davantage la production de l’écrit et peut être de ce point de vue, plus confortable. Il existe ainsi des stratégies de communication qui impliquent un repérage des outils de communication à distance qui ont été adoptés par l’interlocuteur, et une connaissance pratique des chemins menant de l’un à l’autre. Ceci a été décrit autour de pratiques de l’écrit, mais cela concerne aussi bien les usages de la vidéo. Certaines pratiques peuvent être « accompagnées » ou « préparées » collectivement. Pour penser le développement des TICs dans un contexte comme celui de WebSourd, il s’agit donc de penser les « lieux » de rencontre, les chemins de transit et les usages en mouvement.
120
4.4 Conclusion et ouvertures
Les usages d’internet s’élaborent en fonction de la collection des outils disponibles et de leur articulation possible d’un point de vue technique mais aussi social. Ils sont pour une large part des pratiques situées : ils dépendent du contexte de travail, d’une histoire de l’échange ainsi que du réseau d’interlocuteurs. Une écriture vidéographique des usages d’internet serait particulièrement appropriée. Différentes situations et stratégies de communication ont été mises en évidence par les observations et entretiens réalisés auprès de WebSourd. Il serait intéressant, comme on l’a montré, d’inclure d’autres lieux, comme IRIS, INTERPRETIS et éventuellement VISUEL­LSF. Il serait ainsi possible de produire un reportage vidéo, à partir d’un travail d’équipe, proposant une présentation visuelle et située des usages d’internet par des sourds.
Il serait utile en effet qu’un échange plus large sur les usages d’internet par des sourds soient possible, et que les différentes expérimentations soient centralisées. Cela contribuerait à comprendre davantage comment soutenir des projets professionnels associant sourds et entendants, français et LSF. L’expérience de WebSourd est probablement exportable à d’autres entreprises, dans la mesure où l’on ne réduit pas l’expertise de cette société et l’expérience de ses salariés à une question purement technique. Le nombre de personnes sourdes, la participation d’interprètes et l’existence d’un réseau de soutien, de réflexion et d’information, expliquent en partie l’organisation actuelle de WebSourd. Les usages des NTICs, de même que les pratiques de communication au sein d’une entreprise, s’inscrivent dans une histoire et dans des réseaux humains.
Penser l’histoire du projet « Web­Sourd », puis de la société portant ce nom, est aussi une façon de penser les usages d’internet. Qu’est­ce qui a permis cette collaboration entre des personnes issues du réseau des SCOP, du monde des grandes entreprises, de la communauté sourde et des réseaux qui la traversent (parents, interprètes…), ainsi que des représentants d’institutions et d’administrations françaises ? La SCIC WebSourd et le site qu’elle construit sont des « objets­
frontières (Star & Griesemer, 1989) : plusieurs collectifs leur permettent, de différentes manières, d’exister, tout en leur donnant, chacun, des sens différents. Ces collectifs peuvent juste « coexister » autour de cette entreprise, de son site, de ses objets (édition bilingue) ou de ses services. Ils peuvent aussi penser leurs relations à travers ces projets qui les rassemblent. Les SCOPs, impliquées dans la mise en place de WebSourd, ont vu dans ce projet un enjeu vital pour un collectif, les sourds, impliquant directement les personnes concernées, tout en restant ouvert sur d’autres collectifs par l’investissement d’un espace public, internet. Il serait intéressant de connaître les représentations de ce projet par chacun des partenaires impliqués. Ils nous diraient alors quels sont, à leurs yeux, les usages d’internet à promouvoir. Les promoteurs de sites et de nouvelles technologies utilisant internet sont de véritables laboratoires de conception des usages d’internet. Ceci s’observe jusque dans les réunions de travail de WebSourd. Ce sont des lieux où se pensent et s’expérimentent les pratiques de communication ou de manipulation de l’information via internet. Les membres de cette équipe simulent, dans des réunions de conception collective des produits à réaliser, les actions, attentes et comportements des utilisateurs, ainsi que la structure des dispositifs à construire. Ces situations de travail donnent à observer les ressources d’un travail collaboratif, comment se crée, au sein d’un groupe professionnel, une connaissance partagée des pratiques de communication et des dispositifs à construire. Quels sont donc les savoir faire, les repères et les ressources mobilisés, par des équipes de travail associant sourds et entendants, dans l’élaboration de dispositifs de communication et d’information publique qui n’excluent pas les sourds ?
Les sourds, et les acteurs de WebSourd tout particulièrement, disent vivre dans un monde de l’image et sur un mode visuel. Les implications de cela ne sont pas d’emblée évidentes. La nature des supports visuels appréciés ou recherchés par des travailleurs sourds est une question centrale qu’il conviendrait également d’éclaircir. 121
La réalisation de l’étude présentée ici sur les pratiques de communication via internet au sein de WebSourd a permis d’observer sourds et entendants au travail et confirmer l’importance de ces questions. L’équipe rencontrée manipule une grande diversité de documents visuels, relevant aussi bien de l’image figurative, de l’image vidéographique, du schéma, du planning que de l’écrit (qui relève bien lui aussi du monde visuel). Elle investit également des supports très différents : les murs des lieux de travail, l’espace d’une page, mais aussi des documents « graphiques » plus dynamiques comme les planches PowerPoint, sur support informatique ou projeté sur un mur, ainsi que la vidéo numérique (dans le cas des emails ou des maquettes). Le registre visuel se décline ici de multiples manières. Il intervient également à travers l’usage de la couleur et de la spatialisation des informations. C’est dans ce cadre qu’un partenaire de WebSourd a récemment proposé l’utilisation de FreeMind et doit, dans le cadre de réunions de travail, inventer des modes de présentations plus « spatiales » à partir de logiciels traditionnels comme Excel. Ceci montre d’ores et déjà que le travail sur les dispositifs de communication et les documents visuels sont des lieux d’apprentissages croisés et d’innovation.
L’importance de ce que l’on pourrait appeler des « pratiques visuelles » a été évoquée au cours de l’analyse des usages d’internet et des interactions entre sourds et entendants. Cette logique visuelle ne se limite pas en effet au monde graphique. Elle intervient également dans la gestion des tours de parole ou dans l’organisation d’un environnement de travail. Fonctionner sur un registre visuel implique une organisation spatiale et temporelle appropriée. On a évoqué les enjeux d’une prise de note ou d’une organisation des bureaux de WebSourd. Il serait possible de décrire le positionnement relatif d’un orateur, d’un support visuel comme une planche PowerPoint, et d’un interprète. Il faut prendre en compte le champ visuel des interlocuteurs sourds et le type d’informations que l’on peut ou ne peut pas traiter visuellement en même temps. De même qu’il existe un bruit sonore, empêchant d’écouter de la parole ou de se concentrer, il existe un bruit visuel, perturbant un échange ou diluant l’information d’une page web. De même que tout son est susceptible de porter une information, tout détail visuel est susceptible d’être un support de lecture. Vivre dans un monde de l’image, signifie que les ressources visuelles sont exploitées de manière intensive, mais aussi que ces sollicitations doivent être gérées et dosées. Ce type de compétences et de critères sont mobilisés dans la construction et l’évaluation de pages Web. Elles sont aussi décisives dans l’organisation du travail et de la communication au quotidien avec des personnes sourdes. Une comparaison entre les situations de travail observées à WebSourd et des situations d’enseignement en langue des signes23 a montré la généralisation possible de ce type d’analyse. Références
ABBOU D., 1999, « Les problèmes de communication entre professionnels sourds et entendants », Surdités n°1, décembre, pp.14­27.
AKRICH M., C. MAEDEL & V. PARAVEL, 2000, « Le
temps du mail : écrit instantané ouoral médiat
», Sociologie et Sociétés, XXXII­2, p.153­170.
ALSF, 1080, Congrès de Dourdan , 30 novembre 1980, ALSF, 62p
AMANN K. & K. KNORR CETINA, 1990, « The Fixation of (Visual) Evidence
», in Representation in Scientific Practice, Ed Michael Lynch & Steve Woolgar, pp 85­122.
ASSADI H. & J. DENIS, 2003, « La messagerie électronique au travail
: entre simplicité de l’usage et surcharge
», IXèmes Journées de sociologie du travail, 27­28 nov. 2003, Paris.
BACCI A., 1997, La politesse est morte, vive la sincérité ? Le cas des Enfants Entendants de Parents Sourds, Mémoire pour le diplôme de l’EHESS, Section Anthropologie sociale et historique, sous la 23 Réalisée avec la contribution de Mme El Khomsi (IRIS).
122
direction de D. Fabre, 87p.
BACCI A., 1999, « Remarques concernant le code d’éthique pour les interprètes en milieu scolaire
», Surdités n°1, décembre, pp.121­123.
BAZET I., 2003, « Les
TIC : des Technologies Impliquant Contraintes ? » IXèmes Journées de sociologie du travail, 27­28 nov. 2003, Paris.
BORZEIX A. & B. FRAENKEL (coordination), 2001, Langage et Travail ; Communication, cognition, action, CNRS Communication, éd. CNRS.
BRUGEILLES J.L., 2003, « L’enseignement de la LSF dans le cadre d’un enseignement en langue des signes au collège
», Langue Française n°137, février, « La langue des signes, statuts linguistiques et institutionnels », pp.60­69.
COLLEYN J.P., 1999, “L’image d’une calebasse n’a pas le gout de la bière de mil; L’anthropologie visuelle comme pratique discursive”, Réseaux n°94, pp.19­47.
COMBROUZE D., 2003, “TIC et compétences: le cas des responsables de communication”,
IXèmes Journées de sociologie du travail, 27-28 nov. 2003, Paris.
CRONEBERG C.G., 1965, « The Linguistic Community
», in Stokoe & al., A Dictionary of American Sign Language, Washington, D.C., Gallaudet Press, Appendix C, pp.297­311.
DALLE S., 2000a, « Parcours
de familles dans le bilinguisme », Surdités n°3 (décembre 2000) « Familles, Fratries », pp29­46.
DALLE­NAZÉBI S., 2000b, « Objets et acteurs de recherche; Les personnes sourdes dans l'analyse de la LSQ », communication au congrès de l'Association Internationale des Sociologues de Langue Française, 2­10 juillet 2000, Québec.
DALLE­NAZÉBI S., 2005, « Enfants sourds, fratrie entendante et langue des signes. Les processus de transmission
culturelle
en
question »,
conférence,
IRIS, http://www.lesiris.free.fr/EetR/Sociologie/sociologie.html
DALLE­NAZÉBI S., 2005, « Le travail d’images vidéos publiées. Enjeux scientifiques et politiques d’une mise en scène publique », Sciences, frontières et savoirs, P. Hert, P. Nabonnand et M. PaulCavallier (ed.), Paris : Kimé.
DALLE­NAZÉBI S., B. GARCIA & S. KERBOURC’H, 2005, “Vers une redéfinition du « territoire
» : lieux et réseaux de transmission de la Langue des Signes Française (LSF)”,
communication au colloque Politique linguistique et enseignement des Langues de France, organisé par l’AULF, Toulouse : jeudi 26 et vendredi 27 mai 2005.
DALLE­NAZÉBI S. & N. LACHANCE, à paraître, « France et Quebec devant la diversité culturelle. Les politiques à l’épreuve de la surdité », RIAC­ Lien social et Politiques, numéro sur Identités : attractions et pièges.
DELAPORTE Y., 2000, « Tu
es sourde comme nous ! Constructions identitaires dans les établissements spécialisés pour enfants sourds », dans Djamila Saadi­Mokrane (éd.), Sociétés et cultures enfantines, Lille, Éditions du Conseil scientifique de l’université Charles­de­Gaulle, Travaux et recherches, pp.123­132.
DELAPORTE Y., 2002, Les sourds c’est comme ça, éds. de la Maison des Sciences de l’home, Paris.
DELETRA C., 1995, « Je n’entends pas sa voix, mais je vois sa parole », ou parents sourds, enfant entendant : quelle communication ?, Mémoire de licence, Université de Fribourg, Genève.
DONSTETTER D., 1993, « Le langage des entendants
», Gestes, 8, pp.40­45.
DUBUISSON C., 1996, « La collaboration entre linguistes et informateurs sourds
: une question de 123
confiance », Spécificités de la recherche linguistique sur les langues signées, sous la direction de C. DUBUISSON & D. BOUCHARD, éd. ACFAS, pp.205­211.
DUBUISSON C. & D. MACHABÉE, 1995, « Quand les arbres cachent la forêt… ou une hypothèse d’explication des attitudes des Sourds face à l’initialisation en LSQ
», Revue de l’ACLA, Actes du colloque de l’ACLA, Montréal, juin 1995.
EL KHOMSI B., 2003, « Présentation d’une expérience pédagogique d’enseignement du français dans une filière bilingue en lycée
», Langue Française n°137, février, « La langue des signes, statuts linguistiques et institutionnels », pp.70­85.
FRAENKEL B., 2001a, « La
résistible ascension de l’écrit au travail », dans BORZEIX A. & B. FRAENKEL (coordination), Langage et Travail ; Communication, cognition, action, CNRS Communication, éd. CNRS, pp.113­142.
FRAENKEL B., 2001b, « Enquêter sur les écrits dans l’organisation», dans BORZEIX A. & B. FRAENKEL (coordination), Langage et Travail ; Communication, cognition, action, CNRS Communication, éd. CNRS, pp.231­262.
GACHE P. & P. HERRIER, 1994, « Les rapports interethniques à l’école », Dossier de Deug de Sociologie, sous la direction de J. Thoemmes, Université Toulouse 2.GACHE P., 1999, « Réflexions sur l’interprétation en milieu scolaire
», Surdités n°1, décembre, pp.113­115.
GARCIA B., 2005, Rapport du projet « LSF : quelles conditions pour quelles formes graphiques ? » (phase 2003­2004), DGLFLF, Ministère de la Culture et de la Communication, 60 p.
GARTON L. & B. WELLMAN, 1995, « Social Impacts of Electronic Mail in Organizations
: A Review of the Research Literature », in Brant R. Burleson (ed) Communication Yearbook/18, Thjousand Oaks, CA : Sage, pp.435­453.
GROSSETTI M., 1997, « Communication électronique et réseaux sociaux
», Flux n°29, pp.5­13.
GROSSETTI M., A. SAUVAGEOT, S. BRANQUART, C. COMPÈRE, J.P. ESTEBENET, D. MARINESQUE, L. PAGANELLE & J. SAINT­PIERRE, 1996, « L
’usage d’Internet par les chercheurs toulousains », Flux n°24, pp.35­49.
HERT P., 1999, « Quasi­oralité de l’écriture électronique et sentiment de communauté dans les débats scientifiques en ligne
», Réseaux n°97, pp.211­259.
HUGOUNENQ H., 2003, L’enseignement de la langue des signes aux entendantq. Son histoire, ses enjeux au niveau des représentations collectives, ses conséquences concrètes sur la vie des sourds, DEA Anthropologie sociale et Ethnologie, EHESS Paris.
INTERCULTURES, Revue de la SIETAR France (Société pour l’éducation, la formation et la recherche interculturelles).
KERBOURC’H S., 1997, Ludisme et jeu de mains ; Le développement relationnel des Sourds dans une activité ludique, maîtrise de sociologie, Paris.
LACHANCE N., 2002, Analyse du discours sur la culture sourde au Québec. Fondements historiques et réalité contemporaine. Thèse de doctorat. Département d’anthropologie, Université de Montréal.
LADMIRAL J.R. & E.M. LIPIANSKY, 1989, La communication interculturelle, Bibliothèques Européenne des Sciences de l’Éducation, éd. Armand Colin.
LELIÈVRE L., 1996, « Points
de vue d’une assistante de recherche sourde », Spécificités de la recherche linguistique sur les langues signées, sous la direction de C. DUBUISSON & D. BOUCHARD, éd. ACFAS, pp.197­204.
LUNDE A. S., 1956, « The Sociology of the Deaf
», Meeting of the American Sociological Society, Detroit, publié dans Sign Language Structure : An Outline of the Visual Communication Systems of 124
the American Deaf, W.C. Stokoe, 1960, University of Buffalo, Occasional Paper 8, pp.21­28.
MONDADA L, 1999, « Formes de séquentialité dans les courriels et les forums de discussion. Une approche conversationnelle de l’interaction sur Internet », Apprentissage des langues et systèmes d’information et de communication, n°2, p.3­25.
MOTTEZ B., 1981, La surdité dans la vie de tous les jours, éd. CTNERHI MOTTEZ B., 1990, « La communication en famille lorsqu’un ou plusieurs membres sont sourds
» , dans Plurilinguisme n°1, Université R. Descartes, pp.64­74.
MOTTEZ B., 1992, « Savoirs, savoir­faire et façons d’être ; La transmission chez les Sourds », Actes du colloque « Surdité, Identité, Langage », ASEI­IDAC, Toulouse, juin 1990.
OLOGEANU R., 2000, Usages de la visioconférence dans l'enseignement supérieur, Étude subventionnée dans le cadre du Programme « Administration de l’Éducation nationale et innovation technologique dans le domaine des technologies de l’information et de la communication. » , http://www.educnet.education.fr/superieur/visio/visio0.htm
PADDEN C. & H. MARKOWICZ, 1976, « Cultural Conflicts Between Hearing and Deaf Communities
», in F.B. & A.B. Crammatte (éds.), Proceeding of the VII World Congress of the World Federation of the Deaf, (1975), Washington D.C., National Association of the Deaf.
PELLETIER A. & Y. DELAPORTE, 2002, « Moi, Armand, né sourd et muet… », Terre Humaine, éd. Plon.
QUIPOURT C., 1999, « Quelques situations d’interprétation
», Surdités n°1, décembre, pp.101­111.
SPINELLI B. & R. DOLCI, 2004, « Création d’une culture partagée dans un environnement de communication virtuelle
», ENS, Lyon.
SPROUL L. & S. KIESLER, 1986 « Reducing Social Context Cues
: Electronic Mail in Organization Communication
», Management Science, 32­11, p.1492­1512.
STAR S.L. & J.R. GRIESEMER, 1989, « Institutional
Ecology, « Translations », and Boundary Objects
: Amateurs and Professionals in Berkeley’s Museum of Vertebrate Zoology, 1907­39 », Social Studies of Science, 19, pp.387­420.
STRICKLAND­YATES G., 1999, « L’interprétation LSF/Français auprès d’une population sourde en cours d’acquisition de la langue des signes
», Surdités n°1, décembre, pp.117­119.
B. Truffaut, 1982, Les sourds tels qu'ils vivent (Histoires vraies)
VALIÈRE N., 2003, « Évolution des situations de travail en entreprise
: Entre prescription et usages des TIC
», IXèmes Journées de sociologie du travail, 27­28 nov. 2003, Paris.
WILLIAMS P., 1997, « L
’écriture entre l’oral et l’écrit. Six scènes de la vie tsigane en France », Par écrit ; Ethnologie des écritures quotidiennes, sous la direction de D. FABRE, éds de la Maison des sciences de l’homme, Paris, pp.59­78.
YOUNG A.M. & J. ACKERMAN, 2000, « Reflexions on Validity and Epistemology in a Study of Working Relations between Deaf and Hearing Professionals », Qualitative Health Research.
YOUNG A.M., J. ACKERMAN & J.G. KYLE, 2000, « On Creating a Workable Signing Environment : Deaf and Hearing Perspectives », Oxford University Press.
125
5 - Annexes
Liste des publications associées
Frédérick Gianni, Patrice Dalle. Interaction visuo­gestuelle avec un mur d'images. Dans : 2e Congrès de l'International Society for Gesture Studies (ISGS) : Interacting Bodies / Corps en interaction, Lyon, 15 juin 18 juin 2005. École normale supérieure Lettres et Sciences humaines, à paraître.
P. Dalle and B. Lenseigne. Vision­based sign language processing using a predictive approach ans linguistic knowledge. In IAPR conference on Machine vision and application (MVA 2005), Tsukuba Science City, May 2005.
B. Lenseigne, P. Dalle. A Computational Model for Sign Language Grammar, 2nd Language and Technology Conference: Human Language Technologies as a Challenge for Computer Sciences and Linguistics, Poznan, Pologne, 21 –23 avril 2005. Adam Mickiewicz University, Poznan, Pologne.
B. Lenseigne, P. Dalle. Using Signing Space as a Representation for Sign Language Processing, 6th International Workshop on Gesture in Human­Computer Interaction and Simulation, Vannes, 18 ­ 20 mai 2005. VALORIA, Université de Bretagne Sud
B. Garcia ?
Guylhem Aznar, Patrice Dalle. Informatisation de formes écrites des langues des signes. Dans : 2e Congrès de l'International Society for Gesture Studies (ISGS) : Interacting Bodies / Corps en interaction, Lyon, 15 juin 18 juin 2005. École normale supérieure Lettres et Sciences humaines, à paraître.
Hugo Mercier, Patrice Dalle. Analyse du visage : identité vs expressions. Dans : 2e Congrès de l'International Society for Gesture Studies (ISGS) : Interacting Bodies / Corps en interaction, Lyon, 15 juin 18 juin 2005. École normale supérieure Lettres et Sciences humaines.
126
Annexe 1: Le VRI
Figure 14: Fonctionnement du système de visiointerprétation (autrement appelé: VRI Video Remote Interpretation)
Annexe 2: Utilisation d’MSN
Figure 15: Exemple de conversations sur des problèmes techniques par le biais d'MSN
127
Annexe 3 : Formations au métier d’Interprète
Etablissement
Lieu
SERAC Université Paris Paris
8
ESIT (Ecole Supérieure d’Interprétation et de Paris
Traduction) Titre de la Durée
formation
DFSSU24
Interprète en LSF/Français
Maîtrise Sciences et Techniques LSF/Français
1 an
Contenu des brochures (interprétation à distance ?)
Néant
2ans + 2ans de Néant (linguistique, surdité et perception...pas de certificat technique)
prép.
«utiliser les ressources technologiques et les outils d’aides à la traduction (TAO)»
­ informatique et connaissance approfondie de l’outil informatique (tronc commun)
IUP Toulouse Le Mirail
Toulouse
IUP Métiers de l’Information et de
la 3 ans
Communication. Traduction et ineterprétation
­ 1ère année : gestion et maniement des outils d’aides à la traduction, localisation de logiciels Spécialité en 2ème année : traduction et multimédia (ou interprétation en conférence) : ­ initiation aux techniques de sous­titrage et surtitrage
­ repérage de sites Web
­ travail sur banc de montage
« [...] toute situation susceptible de se présenter dans l’exercice de la profession : interprétation téléphonique, visuointerprétation... »
Envoie mail, réponse de Mme Dal :
Université de Lille 3
Lille
Master professionnalisan
t 2ème année 1 an
« Interprétariat LSF/Français »
« Malheureusement, le M2 ne propose rien sur la visuointerprétation pour
l'heure, bien que la pratique soit destinée à se répandre. A terme, nous
intégrerons cette technique dans la formation, mais cela n'est pas prévu
pour l'année prochaine. »
Contenu de la formation : néant.
ETI
(Ecole Traduction
d’Interprétariat) (?)
de Genève
et Certificat Universitaire d’Interprète en 2 ans
LS
Néant (histoire et culture, linguistique...)
Formation continue.
24 DFSSU : Diplôme de Formation Supérieure Spécialisée d’Université
128
Annexe 4: Entretien avec un interprète sur le
système de visio-interprétation.
Pour l’usager
Pour le métier
Pour l’interprétation
Avantages
Inconvénients
Le système dissipe les Malentendant, dépend de malentendus
l’usager
­ Rythme de travail :
moins fatigant, une régularisation de l’activité et La visiointerprétation ne doit une diversification du métier pas être un travail permanent pour un interprète : « c’est la ­ Relations de travail :
mort du plaisir à exercer »
rapprochement des liens entre collègues
­ Signes différents puisque traduction dans toute la France
Retour écran possible ce qui ­ Manque de contexte (pas permet
d’améliorer forcément au courant du type de discours et d’événement que l’interprétation
l’interprète a à interpréter)
­ interaction difficile à distance
­ Du point de vue technique, lorsque le système ne marche pas ­ Du point de vue de la situation : le système est situé au sein d’un lieu de vie et il est nécessaire de faire attention à ce que l’on pourrait dire en dehors ou aux personnes aux Vrai plaisir de traduire par alentours...
Par rapport au système
écran
­ Du point de vue de l’environnement : le système est par exemple inadapté pour l’hôpital. D’une part, les consultations se font sur rendez­vous mais lorsqu’il faut montrer une partie du corps, l’écran devient limité...
129
Annexe 5
Évolution des activités de WebSourd (dans « Réunion Organisation de WebSourd, 22mars 2004 » )
Juillet -Déc.2003
Janv.-Mars 04
Lancement
– Installation
– Création société
– Constitution équipe
• Formation interne
- Appels d’offre
• Charte
• Site
– Premiers clients
– Concepts de base
• Technique
• Essais
Démarrage
des
opérations
– Ventes des
services
– Ventes des services
– après vente
– Gestion des sites (V0, puis V1, …)
et Contenus
V0, puis V1…
– Développement des conventions
– Politique de
– Gestion des prestataires techniques
– Négociation
financière
– Consolidation
partenaires
– Communication
Janvier-juin 2005
Exploitation
– Organisation
financement
– Consolidation
Avril-Décembre 2004
Consolidation des opérations
– Tour de table financier
partenaires
Quelques caractéristiques sociales et techniques de WebSourd
Juillet2003 -janv.2004
–Une association (Août 2001)
Expérimentation de visiointerprétation, traduction de
formulaire, captation, édition
bilingue…
–Local : Juillet 2003
–1ère équipe : 6 personnes
–2 femmes / 4 hommes
Février-Décembre 2004
Mise en place à l’extérieur de services de visiointerprétation et de traduction de formulaires, projet d’accès
LSF au logiciel libre SPIP de gestion de site
Réaménagements et disparition de « l’isoloir » : création de 3
espaces : cabine de visio-conférence,
Équipe de 11 personnes
Ouverture du site
Brèves …etc
Ouvrage Bilingue
table de montage et salle de
prise de vue
3 stagiaires
4 femmes / 7 hommes
2 femmes/ 1 homme
3 sourdes / 4 sourds
2 entendantes / 1 sourd
=autres expériences des TICs
2 sourdes / 2 sourds
Internet, tél, fax, photocop
Mur et outil de projection de
docs :word, excel, powerpoint
Panneau-papier
Déc 2004 –juillet 2005
Une SCIC à partir de février 2004
Serveur interne et partage d’espace informatique entre
WebSourd, Iris & Interpretis
Mars : Wifi, distribution de WebCam (& tel portable) ;
Visio-conférence à WebSourd
FreeMind Gestion directe des abonnement internet
Étude sociologique à WebSourd
Année 2003
Informations
générales sur
le projet
Projet WebTV
La mise en
place de
l’équipe
WebSourd
Nov. 2003- avril 2004
Mai-octobre
2004
Nov. 2004- juin 2005
Contrat IRIS-Usages internet
Terrain exploratoire
à WebSourd
Arrêt des observations
Recul
Observations des changements et
analyse des usages d’internet
Observations
de journées de travail
Réunions de travail avec &
sans interprètes, sur place
ou chez des partenaires
Recherche documentaire
Espaces et pratiques au sein de
WebSourd
- fonctionnement de l’équipe
- matériel et activités sur place
Collection de documents, suite
Collections de documents
Emails, supports de travail,
références proposées…
Entretiens, formels et informels
- Histoire et logique des partenariats
- Synthèse sur les usages d’internet
1ers entretiens, discussions
expérimentation d’une communication à
distance à travers l’enquête
– Parcours professionnels
– Modes de travail
– Tâches à Websourd
130
Annexe 6 - Occupation des locaux de WebSourd
Cuisine
Lieu de pause & presse
2 bureaux
Salle de
réunion
entrée
Douche
WC
Serveur,
Photocop…
Bureau
administration
3 bureaux
Espace de bureaux
Espace collectif
Espace non occupé
Doc
« l’isoloir »
Occupation des locaux
de WebSourd en 2003
Documentation
Espace d’affichage
Paroi amovible
131
2 bureaux
Salle vidéo
Cuisine
Salle de
réunion
Table de
montage
entrée
Serveur,
Photocop…
Cabine de
visioconférence
Douche
WC
Bureau
administration
Doc
3 bureaux
Espace de bureaux
Espace collectif
Espace non occupé
Occupation des locaux
de WebSourd en 2005
Documentation
Espace d’affichage
Paroi amovible
132
Annexe 7 - L’équipe de WebSourd
L’équipe de WebSourd était initialement constituée de deux personnes. J. Sangla, sourd, était porteur d’un projet de « Web TV Sourd », et connaissait les besoins des personnes sourdes. M. Dupoirieux, entendant, était activement investi dans la promotion et l’accompagnement de Sociétés Coopératives (SCOP). À travers la rencontre de ces deux hommes naît le projet plus spécifique de « WebSourd », une société qui repose de façon décisive sur le réseau des sourds (via la Fédération Nationale des Sourds de France) et le réseau des scops (via l’Union Régionale des Scops de France). La FNSF et l’URSCOP sont les deux organismes fondateurs de WebSourd. J. Sangla et M. Dupoirieux ont tout d’abord mené une étude de faisabilité et posé les bases de la future entreprise. S’ils constituent à ce titre la toute première équipe de WebSourd, ils mobilisent déjà plusieurs personnes proches des différents réseaux mentionnés. Des membres d’IRIS, de l’APES de Toulouse (Association des Parents d’Enfants Sourds) et de la Scop d’interprètes français­LSF, INTERPRETIS, ont endossé les rôles décisifs et relativement inédits de médiateurs culturels. Ils ont en effet apporté aux deux partenaires des informations plus générales sur le monde des sourds et le monde des entendants, ou permis un transfert d’informations de l’un vers l’autre. L’illettrisme des sourds, pas plus que la nature des communications téléphoniques des entendants, ne sont par exemple des sujets faciles à saisir pour qui n’y est pas directement impliqué. L’histoire de WebSourd commence par la collaboration de deux hommes, l’un sourd, l’autre entendant, qui ne partagent pas la même langue, mais qui s’appuient sur des réseaux humains qui ont été particulièrement décisifs. Pour comprendre plus finement comment l’expérience de WebSourd peut être transférable à d’autres sites de travail, il serait important de développer davantage cette histoire, faîte de médiations entre les deux partenaires mais aussi de prises de position et de mobilisations par d’autres personnes au sein des organismes ou des communautés impliquées. Il semble que des processus similaires aient eu lieu lors de la mise en place de certains dispositifs de traduction ou de visio­interprétation au sein d’administrations françaises. En juillet 2004, l’équipe s’agrandit pour passer à la phase de réalisation du projet. Elle occupe les locaux mis à disposition par la Mairie de Toulouse dans un appartement de Bellefontaine, un espace qu’elle peut réaménager à loisir. L’équipe est alors constituée de 3 hommes entendants (direction, assistant de direction, responsable du financement) et de 4 personnes sourdes (2 hommes et 2 femmes), assumant la responsabilité des projets (traduction de formulaires, accessibilité culturelle, actualités) et le service multimédia. J. Sangla, sourd, est également membre du comité de direction. Il s’agit d’une équipe de personnes déjà engagées depuis longtemps dans la vie active. ■
Jacques Sangla, sourd, est chargé de communication et de la promotion de WebSourd. Il participe à son comité de direction. Il est également responsable de la traduction des formulaires administratifs en LSF. ■
Michel Dupoirieux, entendant, est responsable de la recherche de financements au sein de l’équipe WebSourd. Il ne connaît pas la LSF. Domicilié à Montpellier, il effectue, de plus, de nombreux déplacements dans le cadre de son travail.
■
Martine Brusque, sourde, est chargée de l’accessibilité culturelle en LSF. Une partie de son travail, consacrée à une recherche sur l’illettrisme, se déroule à IRIS.
■
Christine Castell­Niell, sourde, est responsable de la diffusion des actualités des mondes sourd et entendant. Domiciliée à Montpellier, elle effectue une partie de son travail à distance.
133
■
Nicolas Piquet, entendant, ancien secrétaire à IRIS, est assistant de direction. Il pratique la LSF. Sont « mis à disposition » par leurs employeurs,
■
François Goudenove, d’AIRBUS, entendant et père d’un enfant sourd, président d’IRIS (association travaillant à promouvoir la LSF). Il assume les fonctions de directeur de WebSourd pendant deux ans. Il pratique la LSF.
■
Pascal Jobez, sourd, responsable multimédia d’IRIS. Il gère le parc informatique de WebSourd et répond aux besoins de WebSourd en matière de production et de montage audiovisuel. Il travaille essentiellement depuis IRIS. Si P. Jobez est la seule personne du service multimédia d’IRIS à être rattaché à WebSourd, il mobilise cependant toute une équipe pour réaliser les tâches demandées. Celle­ci est composée de 3 sourds (Pierre Olivier Tur, Rémi Levan, Jean­
Christophe Cazenave) et une entendante (Anne Goudenove), tous locuteurs de LSF.
Emilie Rigaud, sourde, intervient également à titre gracieux comme présentatrice de WebSourd. Cette équipe travaille avec des Scops n’employant que des personnes entendantes qui, à l’exception de la société d’interprètes (INTERPRETIS), ne savent pas signer : le trésorier, mais aussi les partenaires dans la construction du site : Nuances du Sud, Insite, puis Octavo et CRP… La présence d’interprètes est nécessaire au bon fonctionnement de l’entreprise. C’est un autre aspect à prendre en compte si l’on souhaite exporter l’expérience de WebSourd. Si le fait d’employer plusieurs personnes sourdes semble être un critère important, celui de travailler en équipe mixte l’est tout autant. Ceci suppose la disponibilité de ces professionnels que sont les interprètes, mais aussi la gestion des coûts de fonctionnement que cela induit. Comme on l’évoque dans ce rapport, les interprètes ne règlent cependant pas tout. Ils n’assument pas par exemple la gestion des tours de parole, une pratique qui implique des codes culturels d’interaction. Certains savoir­faire gagneraient à être explicités, ou bien certaines situations de travail vécues comme peu confortables devraient faire l’objet d’une observation extérieure. Néanmoins, comme d’autres auteurs l’ont souligné (J.R. Ladmiral & E.M. Lipiansky, 1989 ; B. Spinelli & R. Dolci, 2004), la collaboration autour d’une tâche ou d’un projet commun, impliquant plusieurs personnes de chacun des collectifs impliqués, est un cadre pertinent d’apprentissages croisés.
L’équipe de base est restée peu modifiée. Michel Dupoirieux était destiné à s’éclipser avec l’arrivée de cette nouvelle équipe. Il faudra au contraire dans un premier temps lui adjoindre temporairement une secrétaire entendante, Assia Moktari (qui ne connaît pas la LSF). D’autres personnes viendront ensuite grossir l’équipe pendant l’année qui suit :
■
Bruno Moncelle, sourd. Il est conseiller en communication et présentateur de WebSourd. Domicilié dans la région parisienne, il effectue de nombreux va­et­vient.
■
Hugo Mercier, entendant, intervient dans le cadre d’une bourse CIFRE et d’un doctorat en informatique (IRIT). Il ne connaît pas initialement la LSF. Il est chargé de recherches sur les nouvelles technologies au sein de WebSourd. Il travaille essentiellement à l’IRIT (Université Toulouse 3).
■
Marylène Charrière, sourde. Elle intervient dans le cadre d’une formation en alternance dans le secteur du journalisme audiovisuel. Ceci l’oblige à de nombreux va­et­vient entre Paris et Toulouse.
■
Marina Al Rubae, entendante. Elle est assistante commerciale et pratique la LSF. Elle sera remplacée à la rentrée 2005, par une personne ne connaissant pas la LSF.
134
■
Jean Olivier Regat, sourd. En formation, il travaille à développer les contenus du site, et s’investit également dans la technique informatique. S’ajoutent également des stagiaires, notamment
•
Michel Giclat, sourd
•
Audrey Courtin, entendante, (travail sur les SCICs)
•
Karine Grande, entendante (travail sur le site, projet usages de l’internet)
Toute deux se formant parallèlement à la LSF.
Le personnel de WebSourd a ainsi doublé en un an. Il a accueilli des recrues plus jeunes. Sans inclure les stagiaires, l’équipe compte actuellement 6 sourds (3 hommes et 3 femmes) et 4 entendants (3 hommes et 1 femme).
135
Was this manual useful for you? yes no
Thank you for your participation!

* Your assessment is very important for improving the work of artificial intelligence, which forms the content of this project

Download PDF

advertising