Le 19 septembre 2012 s’est tenue la troisième édition d’a11yLDN (Web Accessibility London Mini-Conference), version londonienne des « unconferences » dédiées à l’accessibilité. Cette année, où le thème central était « surdité et malentendance », j’ai eu le plaisir d’y assister en tant que spectateur et conférencier. Petit résumé très personnel.
« Le futur est Sourd »
L’allocution d’ouverture a été donnée par Alison Smith, de PeskyPeople, qui a offert une présentation de ce que signifie être sourd (ou malentendant) dans notre monde numérique. Statistiques, technologies, expériences personnelles, démos, ont alimenté cette présentation, qui a donné le ton pour la journée: dense, instructive, et très ancrée dans le concret. Une densité qui m’a d’ailleurs un tantinet frustré: chaque créneau comportait 3 présentations en parallèle, et si j’avais pu me cloner, j’aurais assisté à tout ce qui m’intéressait, mais faute de quoi j’ai dû restreindre mes choix (physique classique, quand tu nous tiens…). Le programme était alléchant à de multiples niveaux, et à mon grand regret j’ai loupé certains talks qui agitaient Twitter sous la bannière #a11yLDN.
Accessibilité, UX, et mobilité
Sophie Freiermuth (aka @wickedgeekie) a délivré une masse impressionnante de conseils et réflexions pertinents sur la gestion d’un projet Web mobile, sous l’angle de l’expert en expérience utilisateur mâtiné d’accessibilité. Si impressionnante qu’il fallait s’accrocher pour suivre… Dommage que les slides ne soient pas en ligne, l’auteur considérant que plus que le support, c’est la conf qui compte… Ce qui se conçoit, au vu de la conf, mais c’est vrai que, en complément d’une prise de notes, les slides, ça aide! Surtout au train d’enfer où la présentation a été donnée (Sophie, si tu nous lis…).
Parmi les excellentes pistes données, j’ai retenu la difficulté qu’il y a à communiquer sur l’expérience utilisateur dans le cadre d’un projet mobile. Tout est nouveau, les interactions, les représentations, les préjugés, les repères, les objets graphiques, sonores et sensoriels. Comment décrire une vibration? Un swish? Les utilisations de la géoloc, de l’appareil photo, des capteurs de proximité et de mouvement?
Autre problème: comment faire face à l’explosive diversité des terminaux, tant en termes de capabilités que de caractéristiques techniques ? La situation est très différente de ce que l’on avait commencé à apprivoiser avec les ordinateurs traditionnels. Les systèmes d’exploitation ont un impact majeur sur l’expérience utilisateur, et ils sont légion : iOS et Android sont les plus emblématiques, mais les Windows phones ont les moyens de prendre quelques parts de marché ; sans compter les multiples OS propriétaires, moins bruyants que les ténors, mais très bien implémentés sur les smartphones d’entrée de gamme, les plus répandus sur les marchés émergents. Ainsi, une même tâche pourra fonctionnellement être décrite de façon unique, mais la façon de la réaliser, et donc la façon de la décrire dans les spécifications, variera énormément d’un appareil à l’autre.
Autant de défis à la mise en musique des idées de l’expert UX et accessibilité… agravés par l’absence de recommandations fiables et robustes. On a attendu 10 ans pour avoir celles du Web, donc, bon, considérons qu’on va devoir beaucoup explorer et tâtonner en attendant de pouvoir s’appuyer sur du solide. Et plus que jamais, tester, tester, tester… Autre sujet brillamment abordé, d’alleurs.
L’on a ainsi appris que pour le commanditaire d’une appli mobile, le test utilisateur est une « bête effrayante » (scary beast). Le client ne veut pas payer pour les faire, ne veut pas entendre les résultats, et ne veut pas corriger son appli pour y répercuter les enseignements. L’expert se retrouve dans une situation délicate, où son client attendait des miracles (c’est-à-dire une application d’emblée ergonomique que les utilisateurs vont adorer, sans qu’on ait besoin de tester), alors que le principal outil de réalisation de ce miracle, c’est précisément le test utilisateur…
Débat passionnant, donc, et vous n’en avez ici qu’un aperçu. Vivement qu’il y ait un espace de discussion en ligne ou ailleurs pour le prolonger, et travailler toutes ces questions très importantes.
iShow
Jon Gibbins (alias @dotjay) a présenté une démo assez spectaculaire sur les capacités d’iOS, le moteur des iMachins (en l’occurrence iPhone et iPad ici), en termes d’accessibilité. Et si l’on commence à connaitre assez bien ce qui a été fait pour les déficiences visuelles, on méconnait généralement les possibilités de l’outil pour les personnes en situation de déficience auditive. Quoique… rappelez-vous la publicité où, comme dans les vieux films de SF, on voit deux personnes converser en vidéo sur un appareil qui tient dans la main. Et en l’occurrence, elles le font en langue des signes.
Moins spectaculaire mais plutôt malin : la possibilité de personnaliser les vibrations. On l’oublie souvent, mais les vibreurs de nos téléphones satisfont à l’origine un besoin des utilisateurs qui ne peuvent pas entendre une sonnerie. Il était donc logique que, à l’instar des sonneries, on puisse personnaliser un motif de vibration… que, sous iOS, on peut soit créer à l’aide d’une interface assez ludique, soit télécharger. Dans la même veine, on peut utiliser le flash intégré pour signaler un appel ou autre événement.
D’autres fonctionnalités aideront grandement les personnes qui ne peuvent pas utiliser l’oralité (sous-titres, répondeur vidéo), ou ont besoin d’adapter la restitution sonore (passage en mono, gestion de la balance, compatibilité avec les appareils auditifs). Autant d’efforts « discrets », mais qui caractérisent un travail en profondeur sur l’accessibilité des iBidules.
Ma prez
Pour coller avec le thème de cette année, j’ai proposé une présentation exposant diverses bonnes pratiques pour la réalisation de vidéos plus accessibles aux personnes en situation de déficience auditive. Je me suis basé sur un travail réalisé pour un client, qui visait à couvrir toutes les situations utilisateur ; travail que j’ai approfondi et spécialisé pour l’occasion.
Si l’on sait parfaitement quoi faire en termes d’implémentation technique grâce aux référentiels, on est beaucoup moins guidé dans la fabrication de la vidéo elle-même : comment choisir la bonne police pour les textes incrustés ? La bonne disposition, les bons espacements, les bonnes couleurs, la bonne quantité de texte ? Comment filmer les locuteurs ? Comment optimiser le niveau sonore des dialogues ? Comment filmer un interprète en langue des signes ? Autant de questions concrètes qui appellent des réponses opérationnelles et applicables par les « faiseurs de vidéo », en amont, pendant, ou après leur réalisation.
La grippe et les problèmes de transport s’étaient combinés pour décimer l’audience d’un bon tiers (90 personnes prévues, 60 présentes). Qui plus est, les 2 conférences en parallèle de la mienne étaient bien alléchantes, j’aurais d’ailleurs beaucoup aimé y assister… Au final, la salle sonnait creux, mais malgré tout, les quelques personnes présentes m’ont donné de très bons feedbacks et ont contribué activement au débat. C’était aussi l’occasion, pour la première fois, de présenter ce travail qui, a priori, est assez inédit aujourd’hui.
Vous pouvez consulter (ou télécharger) les slides, en anglais of course, sur SlideShare.
Un mot sur l’organisation
Une caractéristique forte des unconferences est de donner un maximum de place aux conférences et à l’info utile, et d’éviter le fatras politico-pincefesso-institutionnel de certains événements. Les spectateurs viennent pour apprendre et partager. Les conférenciers pour, euh, partager, et… et bien, apprendre aussi. L’organisation fluide et toute en efficacité discrète a parfaitement rempli cet objectif, malgré de nombreuses défections parmi les volontaires. Bien que la conférence soit gratuite et faiblement sponsorisée, on a bénéficié d’interprétation en langue des signes sur la plupart des présentations. Coup de chapeau donc, et j’attends déjà la date de l’édition 2013 pour la cocher dans l’agenda.
Petit rattrapage
J’ai compilé et archivé sur Storify les tweets les plus significatifs émis à propos de l’événement. Enjoy!
C’est très intéressant d’avoir des échos de ce qui se fait dans les autres pays en matière d’accessibilité.
Est-ce que ta participation aux ateliers ParisWeb t’as permis d’approfondir ou de réfléchir aux informations que tu as collecté au a11yLDN ?
salut Régis 🙂
Non, pas spécialement, mais cela tient surtout au fait que sur les ateliers PW je me suis focalisé sur l’agilité, qui n’était pas traitée frontalement à Londres. En tous les cas, je conseille vivement a11yLDN à tous les parisiens curieux d’accessibilité. 2h d’Eurostar à peine, et en plus, on peut aller sur le lieu de la conf à pied depuis la gare…