Barrierefreiheit für Gebärdensprachler

Nun hab ich meine Idee ja schon ein paar Leuten erzählt und bisher positives Feedback erhalten. Einige andere zeigten sich neugierig. Ich möchte hiermit also ausbreiten, was ich mir überlegt habe, wie man den Computer für Menschen mit einer Hörbehinderung ein wenig barrierefreier gestalten kann.

Dieser Beitrag wird in einem eigenen Blog in’s Englische übersetzt werden.

Gebärdende Hände
Flickr: „Gebärden“ von
ServiceCenterÖGSbarrierefrei (CC-BY-NC)

Zunächst einmal, worum wird es in diesem Beitrag gehen?

Derzeitiger Stand

Wenn es um das Thema „Barrierefreiheit“ im Internet geht, ist meist von Anwendern mit einer Seheinschränkung die Rede. Ich kann durchaus nachvollziehen, dass diese Personengruppe vor den größten Hürden steht. Daneben gibt es aber noch andere Benutzer, die vor Barrieren stehen, seien sie lernbehindert oder hörgeschädigt.

Ich möchte mich hier auf die Menschen mit einer Hörschädigung, und insbesondere dabei auf die Gebärdensprachler eingehen, denn diesen fühle ich mich nahe.

Bei Menschen mit einer Hörbehinderung kann man eigentlich sagen, dass es denen gut geht. Sie sind oftmals sehend und erleben Webanwendungen so, wie es sich die Webentwickler und -designer gedacht haben. Alles Prima. Okay, bei Videos noch Untertitel hinzufügen und dann passt es. Könnte man meinen.

Dabei wird aber gerne außer Acht gelassen, dass Lautsprache nicht die Muttersprache von Gebärdensprachlern ist. Diese sollten stattdessen vielmehr wie Fremdsprachler betrachtet werden. Das wirkt sich insbesondere auf die Wortwahl beim Verfassen eines Artikels aus. Aber auch Gefühle und Meinungen zwischen den Zeilen kommen nicht immer beim gebärdensprachlichen Empfänger an.

Jetzt wurde schon mehrfach versucht, einen Computer-Avatar als Gebärdensprachdolmetscher einzusetzen. HeWriteSilent hat in seinem Blogbeitrag einige davon aufgezählt. Da wären zum Beispiel eSign oder WISDOM. Oder ganz jung SiMAX.Weitere findet man mit einer Suche nach „Gebärdensprache Avatar“. Aber alle konnten sich nicht so recht durchsetzen. Warum, wird unter anderem auch von Julia Probst aufgeschlüsselt.

Meine Motivation

Vor einigen Tagen ging wieder ein Video durch die Presse der Gehörlosen-Szene:

Auch wenn ich begeistert davon bin (und die Entwicklung bereits im Juni bemerkt habe), sehe ich hier doch ein paar Probleme:

  1. Es ist proprietär. Das bedeutet insbesondere, dass der Benutzer nicht davon ausgehen kann, nicht ausspioniert zu werden. Daneben kann man nicht verhindern, dass die Software auch auf Bereiche übergreift, die eigentlich nicht zugänglich sein sollten. Daneben kann das Projekt zu einem beliebigen Zeitpunkt eingestellt werden (zum Beispiel, wenn es nicht profitabel genug ist).
  2. Es ist von Mircosoft. Diese haben nicht nur nicht bewiesen, dass sie sonderlich viel von Sicherheit verstehen, sondern ich befürchte außerdem, dass die Software auf ihr Betriebssystem beschränkt bleiben wird. Dies hängt auch mit 1. zusammen. Und APIs bleiben auch nicht bestehen, wie das aktuelle Beispiel von Skype zeigt.
  3. Es ist kommerziell: Dadurch, dass der Quellcode nicht offenliegt (also 1. greift), kann Microsoft den Preis festlegen. Und wer sich mit den Belangen von Menschen mit Hörschädigung beschäftigt, wird schnell erkennen, dass sie viele zusätzliche Belastungen haben. Zwar wird so einiges von Krankenkassen und Sozialämtern übernommen, aber damit hängen die Menschen von deren Wohlwollen ab.

Eigentlich wollte ich jetzt still und heimlich an einer Lösung werkeln, die ein Stück Freie Software entwickelt. Motiviert bin ich dabei durch drei Punkte:

  1. If you can dream it, you can do it. — Walt Disney
  2. Interview mit Richard Stallman:

    However, I do know of one Indian developer who has made an important contribution. His name is Krishnakant [Mane]. He came to a talk I gave, and said that there was no Free Software that could speak words from the screen, and so asked what he ought to do? I said, “Write some.” So a few years later, he came to one of my talks, and reminded me of what I had said to him earlier — and said that he had “written some”. So now he has made major contributions to screen-reading software, which he and thousands of other people use.

  3. Meine an Taubheit grenzend schwerhörige Tochter. Ich möchte für sie eine Welt vorbereiten, in der sie sich frei(er) entfalten kann.

Wie gesagt, eigentlich wollte ich es still und heimlich vorbereiten und dann mit einem Proof-of-Concept mich an die Experten wenden. Doch dann habe ich Aaron Seigo’s Gedanken bezüglich dem Einbringen neuer Ideen in die Freie Software-Gemeinschaft gelesen. Daneben hat noch ein Freund von Google+ einige Zeilen in seinem Blog erwähnt, die dann den Ausschlag gegeben haben:

Für mich besitzt die Freiheit auch den Punkt, dass ich mich in meinem Leben unbeobachtet fühle und nicht zwanghaft an etwas gebunden bin, welches nur dem Zweck dient mich als Ware zu sehen. Dies finde ich sogar mehr als Absurd. Ich komme mir bei den heutigen Anbietern herablassend, bevormundet und ausgenutzt vor. Ein Zustand dem ich selbst Wissend keiner anderen Person aussetzen würde. Es verbietet mir einfach der Anstand.

Also werde ich es doch eher veröffentlichen auf GitHub. Ich brauch dazu aber auch noch eure Hilfe. Insbesondere bin ich bei der Wahl der Lizenz noch unsicher. Das besprech ich wohl am ehesten über IRC. Mehr dazu weiter unten.

Anwendung aus Sicht des Benutzers

Fangen wir mit dem FrontEnd an. Also das, was der Endnutzer am Ende zu sehen bekommt. Ich möchte, dass das von mir geschriebene Stück Software zunächst im Web benutzbar wird. Dabei soll ein kleines Icon (beispielsweise die Hand, welche sehr beliebt ist unter den Gebärdensprachlern) neben dem Text erscheinen, der in Gebärdensprache übersetzt werden kann. Später möchte ich dann auch Programme für Betriebssysteme anbieten. Da ich Python ganz arg mag, werde ich mich wohl nach einer SVG-Bibliothek für Python umschauen. Aber das steht noch nicht so nah an. Nochmal, es geht nicht darum, Unterhaltungen zu übersetzen, sondern das Angebot einer Website leichter in Gebärdensprache verfügbar zu machen!

Ich habe gerade SVG erwähnt. Dabei handelt es sich um ein Bildformat für sogenannte Vektorgrafiken. Diese haben den Vorteil, dass sie nicht das Bild als Menge von Punkten speichern, sondern in Form von Kurven und Geraden. Dadurch kann eine hohe Auflösung in jeder Größe gewährleistet werden. Außerdem ist es ein Standard des W3C, des World Wide Web Consortiums, welche die Regeln für HTML festlegt. Darüber hinaus ist es in XML geschrieben, also Text. Das hat einerseits den Vorteil, extrem gut komprimiert werden zu können, andererseits lässt sich text vergleichsweise einfach manipulieren. Bilder oder Text können trotzdem eingebunden werden 🙂

Die Kompression ist mir wichtig. Ich habe oben schon erwähnt, dass sich die Avatare nicht so recht durchsetzen konnten. Ich denke, hier greifen mehrere Gründe:

  • Bandbreite. Schon einmal versucht, ein Video auf dem Smartphone mit UMTS oder LTE zu betrachten? Lags garantiert. Meiner Meinung nach können Gehörlose auch auf die Tonspur verzichten. Übertragen wird also nur Bild.
  • Emotionen. Ich plane, meinen Avatar in mehrere Schichten SVGs aufzubauen. Dadurch kann sich ein Designer später auf einen bestimmten Bereich konzentrieren, ohne immer alle anderen berücksichtigen zu müssen. Daneben lassen sich einzelne Elemente (z.B. Augenform) austauschen.
  • Caching. Dadurch, dass ich bestimmte Elemente in eigene Bibliotheken auslagere, wird es möglich, diese auf dem Rechner vorzuhalten. Das führt dazu, dass manche Objekte nur einmal geladen werden müssen.

Ich möchte kurz auf die Anwendungsfälle eingehen.

Wie gesagt, ich habe immer wieder mit Gehörlosen zu tun. Wenn man sie nicht in persona sieht, bleibt eigentlich nur die schriftliche Kommunikation oder eine Videoübertragung üblich. Jetzt ist Deutsch (oder allgemein, Lautsprache) aber nicht die Muttersprache von Gebärdensprachlern. Ich ertappe mich auch immer wieder dabei, dass ich gerne über mein Smartphone gebärden möchte. Geht aber noch nicht.

Das große Wörterbuch der Deutschen Gebärdensprache - App für's iPhone
„Das große Wörterbuch der
Deutschen Gebärdensprache“
(Schreenshot der App für’s iPhone)

Daneben lerne ich diese (wunderschöne) Sprache erst. Da wäre ein Handbuch nicht schlecht. Okay, es gibt zwar Apps für iOS und Android, aber die kosten. Und nicht gerade wenig. 9 EUR pro Themenpaket wird wohl kaum jemand berappen.

Nehmen wir einmal an, das Programm wäre schon fertig. Wie sollte sich die App bedienen lassen? Hier hat Frau Kestner schon eine ganz gut ausgetüftelte Systematik erstellt: Gebärden lassen sich danach sortieren, ob sie mit einer oder beiden Händen ausgeführt werden, wie viele Finger benutzt wurden und in welcher Position sie sich befinden.
Ich könnte mir vorstellen, dass es sich auch gut über Wischgesten oder Untermenüs einrichten lässt. Hier brauche ich erst noch Zeit für ein MockUp.

Anwendung aus Sicht des Entwicklers

Als Entwickler stellt man sich ja im Vorfeld so einige Gedanken. Mir ist beispielsweise aufgefallen, dass die Gebärdensprache regional sehr unterschiedlich ausfallen kann. Dennoch gibt es immer wieder gleiche Gesten. Ich möchte von daher die Bibliotheken modular halten. Das sieht dann in etwa so aus:

  1. Eine Bibliothek beschreibt, wie welche Haltung aussieht. Wie muss ich den XML-Text manipulieren, damit ich einen Daumen hoch sehe? Welche Linien müssen dafür ausgeblendet werden? Welche anderen Elemente müssen auch neu berechnet werden? (Ohne das WIE!)
  2. Eine Bibliothek, die einzelnen Wörtern einer Abfolge von Gesten zuordnet. Das Wie beschreibt. Welche Schritte sind erforderlich, um eine Hand aufwärts zu führen? Welche Linien müssen manipuliert werden, damit ich ein erstauntes Gesicht sehe?
  3. Eine Bibliothek, die die Gestaltung vornimmt. Kennst du Sims? In den jüngeren Teilen gibt es die Möglichkeit, eine Vielzahl an Einstellungen für die virtuelle Figur vorzunehmen. Ich möchte aber vorerst bei einer Comic-Figur bleiben. Siehe dazu auch die beschriebenen Problemfelder weiter unten.
  4. Eine Bibliothek, die den Text parst. Für den Anfang behalte ich die Grammatik der Lautsprache bei. Später würde ich mir wünschen, wenn man die Worte grammatikalisch besser identifizieren kann, damit ich sie per JavaScript übersetzen lassen kann. Ich habe mir LanguageTool angeschaut, aber das scheint hier eher ungeeignet zu sein.

Dennoch soll es möglich sein, die Hautfarbe oder den Teint unabhängig von den anderen Bibliotheken ändern zu können. Dazu ist es notwendig, einige Fixpunkte festzulegen. Diese bestimmen dann beispielsweise das Kinn des Kopfes. Oder den Beginn des Beckens. So Kram halt. Wie füllig die Figur dann aussieht, kann hinterher angepasst werden 😉

Mir ist es noch wichtig, nach Möglichkeit einzelne Elemente, also die SVG-Schnippsel, soweit zu isolieren, dass die manipulierende Programmiersprache ausgetauscht werden kann. Für den Anfang nehme ich jQuery, also JavaScript. Später soll Python folgen. Aber ich kann mir auch einen Einsatz in C# oder Java vorstellen.

Kommen wir zur Einbindung. Wenn ich die aktuelle Verbreitung von barrierefreien Elementen in Websites und -apps sehe, muss ich sagen, sieht das Bild ziemlich ernüchternd aus. Klar gibt es da diese Schar von Entwicklern, die sich in ihrer Bubble auf die Schulter klopfen. Aber es ist vom Mainstream weggedriftet. Gaaanz am Anfang war die Gestaltung ja ziemlich … technisch. Es gab Textdateien mit Bildern und so. Und dann kamen die Framesets. Damit fing meiner Meinung nach die ersten Probleme an.
Die Bibliotheken müssen also einfach eingebunden werden können. Ich bin mir noch unschlüssig, ob ich als ein jQuery-Plugin verteilen möchte (die von mir verwendete jQuery.SVG.js ist jQuery-kompatibel) und dann einfach über eine HTML-Klasse ala „sign-this“ den Text auslesen lasse, oder ob es ein Browser-AddOn werden soll. Mit einem AddOn könnte ich „sicher gehen“, dass der Nutzer nicht vom Wohlwollen des Entwicklers der Seite abhängt.
Ich tendiere aber zu ersterem, da ja noch ein Punkt zu beachten ist, der so nicht automatisiert ausgelesen werden kann: Die Stimmung. Es ist eine Meta-Information, die mitgeliefert werden muss.

Die Emotionen sind ein wichtiger Bestandteil davon, wie eine Botschaft interpretiert wird. Wenn jetzt ein neutrales Gesicht zu einem traurigen Ereignis gezogen wird, hat das eine ganz andere Wirkung.

Stellt euch doch einmal vor, was man damit noch anstellen könnte!
Sagen wir, die Stimmung wird auch über HTML-Klassen festgelegt (zumindest solange, wie es noch keinen Standard dafür gibt). Etwas in Richtung „mood-“ vielleicht. Dann könnte man das natürlich jetzt für die Gebärdensprach-Übersetzung verwenden. Man kann es aber auch wiederverwerten, meinetwegen durch eine Anpassung der Hintergrund-Farbe. Ich mein, es wird doch eh schon mit Apps für Stimmungslicht herumexperimentiert. Dann kann man das doch gleich ein wenig kollaborativ angehen.
Die Stimmung könnte aber auch für die Blinden nutzbar sein. Denn daran kann man die Stimmfarbe anpassen. Ich muss mich aber erst noch mehr mit Screenreadern für Smartphones (benötigt Flash, ca. 22 Minuten Video) und Desktops beschäftigen, um da genauere Aussagen treffen zu können. Aber es wäre eine gute Möglichkeit, über Multiple Purpose der Barrierefreiheit einen Anschub zu liefern.

Mögliche Problemfelder

Screenshot des Großen Wörterbuchs der Deutschen Gebärdensprache
Das große Wörterbuch der Deutschen Gebärdensprache
(Screenshot der Desktop-Anwendung)
 

Ja, ja, die lieben Patente. Ich mache mir ernsthaft Sorgen, ob meine Software nicht an dem Großen Wörterbuch der Deutschen Gebärdensprache scheitert. Ich habe schon mehrfach mit der engagierten Verlegerin zusammengearbeitet. Sie hängt sich wirklich rein für die Belange hörgeschädigter Menschen. Und mit ihrem Verlag muss sie Geld verdienen. Verstehe ich ja. Aber kann man Grammatik patentieren? Kann man so ein System patentieren? Könnte hier die geschickte Wahl einer GPL-kompatiblen Lizenz (Apache?) diesen Problemen aus dem Weg gehen? Das von mir benutzte Plugin steht unter der MIT-Lizenz.

Arbeitsplätze. Ein anderes Thema, worüber ich mir viele Gedanken mache. Ich habe mich bewusst für eine Comic-Darstellung entschieden, da diese einerseits leichter beschreibbar ist, andererseits auch eine geringere Qualität verspricht. Ich mag nicht die Schriftdolmetscher um ihren Job bringen. Meine Software soll viel mehr auf Websites erscheinen, wo der Text eine gewisse Halbwertszeit hat. Er wird sich meiner Meinung nach für Echtzeit-Übersetzung eignen. Und das ist so gewollt.

Copyleft. Ich mein, klar, ist schön, wenn der Quellcode offen bleibt. Und ich kann es mir bei so einer so grundlegenden Technologie, wie ich sie hier aufbauen möchte, auch nur wünschen. Aber ich möchte auch Unternehmen die kommerzielle Verwendung gestatten. Und da bin ich mir nicht sicher, ob Copyleft sie nicht eher davon abhalten würde …

Advertisements

3 Gedanken zu “Barrierefreiheit für Gebärdensprachler

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s