Dr. Jan Blüher, Dresden
Ich heiße Jan Blüher und komme aus der Gegend von Leipzig. Ich bin dort zur Schule gegangen und hatte angefangen Physik zu studieren. In der Zeit zwischen 1995-1997 bin ich allerdings blind geworden. Ich bin vollständig erblindet, es ist wirklich nichts Verwertbares mehr da. Die erste Konsequenz war, dass ich das Studium in Leipzig abgebrochen habe und nach Dresden gegangen bin, um Informatik zu studieren. Denn in Dresden gab es die Arbeitsgruppe von Prof. Wünschmann. Dort war bestimmte Technik vorhanden, und es gab studentische Hilfskräfte, die die Lehrmaterialien bearbeiteten. Das war damals etwas Besonderes. Selbst heute ist das keine Selbstverständlichkeit. Die Arbeitsgruppe um Prof. Wünschmann stellte sozusagen die Infrastruktur zur Verfügung, so dass ich vom Physikstudium auf das Informatikstudium umgeschwenkt habe.
Für mich war die Informatik viel einfacher. Ich hatte zweimal angefangen Physik zu studieren und immer kamen mir die Probleme mit den Augen dazwischen, die Operationen und das ganze Drumherum. Und während ich für Physik schon ordentlich lernen musste, fand ich die Informatik echt entspannter.
„Ich musste mich komplett neu orientieren. Der Computer ist ein Werkzeug, mit dem man arbeiten kann.“
Das Studium war nicht total easy, aber es war eine gute Entscheidung, wenn man die Situation bedenkt, in dem ich mich nach der Erblindung befand. Ich musste mich komplett neu orientieren. Der Computer ist ein Werkzeug, mit dem man arbeiten kann. Auch damals war der Beruf des Programmierers ein fast klassischer Blindenberuf. Insofern war es eine gute Möglichkeit für mich, und ich denke es hat sich im Nachhinein auch als richtig erwiesen. Auch wenn es ein bisschen aus der Not geboren war.
Ich musste vor allem den Umgang mit der Braillezeile und das Mobiltraining lernen. Ich bin nach Dresden gezogen und habe hier angefangen mit Braillezeile zu studieren.
Rein kognitiv kann man Braillezeile in einer halben Stunde lernen, weil das System ganz einfach ist, gerade wenn man auch noch eine informatische Ader hat. Im klassischen Braille gibt es 6 Punkte, also 64 Kombinationsmöglichkeiten. Bei Computerbraille gibt es 8 Punkte, da sind dann 256 Kombinationsmöglichkeiten. Das ist alles nicht weiter wild. Was ein bisschen Zeit braucht, ist das Anlernen der Finger. Die nötige Sensibilität zu entwickeln hat bei mir, mit relativ viel Üben, etwa ein bis zwei Monate gedauert. Am Anfang musste ich nach 10 Minuten eine Pause machen, weil ich überreizt war. Es kribbelte in den Fingern. Mit der Zeit wurde es aber immer besser. Ich habe ein halbes Jahr nachdem ich blind geworden bin mit dem Studium angefangen. Das war relativ schnell. Aber es ging, ich bin ganz gut klar gekommen.
Nachdem ich Studium und Diplom erfolgreich abgeschlossen hatte, wusste ich eigentlich gar nicht, was ich machen soll. Über Prof. Stoschek bin ich an die Werkstoffwissenschaft heran gekommen, um zu promovieren. Dort habe ich sozusagen zwischen Werkstoffwissenschaft und Informatik ein bisschen Bioinformatik gemacht. Es ging dabei um DNA-Nanostrukturen. Meine Aufgabe war einen Algorithmus zu programmieren, mit dem man bestimmte Strukturen unter Verwendungen von zu bestimmenden Sequenzen erzeugen konnte. Natürlich mussten dafür noch ein paar Randbedingungen erfüllt werden. All das konnte mein Algorithmus einigermaßen effizient. Mit dieser Thematik habe ich promoviert. Danach bin ich noch eine Weile bei den Werkstoffwissenschaften geblieben.
Der große Neuanfang kam dann tatsächlich mit dem iPhone, das 2007 auf den Markt kam. Die Informatiker lächeln gern über die Apple-Geräte, sie nehmen lieber Linux. Ich habe damals auch alles komplett auf Linux gemacht. Weil das iPhone einen Touchscreen hatte. Damals war auch völlig klar, Touchscreens sind für Blinde nicht bedienbar. Dann installierte Apple 2009 aber einen Screenreader auf seinem iPhone. Die waren damit wirklich die Ersten. Und im Grunde aus dem Nichts. So etwas gab es vorher überhaupt nicht. Apple hat das so gelöst: Wenn ich irgendwo auf den Bildschirm tippe, wird nicht eine Aktion ausgelöst, sondern ich bekomme erst einmal erzählt worauf ich getippt habe. Dann muss ich durch eine Zusatzgeste, in diesem Fall ist es ein Doppel-Tipp, die Aktion auslösen. Darüber hatte ich irgendwann mal etwas gelesen und habe mir deshalb ein iPhone ausgeborgt.
„Das iPhone ist nicht nur durch Blinde bedienbar, sondern es ist noch besser als ein normales Tastentelefon.“
Später ging es durch die Presse: Das iPhone ist nicht nur durch Blinde bedienbar, sondern es ist noch besser als ein normales Tastentelefon. Warum? Bei einem Tastentelefon muss ich mir immer merken, welche Taste ich nutze. Wenn ich bei dem iPhone auf eine Taste tippe, dann sagt mir die Taste was sie ist. Ich kann also nicht nur dynamische Inhalte nutzen, sondern ich muss mich auch nicht immer erinnern, wo was ist. Ich kann quasi draufschauen und kann agieren. So wie ein Sehender das auch macht. Und ich habe zusätzlich noch die 2D Information auf dem Bildschirm. Die klassischen Screenreader auf dem Bildschirm lesen von oben links nach unten rechts. Ich muss alles durchgehen. Auf dem iPhone und natürlich auch auf dem iPad merke ich: Aha, die Taste ist unten rechts und ich kann gleich dorthin springen. Oder ich kann Beziehungen zwischen Objekten auf dem Bildschirm erkennen und ausnutzen. Es hat sich herausgestellt, dass das ein total tolles Interface ist.
Außerdem habe ich es immer dabei, in der Hosentasche, und es hat Internetanschluss. Das heißt, ich kann damit tolle Sachen machen wie: Ich bin an der Haltestelle und kann schauen, wann der nächste Bus oder die nächste Straßenbahn kommt. Ich kann Routennavigation machen. Allerdings nur zu einem gewissen Grad. GPS wirft mich dann irgendwo ab, was ungefähr in der Nähe ist. Aber immerhin. Zum Beispiel in der Südvorstadt oder in Striesen, wo die Straßen schachbrettmusterartig angelegt sind, da steige ich aus dem Bus aus und sage zur Routennavigation: Bringe mich zur Adresse. Ich bin dann ein paar Meter entfernt von meinem Ziel und brauche nur noch jemanden fragen, wenn ich zu einer bestimmten Tür möchte.
„Aber ich konnte plötzlich noch mehr.“
Aber ich konnte plötzlich noch mehr. Ich konnte damit Zeitung lesen oder Bücher. Mit dem Apple iBooks bzw. Bücher Service konnte ich ganz einfach Bücher kaufen und sofort lesen, entweder mit der Braillezeile per Bluetooth gekoppelt oder indem ich sie mir durch den Screenreader vorlesen ließ. Ich habe mir später ein iPad gekauft und fand die Möglichkeiten, die man hatte, so toll und bequem. Am Computer konnte man einiges davon auch machen. Natürlich konnte man auch schon vorher nachschauen, wann fährt der Bus. Aber ich musste es zu Hause machen, am Schreibtisch. Jetzt kann man es unterwegs machen oder was ja auch nett ist, auf der Couch. Das war toll! Und es wäre ja cool, wenn man damit noch mehr machen könnte.
„Es gibt solche und solche. Und dann noch die anderen.“
Damals 2010 war noch alles am Anfang. Mein Vertrag an der Uni war zu Ende. Deswegen bin ich 2011 auf die Softwareentwicklung umgestiegen. Und seitdem gibt es die Firma VisorApps. Der Name kommt aus der Serie „Star Trek Raumschiff Enterprise“. Geordi La Forge trägt in der Serie einen Visor. Die Idee war, dass das iPhone der Visor ist, durch den man die Welt sehen kann, wenn man nicht mit den Augen sehen kann. Ich bekomme Informationen über die Welt durch das Smartphone. Die erste kleine App war ein Farbscanner namens ColorVisor. Er nimmt einfach das Kamerabild, wertet die Farben aus und sagt diese dann an. Für den Anfang war das eine relativ einfache Geschichte. Der RGB-Farbraum wurde in 1000 Bereiche eingeteilt und meine Frau hat sich hingesetzt und jedem Bereich einen Namen gegeben. Es gibt Blinde die können sich Farben vorstellen, weil sie sie gesehen haben. Es gibt Blinde, die das nicht können und die das nicht interessiert. Es gibt aber auch Blinde, die keine Vorstellung haben, die es aber wissen wollen. Es gibt solche und solche. Und dann noch die anderen.
Die App wurde ganz gut angenommen. Aber ich habe ganz schnell festgestellt, dass man allein von dem Verkauf dieser App nicht leben kann. Diese goldene Zeit, in der man mit allem was man in den App-Store gestellt hat richtig Geld verdienen konnte, war schon vorbei. Ich habe anschließend ein Spiel programmiert, das nannte sich Mouseclick. Auf dem Bildschirm hatte man einen Käse und aus den Löchern kamen Mäuse raus. Diese musste man dann zurück tippen. Wenn man das nicht in einer gewissen Zeit schaffte, hatte man verloren. Die Mäuse machen ein Geräusch. An dem Geräusch kann man erkennen, wo die Position der Maus ist. Man kann es also sowohl blind als auch optisch spielen. Das war nett und chic, aber hat noch weniger eingebracht.
"Ich habe angefangen Apps für Blindenbüchereien in Hamburg, Leipzig und Berlin zu entwickeln."
Unternehmerisch weitergebracht hat mich die App-Entwicklung für Dritte. Ich habe angefangen Apps für Blindenbüchereien in Hamburg, Leipzig und Berlin zu entwickeln. Dann habe ich für den Schweizer Blindenverband eine E-Kiosk App erstellt, durch die man Texte von Schweizer Tageszeitungen lesen konnte. Ich habe irgendwann auch auf Android erweitert. Dafür habe ich einen Entwickler angestellt, der auch blind ist und der die Android-Schiene bedient. Es gibt viele Blinde, die Android Smartphones nutzen. Wenn man also eine App entwickelt, muss man sie immer für iOS-Geräte (iPhone, iPad) und für Android-Geräte anbieten.
2017 ging es weiter mit einer App für die Ostrale. Bei Ausstellungen gibt es schon Audio-Guides. Aber man muss entweder genau auf das Ausstellungsobjekt drauf halten, damit es los geht oder man muss irgendwelche Nummern eintippen. Die Idee war deshalb: Wir nehmen das Smartphone der Besucher, bzw. man verleiht Smartphones an die Besucher. Wir hängen ein paar Bluetooth iBeacons bzw. Eddystones auf. Wenn der Besucher sich diesen nähert, dann bekommt er angezeigt, dass das Kunstwerk da ist und er kann die Audio Description starten. Wir haben also für die Ostrale, die damals noch im Ostragehege stattfand, die AllSense App entwickelt. Die Umsetzung erfolgte so: Wir haben durch die Ausstellung eine rote Linie gezogen, an der der Besucher entlang laufen konnte. So wurde man an den Kunstwerken vorbei gelotst. Man konnte dieses Prinzip natürlich nicht bei allen Kunstwerken umsetzen. Durch die App konnte der Besucher eine Tour von 25 bis 30 Kunstwerken machen. Immer wenn man bis auf 2 Meter an ein Objekt heran kam, sprang die App an und man hat die Informationen dazu bekommen. Die Bluetooth iBeacons sind aber nur Sender.
„Vorher ist man durch die Ausstellung gegangen und wusste nicht genau, wo das Kunstwerk ist.“
Für die Ostrale 2019 habe ich eine kleine Box entwickelt, die auch sagen kann, was es für ein Objekt ist. Die rote Linie war eine verwinkelte Linie. Das hat es kompliziert und teuer gemacht. Die Idee war, dass wir das Leitsystem weniger verwinkelt anlegen. Wenn man auf der roten Linie ist, sieht man z.B. auf dem Smartphone, dass rechts ein Objekt ist und 4 Meter weiter drüben meldet sich ein anderes Kunstwerk, indem es sagt, was es ist. Dann kann ich dahin gehen und später wieder zurück zur Linie und weiter laufen. Vorher ist man durch die Ausstellung gegangen und wusste nicht genau, wo das Kunstwerk ist. Jetzt kann man sich besser orientieren. Das Konzept haben wir auch noch für ein anderes Projekt genommen. Das nennt sich „Inklusion im Blick“. Das ist eine Kunstausstellung, wo zum großen Teil Fotos aus einem Film gezeigt werden. In dem Film geht es um Contergan-Kinder, die heute natürlich schon erwachsen sind. Die Ausstellung wurde im Dezember 2018 im Erfurter Landtag gezeigt, im Februar 2019 in Eisenach und danach in Gera. Bei der Ausstellung wird dasselbe Konzept mit den Bluetooth iBeacons genutzt. In der App kann man ganz viele Informationen speichern. Die App ist ein perfektes Instrument für Inklusion. Wir haben nicht nur die Audiodeskription enthalten, sondern wir haben auch Gebärdensprachvideos und leichte Sprache integriert. Der Nutzer kann zwischen der gewöhnlichen Beschreibung zu den Kunstwerken und der Beschreibung in leichter Sprache und den Gebärdenvideos umschalten. Häufig hängt es aber heute noch an der Internetanbindung. Man kann leider nicht davon ausgehen, dass überall Netz ist. Deshalb liefern wir die Daten einfach mit.
Inklusion ist ein Konzept was praktisch nicht funktionieren kann. Für Inklusion gibt es dieses Bild von der Gesellschaft, in der alle zusammen sind. Das sehe ich nicht so. Das wird es nicht geben. Man wird nicht mit einer Lösung immer alles, jedes Bedürfnis, erschlagen können. So dass Inklusion in der letzten Konsequenz nicht geht. Es kann immer einer um die Ecke kommen und sagen: Aber ich brauche es anders.
„Ich nähere mich dem Thema Inklusion aus einer technischen Richtung.“
Aber ich denke, wenn man gerade solche technischen Lösungen nutzt, wie wir es gerade besprochen haben, kommt man zu einem guten Stand. Es ist heutzutage technologisch möglich Informationen anzubieten für ganz viele unterschiedliche Bedürfnisse. Ich nähere mich dem Thema Inklusion aus einer technischen Richtung. Ich sage, wenn man Inklusion einigermaßen flächendeckend umsetzen will, kommt man nicht drum herum technische Lösungen dafür zu finden. Diese Lösungen müssen es erlauben schnell und einigermaßen preisgünstig, die Sachen die gebraucht werden, anzubieten. Ich habe einen Vortrag in der Operette gehalten, den ich „Das goldene Zeitalter der Blindheit“ genannt habe. Weil wir heute durch gesellschaftliche und technische Entwicklungen so viele Wege haben, die einem offen stehen. Man kann sich mit so vielem beschäftigen. Man kann so viele Informationen erhalten. Das ist gerade eine sehr interessante Zeit.
„Die Behinderten können auch was. Schauen wir mal. Lassen wir sie mal machen.“
Wichtig am Inklusionsgedanken ist aber natürlich, dass man versuchen muss so zu denken, dass man es für alle machen kann. Da kommt auch die Gesellschaft ins Spiel. Es ist entscheiden, das theoretisch doch jeder alles machen kann. Obwohl klar ist, dass z.B. ich kein Flugzeug fliegen kann. Früher wäre ich gerne Pilot geworden. Was man aber trotzdem braucht, ist die Grundeinstellung: da kommt einer, der ist behindert, will irgendetwas machen, geht das vielleicht, bekommt man es vielleicht hin. Weil man am Anfang vielleicht nicht weiß, ob es geht oder ob es nicht geht. Das ist die gesellschaftliche Änderung, die sich vollzogen hat. Wo in den 60ern noch völlig klar war, die Krüppel und die Blinden gehören ins Heim, die können vielleicht einen Korb flechten oder einen Besen machen. Wo wir dagegen heutzutage andere Beispiele haben: Da gehen Blinde auf den Mount Everest, und ein Rollstuhlfahrer umfährt die ganze Welt. Oder eine Stufe tiefer: Leute machen normale Jobs, so wie ich, entwickeln Apps. Da hat sich schon etwas geändert, so dass es heute in vielen Bereichen heißt: die Behinderten können auch was. Schauen wir mal. Lassen wir sie mal machen. In vielen Bereichen muss auch ein bisschen Geld dafür ausgegeben werden.
„Den letzten Schritt muss man am Ende selbst überbrücken.“
Damals gab es in den USA Gesetze die besagten, dass Computer für Schulen und Universitäten barrierefrei sein müssen, auch für Blinde. Wenn es diese Gesetze nicht gegeben hätte, dann hätte Apple den Screenreader nicht entwickelt und wahrscheinlich auch das iPhone nicht damit ausgestattet. So mussten sie sich damit beschäftigen und haben es gut gemacht. Sie haben Diversität zu ihrer Firmen-Philosophie gemacht, unabhängig von Behinderung.
Deswegen ist es wichtig, dass man sagt: Wir wollen Inklusion als Modell, als Vision. Auch wenn man so wie ich denkt, das man das nicht erreicht. Den letzten Schritt muss man am Ende selbst überbrücken.
Link zur Webseite von VisorApps: https://visorapps.com/
Interview geführt am: 09.04.2019
Interview veröffentlicht am: 27.01.2020