Encoding Cultures: Rainer Stiefelhagen

Computer Vision zur Unterstützung von Menschen mit Sehschädigung

Vom 27.-28. April fand am ZKM-Zentrum für Kunst und Medien das Symposium „Encoding Cultures. Leben mit intelligenten Maschinen“ statt. In den Vorträgen und Diskussionen zur Auswirkung der künstlichen Intelligenz sprach Prof. Dr. Rainer Stiefelhagen über den Einsatz von Maschinensehen für die Mensch-Maschine-Interaktion und der Unterstützung  für Menschen mit Blindheit oder Sehbehinderung.

SightCity 2018

Wie seit vielen Jahren, fand auch in diesem Jahr im Mai die größte internationale Messe für Hilfsmittel für Menschen mit Blindheit oder Sehbehinderung SightCity im Sheraton-Hotel am Frankfurter Flughafen statt.

Vom einfachen Haushaltshelfer, dem Nadeleinfädler, über taktile Spiele, Punktschrift- und Hörbücher, über die Selbsthilfeorganisationen, bis hin zu komplexen Arbeitsplatzausstattungen mit Computer, Vergrößerungssoftware, Bildschirmkamera, Braillezeile, Sprachausgabe, Punktschriftdrucker und vieles mehr, war alles zu finden.

In diesem Jahr waren aber ganz deutlich einige neue Trends zu erkennen. Es gab vielfältige Anpassungen zu kommerziellen Organisern, PDA’s und Smartphones. Das betraf sowohl die Software für die Vergrößerung und die Sprachausgabe, als auch die Punktschriftausgabe mit Touch-Funktion.

Mindestens drei Ansätze – teilweise noch als Prototyp oder gar nur als Modell – zur Entwicklung zweidimensionaler taktiler Displays konnten bestaunt werden. Für Menschen mit Restsehvermögen halten langsam Virtual Reality und Augmented Reality mit Brillen zur Verbesserung des Sehrestes Einzug.

Es gab auch wieder Geräte, die auf Ultraschall und Laser basiert Hindernisse akustisch oder per Vibration anzeigen. Ein Ansatz war sogar in einem Schuh integriert. Außerdem wurde auch ein Vibrationsgürtel zum Halten der Richtung präsentiert. Was bleibt ist, dass sich die Reise zur diesjährigen SightCity gelohnt hat. Erstmals konnten wir die Sightcity und die damit verbundenen Netzwerke nutzen, um Interessenten für die anstehenden Benutzertests für Terrain zu finden und zu begeistern.

Gerhard Jaworek, SZS, KIT

SightCity 2017

Einmal pro Jahr, findet im Frühjahr die größte internationale Fachmesse SightCity für Blinden- und Sehbehindertenhilfsmittel im Sheraton Hotel am Frankfurter Flughafen statt. In diesem Jahr präsentierten von 03. bis 05. Mai über 100 Hersteller und Organisationen Neuentwicklungen und bewährte Hilfsmittel. An den Ständen können potentielle Anwenderinnen und Anwender neue Hilfsmittel ausprobieren und mit den Herstellern ins Gespräch kommen. Zusätzlich gibt es ein Forum, in dem Fachvorträge zu unterschiedlichen Themen rund um Sehbeeinträchtigung gehalten werden. Personen mit Sehbeeinträchtigungen werden kostenlos von einem Abholdienst an den Bahnsteigen abgeholt und zur Messe begleitet. Auch in der Messe gibt es Assistenzen, die zu den gewünschten Ausstellungsständen begleiten. Die gesamten Räumlichkeiten sind durch barrierefreie Leitlinien ausgerüstet. Zusätzlich gab es in diesem Jahr auch Apps, die mit Hilfe von Beacons die Orientierung in den Räumlichkeiten der Messe verbessern sollen.

Auch die Firma Papenmeier und das Studienzentrum für Sehgeschädigte (SZS), zwei Kooperationspartner im TERRAIN Projekt, waren als Aussteller bei der diesjährigen Messe.

Als Schwerpunkt zeigte das SZS aktuelle Projekte wie das ATMAPS Projekt mit dem Thema audio-taktile Landkarten, Prosperity4All, das neue Accessibility Lab, 3D-Druck-Objekte für Studierende sowie Angebote des SZS wie die jährlich stattfindende bundesweit ausgeschriebene Orientierungsveranstaltung für Studieninteressierte oder das Bewerbungstraining „Mein Profil“.

Das zentrale Thema der Firma Papenmeier war die Beratung im Bereich der IT-Barrierefreiheit. Konkreter ging es dabei um die Vorstellung des neuen Fachbereichs „Papenmeier Consulting“. Dieser unterstützt Unternehmen, sowie Behörden mit Gutachten zur Barrierefreiheit und bietet Schulungen für Entwickler und Entscheider.
Die praktische Kombination von barrierefreien Anwendungen und aktuellster Hilfsmitteltechnik, wie Braillezeilen, hochauflösenden Kamerasystemen und Hilfsmittelsoftware für Blinde und Sehbehinderte, wurde Endanwendern, Technischen Beratern und Entscheidern präsentiert.

Nähere Informationen über die Messe sind unter der Homepage der SightCity (http://www.sightcity.net/) zu finden.

 

Zweites Konsortialtreffen

Am 27. März traf sich das TERRAIN Konsortium zum zweiten Projekttreffen in Karlsruhe.

Gruppenbild des Konsortialteams beim zweiten Treffen im TERRAIN-Projekt
Gruppenbild zum zweiten Konsortialtreffen: v.l.n.r. Frank, Siebert, Jaworek, Kochanek, Müller, Weinberger, 
Petrausch, Winkelmann, Stiefelhagen, Haurilet, Ritterbusch

Auf dem Konsortialtreffen berichteten alle Projektteilnehmer vom Studienzentrum für Sehgeschädigte (SZS), dem Forschungslabor cv:hci, dem Institut für Technologiefolgen und Systemanalyse (ITAS), der Firma Papenmeier und der Firma iXpoint Informationssysteme über ihre bisherigen Ergebnisse und die Pläne für die nächsten sechs Monate: Es gab unter anderem spannende Ergebnisse aus der Entwicklung der Braillekomponente, der TERRAIN-App und erste Erfahrungen aus der Bilderkennung.

Dazu gibt es einige Abstimmungen zum gemeinsamen Vorgehen, Einsichten aus Veranstaltungen wie der Expertenrunde sowie der Anforderungsanalyse und Diskussionen über neue Aspekte, die sich aus den bisherigen Arbeiten ergeben haben.

Nach dem gemeinsamen Mittagessen haben wir ein Gruppenfoto geschossen, das wir aber nicht wie zum Kickoff-Meeting machen konnten. Wir mussten uns in einer anderen Himmelsrichtung aufstellen, wie man es mit dem Entwicklungsstand der TERRAIN-App schon jetzt feststellen konnte. Zum astronomischen Zusammenhang bemerkte Gerhard Jaworek, blinder Informatiker am SZS, auf seiner Astro-Mailingliste „Astronomiezugang für Blinde“:

Gestern war nun wieder am selben Ort zur selben Zeit der Fototermin. Als wir uns positionierten, bemerkte eine Teilnehmerin, dass wir das Foto gar nicht so, wie beim letzten Mal machen könnten, weil es jetzt blenden würde.

Da ging mir ein Licht auf. Natürlich konnten wir uns gestern nicht so stellen, denn wir waren ganz woanders im Jahreslauf.

Beim Kickoff-Meeting am 07.07.2016 befanden wir uns gerade mal ungefähr zwei Wochen nach Sommersonnenwende. Die Sonne erreichte somit an diesem Tag noch fast ihren höchsten Sonnenstand, den sie überhaupt innerhalb des Jahreslaufes erreichen kann.
Und heute, am 28.03. befinden wir uns gerade mal eine Woche nach Frühlings-Anfang (Tag-Nacht-Gleiche) und noch ein Viertel Jahr ist es noch hin, bis zur Sommersonnenwende 2017.

Das bedeutet, dass sie gerade mal ihren halben Höchststand am Himmel erreicht hat. Das ist vereinfachend gesagt, aber, vergessen wir jetzt mal Kugel, Perspektive, dass der Höchststand im Laufe eines Jahres um etwa eine Stunde variiert, etc. Jeder von uns weiß, wie die Jahreszeiten entstehen. Ich schrieb glaub auch schon drüber. Es geht mir hier um das Erlebnis an sich. Überall kann man beobachten, dass die Sonne im Winter deutlich steiler zur Mittagszeit am Himmel steht. Ich fand das aber dennoch sehr faszinierend. Noch gut erinnere ich mich daran, wie und wo ich im letzten Jahr für das Foto, und wo ich diesmal stand.

Zum Glück war am Sonntag Zeitumstellung. Sonst wäre das Erlebnis nicht so schön. So fielen beide Termine in die Sommerzeit und sind somit vergleichbar.

Wie gesagt. Wir hätten das Foto wegen Blendung nicht so stellen können, wie im letzten Jahr. Besser so. Das bringt Abwechslung.

So zeigt sich, wie schon eine kleine Information wie der Ausrichtung zur Umgebung das eigene Verständnis für die Geschehnisse um einen herum bereichern kann.

Natürlich hoffen wir im Verlaufe des Projekts noch viele weitere Aspekte der Umgebungsdarstellung anzugehen. Wir sehen uns nach dem erfolgreichen Treffen unseres Teams auf jeden Fall auf einem sehr gutem Weg.

Erstes Treffen der Expertenrunde

Nora Weinberger und Markus Winkelmann

Nach dem „Startschuss“ des Projekts hat das ITAS mit der Rekrutierung von Mitgliedern für die Expertenrunde begonnen und im Zuge dessen rd. 30 potentielle Expertinnen und Experten angesprochen und angeschrieben. Viele haben großes Interesse am Projekt geäußert, konnten aber aufgrund vieler Verpflichtungen u.a. in der Lehre eine Teilnahme nicht zusagen. Vierzehn Expertinnen und Experten hingegen sind für die drei geplanten Runden gewonnen worden. Hierunter sind Ethiker, Mediziner, Datenschützer, Rehabilitationswissenschaftler, ein Theologe, eine Mobilitätstrainerin, Psychologen, Juristen, Soziologen, Vertreter von Verbänden und Betroffene.

Ende 2016 fand dann die erste Expertenrunde statt. Nach einer Kennenlernphase, einer Einführung in das Projekt und dem Vorstellen des geplanten technischen Systems wurde eine erste Diskussion über die verschiedenen disziplinären und individuellen Zugänge und Erfahrungen zu ethischen, legalen und sozialen Implikationen und darüber hinausgehenden Fragestellungen, geführt. Hier gab es von den Expertinnen und Experten viele interessante Hinweise zum technischen System, aber auch soziale Implikationen wurden angesprochen. Unter anderem wurde geäußert, dass die Technik nicht zu einer Exklusion der Betroffenen führen dürfe. Erwartungen an technische Lösungen und das Zusammenspiel verschiedener – auch nicht technischer – Möglichkeiten waren Themen. Darüber hinaus konnten die Betroffenen aus ihrem schon technisierten Alltag berichten und merkten bspw. an, dass Sehbehinderungen sehr individuell ausgeprägt seien und daher das System stark adaptierbar sein müsse. Die Expertenrunde lobte das große Potential in diesem Projekt, da durch die Forschungsinstanz ITAS ein Vermittler zwischen Technik und Menschen dabei sei. Der Einbezug von Experten und potentiellen Nutzern in den gesamten Entwicklungsprozess wurde als sehr wichtig und zielführend begrüßt.

Ende 2017 findet die nächste Expertenrunde statt, zu der auf Hinweis der Runde noch eine Expertin/ein Experte für Neuroplastizität eingeladen wird, um eine Expertise zu Lernprozessen und dessen mnestischen (das Gedächtnis betreffenden), sensorischen und motorischen Phasen zu integrieren.

Strömungen – Symposium zu künstlerischer Sonifikation

Vom 2. bis zum 4. Dezember 2016 fand am ZKM – Zentrum für Kunst und Medien in Karlsruhe das vom Institut für Musik und Akustik  und Prof. Ludger Brümmer veranstaltete Symposium Strömungen zur künstlerischen Sonifikation statt. Sebastian Ritterbusch hatte die Gelegenheit am 3. Dezember einigen Vorträgen beizuwohnen.

Mikroorganismen sind kleinste Lebewesen, die in einer Mikrobiellen Brennstoffzelle zur Stromgewinnung genutzt werden können. Ricardo Climent stellte sich die Frage, wie man die Aktivität der Organismen sonifizieren könnte oder sogar mit verschiedenen Mikroorganismen durch Steuerung ihrer Lebensumstände ein Ensemble bilden könnte. Durch Zugabe und Reduktion von Nährstoffen sowie der Veränderung der Temperatur veränderte er den Stoffwechsel der Lebewesen, was zu unterschiedlichen Spannungen an den Elektroden führte. Diese Potentialunterschiede sonifizierte er mit Tongeneratoren und Synthesizern, die als Microbial Ensemble in Konzerten wie in Belfast aufspielen ließ.

Auf einer weit kleineren Skala betrachtete Falk Morawitz die magnetische Kernresonanz von beispielsweise Wasserstoff-, Kohlenstoff– und Stickstoffatomen und Isotopen. Während sich die eigentlichen Resonanzfrequenzen im Megahertzbereich von beispielsweise Ultrakurzwellen bewegen, so sind die Abweichungen von der Trägerfrequenz oft nur im Bereich von Kilohertz und können daher direkt sonifiziert werden. Die unterschiedlichen Resonanzen der Atome und Verbindungen ermöglichen in der Kernspinresonanzspektroskopie eine detaillierte Analyse von Stoffen und Molekülen auf atomarer Ebene, auch auf akustischem Wege: Die Sonifikation war laut Morawitz eine Standardausgabe früherer Spektrographen, die erst aktuelleren Geräten nicht mehr standardmäßig aktiviert ist. Wie man die Signale auch musikalisch nutzen kann, zeigt Falk Morawitz in Konzerten in Manchester oder auch zum Symposium am ZKM.

Einen großen Erfolg für Sonifikationen sieht Alexandra Supper durch ihre Immersion und Emotionalität in der Popularisierung von Wissenschaft. Prominente Beispiele sind hier die Sonifikation der Aurora (Beispiel einer Sonifikation des Nordlichts) oder in der Astroseismologie (Beispielhafte Sonifikationen der Astroseismologie). Gleichzeitig ist dies aber auch eine Gefahr, da sich so Forschende von einer anscheinend unwissenschaftlichen Methodik abwenden, statt Sonifizierung als wissenschaftliche Methode weiterzuentwickeln.

Gleich mehrere neue Methoden schlägt Jiajun Yang vor, um neue Nutzungsmöglichkeiten von Sonifikationen zu etablieren. Zum einen können funktionale Geräusche Menschen mit Einschränkungen wie beispielsweise Autismus helfen sich auszudrücken. So wurden Personen synthetische sprachähnliche Geräusche zur Auswahl gegeben, um über eine evolutionäre Auswahl typische Stimmungslaute zu identifizieren, die dann in der Übersetzung ihrer Gemütszustände eingesetzt werden können.

Ein weiterer Ansatz von Yang soll durch eine modellbasierte Sonifikation helfen große Datenmengen interaktiv und explorativ zu sonifizieren. So kann die akustische Darstellung der Trajektorie eines durch nahe Datenpunkte angezogenen Teilchens helfen, lokale und verborgene intrinsische Eigenschaften großer Datenmengen zu darzustellen.

In einer anschließenden Paneldiskussion kam auch das Thema auf, wann eine Geräuschbildung noch als Sonifikation angesehen werden kann. Hier hat Thomas Hermann 2008 die These zur Definition der Sonifikation  aufgestellt, dass sich die Sonifikation durch Objektivität, Systematik, Reproduzierbarkeit und Anwendbarkeit auszeichnet. Gleichzeitig stellen sich aber auch nicht alle Sonifikationen als sinnvolle Darstellungen heraus, da dem menschlichen Hörvermögen Grenzen gesetzt sind. Ebenso muss die Wirkung von akustischen Darstellungen beachtet werden, da nur erträgliche Sonifikationen überhaupt zum Einsatz kommen werden. Hier ist die künstlerische und interdisziplinäre Auseinandersetzung mit dem Thema der Sonifikation wie auf diesem Symposium ein auch für wissenschaftliche und technische Einsatzfelder eine wertvolle Bereicherung, da am Ende die Darstellungen wie im Terrain-Projekt auf offene Ohren treffen sollen.

Hilfsmittelausstellung des Allgemeinen Blinden- und Sehbehindertenverein Berlin

Während der Hilfsmittelausstellung des Allgemeinen Blinden- und Sehbehindertenverein Berlin gegr. 1874 e. V. am 16. und 17. November 2016 wurden von der Firma Papenmeier Hilfsmittel für den privaten sowie für den Arbeitsplatz Bereich präsentiert.

Für Arbeitsplätze, sowie für mobile Blindenarbeitsplätze wurden die Braillezeilen der Serien BRAILLEX ELc und BRAILLEX Live vorgeführt. Die hohe Qualität in Material, das schicke Design sowie die sehr einfache und intuitive Bedienbarkeit der Braillezeilen fanden große Zustimmung. Es wurden große 80-stellige Blindenschriftzeilen für den Arbeitsplatz ausgestellt, sowie mobile 40- und 20-stellige Zeilen gezeigt. So können die kleinen Zeilen auch via Bluetooth mit Tablets oder Smartphones gekoppelt werden. Damit überhaupt Informationen auf den Braillezeilen ankommen bedarf es einer Übersetzungssoftware (Screenreader). Die Firma Papenmeier setzt hierbei primär auf den Screenreader JAWS.

Als neues Produkt präsentierte Papenmeier das Kamerasystem VISULEX Maki, das für den Arbeitsplatzbereich entwickelt wurde. Es werden Vorlagen unter die Kamera gelegt, die dann vergrößert auf einem Bildschirm angeschaut werden können. Die sehr gute Stabilität und das hervorragende Bild in der Vergrößerung war für die Besucher besonders beeindruckend. Eine Vergrößerungssoftware (z.B. Supernova oder Zoomtext) ergänzt die technischen Arbeitshilfen für sehbehinderte Menschen. Durch diese kann ich den Bildschirminhalt vergrößert darstellen, Farben invertieren und bei Bedarf den Text vorlesen lassen.

Für den privaten Haushalt wurde bspw. das geschlossenes Vorlesesystem Universalreader Compact II ausgestellt. Dieses Hilfsmittel ist primär für ältere Menschen, die über keine respektive wenig Computerkenntnisse verfügen. So können sie sich ihre gedruckten Vorlagen mittels einer einfachen Tastatur einscannen und sie durch eine OCR in Text umwandeln und vorlesen lassen.

International Camp on Communication and Computers 2016

Diplom-Informatiker Gerhard Jaworek aus dem TERRAIN-Konsortium für das Studienzentrum für Sehgeschädigte Studierende (SZS) am Karlsruher Institut für Technologie (KIT) nahm auch dieses Jahr am ICC 2016 (International Camp on Communicaton and Computers) teil, das vom 25. Juli bis zum 3. August an der Technischen Universität Dresden stattfand.

In drei Themenbereichen präsentierte er in mehrfachen Workshops wie Blinde einen unmittelbaren Zugang zur Astronomie erhalten können, führte in die barriefreie Nutzung der Audio-Workstation Audacity ein, und schulte, wie man wohlformatierte naturwissenschaftliche Texte mittels LaTeX erstellt.

Verschiedene Anbieter präsentierten dort auch neue Entwicklungen in Accessibility Technology (AT) vor, so wurde von der Firma HandyTech die Brille „Orcam“ vorgestellt, die mittels einer Kamera und Gestensteuerung in der Lage ist, Straßenschilder, Plakate, Speisekarten etc. vorzulesen. Sie kann auch auf Personen trainiert werden.

Die Universität Dresden demonstrierte einen Prototypen eines elektronischen Blindenhundes, der bei Orientierung und Mobilität unterstützen soll.

In weiteren Workshops wurde z. B. der Zugang zu elektronischen Schaltungen für Menschen mit Blindheit auf Basis von Sensoren und der Arduino-Technologie vermittelt.

Auch grundlegende pädagogische Themen wurden im Rahmen von Vorträgen behandelt, z. B. die Gestaltung barrierefreier MOOCs. Das „International Camp on Communication and Computers“ ICC-Camp richtet sich an blinde und sehbehinderte jugendliche und junge Erwachsene.

Ursprünglich entstand das ICC, als europäisches länderübergreifendes Projekt, um der Zielgruppe im Rahmen von Workshops IT-Kenntnisse zu vermitteln, die vor etwa 20 Jahren in den verschiedenen Partnerländern sehr unterschiedlich vorhanden waren.

Mittlerweile hat sich das ICC zu einem holistischen Konzept entwickelt. Es werden Kenntnisse und Fertigkeiten geschult die weit über IT und AT hinaus gehen, z. B. Präsentationstechniken, Studieren im Ausland, Verfassen einer internationalen Bewerbung und vieles mehr.

Das ICC entstand ursprünglich als gemeinsames Event der Forschungsabteilung „Computer Science for the Blind“ an der Universität Linz, dem „Studienzentrum für Sehgeschädigte Studierende“ am Karlsruher Institut für Technologie (KIT) um für Blinde oder Menschen mit Seheinschränkungen durch Nutzung von Informations- und Kommunikationstechnologien sowie der AT die Möglichkeiten zu verbessern, gleichberechtigt an Kursen in Universitäten und Schulen teilnehmen zu können.

Vor dem Hintergrund, wieviel Europa manchmal in Europa nicht funktioniert, ist das ICC ein lebendiges Beispiel für gelebtes Europa in Inklusion, so das Fazit von Gerhard Jaworek.

Projekt Kick-Off

Am 7. Juli 2016 traf sich das TERRAIN Konsortium und startete das Projekt mit einem Kick-Off Treffen in Karlsruhe.

Ein Bild des Projektteams und des Vertreters des Projektträgers beim Kick-Off Treffen am 7. Juli 2016. Auf dem Bild sind von links nach rechts Sebastian Ritterbusch, Patrick Frank, Daniel Köster, Susanne Helfer, Karin Müller, Stefan Siebert, Nora Weinberger, Bruno Behrendt, Gerhard Jaworek, Dirk Kochanek, Christian Wehrmann, Rainer Stiefelhagen und Saquib Sarfraz auf einem Weg vor einer Wiese zu sehen.
Das Konsortium und Vertreter des Projektträgers beim Kick-Off, v.l.n.r: Ritterbusch, Frank, Koester, Helfer, Müller, Siebert, Weinberger,
Behrendt, Jaworek, Kochanek, Wehrmann, Stiefelhagen, Sarfraz.

 

Gehard Jaworek, Mitarbeiter des Studienzentrums für Sehgeschädigte, zum Start des Projekts (mp3):

 

Bruno Behrendt, Fachbereichsleiter Rehatechnik, F. H. Papenmeier GmbH & Co. KG, zum Start des Projekts (mp3):