Neues Terrain 06 – Fachtagung Mobilität im Wandel

Am 4. April fand in Berlin die Fachtagung „Mobilität im Wandel – Praxisbeispiele und neue Impulse zur BMBF Forschungsagenda“ statt. Sebastian Ritterbusch von der iXpoint Informationssysteme GmbH war dort, stellte das Terrain Projekt vor und spricht mit Gerhard Jaworek vom Studienzentrum für Blinde und Sehbehinderte (SZS) am Karlsruher Institut für Technologie (KIT) über die Veranstaltung im InterContinental Hotel in Berlin. Fachtagung Mobilität im Wandel (1:53:57, 50MB)

Zum Start der Bekanntmachungen Mensch-Technik-Interaktion für eine intelligente Mobilität (IMO), Elektroniksysteme für das vollautomatisierte Fahren (ELEVATE) und weiterer Projekte aus dem Themenfeld Kommunikationssysteme & IT-Sicherheit lud das Bundesministerium für Bildung und Forschung (BMBF) die geförderten Projekte und Interessierte zum Austausch nach Berlin ein.

Zur Bekanntmachung ELEVATE lag ein Schwerpunkt auf Projekten zu Radartechnologien, wie beispielsweise das Projekt KameRad zu kombinierten Kamera-Radar-Modulen, das Projekt KoRRund zu konformen multistatischen Radarkonfigurationen zur Rundumsicht oder das Projekt radar4FAD zu universellen Radarmodulen für das vollautomatisierte Fahren, die in einem eigenem Workshop später ihren Cluster auf der Tagung initiierten. In der Linie ELEVATE gab es aber auch weitere Themen wie das Projekt AutoKonf zu automatisch rekonfigurierbaren Aktoriksteuerungen für ausfallsichere automatisierte Fahrfunktionen oder HiBord zu hoch zuverlässigen und intelligenten Bordnetztopologien. Informationen zur Nutzung von Radar-Technologien in der Erdbeobachtung gibt es in der Folge 244 SAR Satelliten und Satellitendatenarchivierung  am EOC im Omega Tau Podcast

Die Veranstaltung wurde durch eine Begrüßung von Frau Gabriele Albrecht-Lohmar und Herrn Andreas Kirchner für BMBF und einer Einführungskeynote von Herrn  Dr.-Ing. Sven Bugiel zu sicheren autonomen Fahrzeugen in der Zukunft eröffnet. Daran schloss sich ein „Project-Slam“ an, in dem sich die rund 20 Projekte jeweils mit etwa 3 Folien in 3 Minuten vorstellen konnten und von Frau Dr. Julia Seebode und Herrn Dr. Marcel Kappel der VDI/VDE Innovation + Technik GmbH moderiert wurden. Die Vorträge waren sehr intensiv, jedoch von der Form natürlich nicht wie Science-Slams, wie sie auch in Karlsruhe oft ausgetragen werden und jungen Forscherinnen und Forschern eine Bühne bieten, ihr Gebiet in 10 Minuten sehr unterhaltsam vorzutragen. Auch aus der Ferne konnte man über Social Media der Fachtagung folgen. Auf die Slams folgten drei parallele Workshops, einmal zum Start des Radar-Clusters in ELEVATE, dann ein Workshop zu Projekten aus der Bekanntmachtung Intelligente Mobilität und einem Workshop zur neue Bekanntmachung Elektronom zur Elektronik für autonomes elektrisches Fahren. Die Tagung endete mit einem Abschlussvortrag von Prof. Dr. Andreas Knie zu vernetzten multimodalen Mobilitätslösungen der Zukunft und Ausklang bei einer Abendveranstaltung.

In einigen Projekten stellten sich interessante Verbindungen zum Terrain Projekt heraus: Das Projekt KoFFI zur kooperativen Fahrer-Fahrzeug-Interaktion will Systeme entwickeln, die durch neue Interaktionskonzepte zu mehr Sicherheit, Komfort und Sicherheit bei teilautomatisierten Fahrzeugen führen soll. Dabei geht es auch um Fragen der Akzeptanz und natürlicher Sprachkommunikation, wie es mit dem Wunderautos Dudu oder K.I.T.T. in Filmen und Serien vorgedacht wurde. Im Projekt KomfoPilot zu personalisierter Fahrstilmodellierung im automatisierten Fahrzeug soll sich das Auto an den vom Menschen gewünschten Fahrstil anpassen. Das Projekt PAKoS befasst sich personalisierte, adaptive kooperative Systeme für automatisierte Fahrzeuge, das vom Karlsruher Institut für Technologie (KIT) koordiniert wird. Hier wird auch ein Nutzerprofil mit der Erfassung des Fahrerzustands kombiniert, um das Leistungsvermögen des Fahrers zu beurteilen und darauf angepasst zu reagieren.

Zum Projekt Safety4Bikes, einem Assistenzsystem für mehr Sicherheit von fahrradfahrenden Kindern, waren deren Verbundkoordinator Jochen Meis von der GeoMobile GmbH und Annika Johnsen vom Institut für empirische Soziologie an der Friedrich-Alexander-Universität in Erlangen-Nürnberg dankenswerter Weise zu einem Gespräch bereit. Mit Sensoren an Helm, Fahrrad und weiteren Schnittstellen wird hier die Umgebung erfasst und aufbereitet, um Kindern vor Gefahren zu warnen und für eine sichere Teilnahme am Straßenverkehr zu trainieren. Schwerpunkte sind hier neben der technischen Entwicklung des Systems auch die Identifikation der kritischen Gefahrenstellen und der geeigneten Kommunikation zu den Kindern. Bei der Erstellung von Anforderungsanalysen werden Ergebnisse früherer Projekte einbezogen, wie beispielsweise dem Projekt OIWOB für zum Orientieren, Informieren, Warnen in einer Orientierungshilfe für Blinde, welches von der HFC Human-Factors-Consult GmbH koordiniert wurde.

Eine Entwicklung von guten Mensch-Maschine-Interaktionen (MTI) ist ein Weg in vielen Schritten: So gab es früher Digital-Mäuse, bei denen sich ein gesteuerter Mauszeiger immer in der gleichen Geschwindigkeit wie von einem digitalen Joystick gesteuert in acht mögliche Richtungen bewegt, und nicht wie wir es jetzt kennen proportional oder überproportional zur physischen Bewegung des Eingabegeräts. Die Entwicklung neuer Sensoren ermöglicht heute eine Bedienung auf Berührung oder durch Bewegung und Drehung des Geräts durch miniaturisierte Inertialsensoren, die Einzug in Smartphone und Tablets gehalten haben. Ein Beispiel für eine Bedienung über Inertialsensoren ist die Anwendung Universe2Go mit der Blinde wie auch sehende Menschen den Sternhimmel wie durch ein Smartphone-Fenster erfahren und hören können.

In der MTI ist es auch wichtig kurz und prägnant den aktuellen Kontext darzustellen. Visuell werden für solche Identifikationshinweise oft Icons benutzt und diese haben ein akustischen Pendant, die so genannten Earcons: So kann durch einen kurzen und prägnanten Laut den Nutzenden sehr schnell eine wichtige Information oder ein Bezug hergestellt werden. In der Gestaltung solcher Earcons ist neben der Unterscheidbarkeit untereinander auch Distanz zu reellen Geräuschen zu berücksichtigen, damit ein eingesetztes System nicht mit Informationen aus der Realität verwechselt werden kann. Das hapto-akustische Spiel Bob it hat auch einen Spielmodus mit Geräuschen, wodurch gegenüber Sprachausgabe die Spielinformation schneller vermittelt wird.

Mit Lenkgesten teilautomatisierte Fahrzeuge steuern wie der Reiter das Pferd; das ist das Ziel des Projekts Vorreiter. Auch hier waren Yigiterkut Canpolat vom Institut für Arbeitswissenschaft an der RWTH Aachen und Prof. Dr. Clemens Arzt, Direktor des Forschungsinstituts für öffentliche und private Sicherheit (FÖPS Berlin) an der Hochschule für Wirtschaft und Recht Berlin bereit über ihr Projekt zu sprechen. Hier sollen intuitive Steuerungen entwickelt werden, die Menschen mit körperlichen Einschränkungen die Nutzung von teilautomatisierten Fahrzeugen ermöglichen sollen. Dabei ist nicht nur die technische Entwicklung wichtig, sondern besonders auch die rechtswissenschaftliche Begleitforschung, da die gesetzlichen Voraussetzungen analysiert werden müssen, die bei der Umsetzung Berücksichtigung finden müssen und wo eventuell auch in rechtlicher oder gesetzlicher Sicht Handlungsbedarf besteht. Ein sehr überzeugendes Beispiel für eine gelungene Umsetzung ist das Sam Car Project des industriellen Partners Paravan im Vorreiter-Projekt, wo dem ehemaliger Indy-car Fahrer und seit einem schweren Rennunfall querschnittgelähmten Sam Schmidt mit einer Spezialanfertigung wieder die Steuerung eines Autos ermöglicht wurde.

Pferde sind jedoch nicht nur einfache Fortbewegungsmittel, sondern können in besonderem Maße Menschen mit Einschränkungen in ihrer Mobilität unterstützen. Ein sehr außergewöhnliches Beispiel bietet hier Sabriye Tenberken, die zu Pferd durch Tibet reiste und als Blinde die Blindenschule Braille without Borders in Tibet eröffnete und darüber auch das Buch Mein Weg führt nach Tibet veröffentlichte.

Die Fachtagung endete mit dem Fachvortrag von Prof. Dr. Andreas Knie zu vernetzten multimodale Mobilitätslösungen der Zukunft und einer Abendveranstaltung zum Austausch mit den weiteren Teilnehmern der Tagung.

Zweites Konsortialtreffen

Am 27. März traf sich das TERRAIN Konsortium zum zweiten Projekttreffen in Karlsruhe.

Gruppenbild des Konsortialteams beim zweiten Treffen im TERRAIN-Projekt
Gruppenbild zum zweiten Konsortialtreffen: v.l.n.r. Frank, Siebert, Jaworek, Kochanek, Müller, Weinberger, 
Petrausch, Winkelmann, Stiefelhagen, Haurilet, Ritterbusch

Auf dem Konsortialtreffen berichteten alle Projektteilnehmer vom Studienzentrum für Sehgeschädigte (SZS), dem Forschungslabor cv:hci, dem Institut für Technologiefolgen und Systemanalyse (ITAS), der Firma Papenmeier und der Firma iXpoint Informationssysteme über ihre bisherigen Ergebnisse und die Pläne für die nächsten sechs Monate: Es gab unter anderem spannende Ergebnisse aus der Entwicklung der Braillekomponente, der TERRAIN-App und erste Erfahrungen aus der Bilderkennung.

Dazu gibt es einige Abstimmungen zum gemeinsamen Vorgehen, Einsichten aus Veranstaltungen wie der Expertenrunde sowie der Anforderungsanalyse und Diskussionen über neue Aspekte, die sich aus den bisherigen Arbeiten ergeben haben.

Nach dem gemeinsamen Mittagessen haben wir ein Gruppenfoto geschossen, das wir aber nicht wie zum Kickoff-Meeting machen konnten. Wir mussten uns in einer anderen Himmelsrichtung aufstellen, wie man es mit dem Entwicklungsstand der TERRAIN-App schon jetzt feststellen konnte. Zum astronomischen Zusammenhang bemerkte Gerhard Jaworek, blinder Informatiker am SZS, auf seiner Astro-Mailingliste „Astronomiezugang für Blinde“:

Gestern war nun wieder am selben Ort zur selben Zeit der Fototermin. Als wir uns positionierten, bemerkte eine Teilnehmerin, dass wir das Foto gar nicht so, wie beim letzten Mal machen könnten, weil es jetzt blenden würde.

Da ging mir ein Licht auf. Natürlich konnten wir uns gestern nicht so stellen, denn wir waren ganz woanders im Jahreslauf.

Beim Kickoff-Meeting am 07.07.2016 befanden wir uns gerade mal ungefähr zwei Wochen nach Sommersonnenwende. Die Sonne erreichte somit an diesem Tag noch fast ihren höchsten Sonnenstand, den sie überhaupt innerhalb des Jahreslaufes erreichen kann.
Und heute, am 28.03. befinden wir uns gerade mal eine Woche nach Frühlings-Anfang (Tag-Nacht-Gleiche) und noch ein Viertel Jahr ist es noch hin, bis zur Sommersonnenwende 2017.

Das bedeutet, dass sie gerade mal ihren halben Höchststand am Himmel erreicht hat. Das ist vereinfachend gesagt, aber, vergessen wir jetzt mal Kugel, Perspektive, dass der Höchststand im Laufe eines Jahres um etwa eine Stunde variiert, etc. Jeder von uns weiß, wie die Jahreszeiten entstehen. Ich schrieb glaub auch schon drüber. Es geht mir hier um das Erlebnis an sich. Überall kann man beobachten, dass die Sonne im Winter deutlich steiler zur Mittagszeit am Himmel steht. Ich fand das aber dennoch sehr faszinierend. Noch gut erinnere ich mich daran, wie und wo ich im letzten Jahr für das Foto, und wo ich diesmal stand.

Zum Glück war am Sonntag Zeitumstellung. Sonst wäre das Erlebnis nicht so schön. So fielen beide Termine in die Sommerzeit und sind somit vergleichbar.

Wie gesagt. Wir hätten das Foto wegen Blendung nicht so stellen können, wie im letzten Jahr. Besser so. Das bringt Abwechslung.

So zeigt sich, wie schon eine kleine Information wie der Ausrichtung zur Umgebung das eigene Verständnis für die Geschehnisse um einen herum bereichern kann.

Natürlich hoffen wir im Verlaufe des Projekts noch viele weitere Aspekte der Umgebungsdarstellung anzugehen. Wir sehen uns nach dem erfolgreichen Treffen unseres Teams auf jeden Fall auf einem sehr gutem Weg.

Neues Terrain 05 – Juristische Begleitforschung

Am 18. November 2016 fand an der Fachhochschule Bielefeld ein vom Bundesministerium für Bildung und Forschung (BMBF) und der FH Bielefeld angebotener Workshop zu Einzelaspekten rechtswissenschaftlicher Begleitforschung statt, an dem Johannes Hirsch, Markus Winkelmann und Sebastian Ritterbusch teilnahmen. Im Gespräch und diesem Text werden zwar rechtswissenschaftliche Fragen angesprochen, die Aussagen sind aber keinesfalls als Rechtshinweise oder Rechtsberatung zu verstehen. Juristische Begleitforschung (1:15:24, 33MB)

Eine juristische Begleitforschung ist ein Aspekt der ELSI-Begleitforschung, die die Betrachtung von ethischen (ethical), rechtlichen (law) uns sozialen (social) Fragestellungen zu Projekten umfasst. Diese Themen stehen im Zentrum des vom Institut für Technologiefolgenabschätzung und Systemanalyse (ITAS) am Karlsruher Institut für Technologie (KIT) vorangetriebenen Forschung.

Im Projekt QuartrBack befasst sich Johannes Hirsch mit der Begleitforschung um eine intelligente Notfallkette im Quartier für Menschen mit Demenz. In rechtlicher Sicht wurden hier insbesonders Aspekte des Datenschutz beleuchtet. Auch in anderen Themenbereichen werden diese Fragestellungen untersucht, so wurde der Institutsleiter Prof. Dr. Armin Grundwald in die von Bundesminister Alexander Dobrindt eingesetzte Ethik-Kommission zu automatisierten Fahren berufen. Auch zu Energiethemen hat Markus Winkelmann am ITAS gesellschaftliche, rechtliche und soziale Fragestellungen betrachtet und begleitet das Terrain-Projekt durch Begleitforschung. Für Sebastian Ritterbusch von der iXpoint Informationssysteme GmbH sind die rechtlichen Fragestellungen einmal für das Projekt Terrain insgesamt aber auch speziell für die Entwicklung der Anwendungen für die Nutzenden von großem Interesse.

Der Workshop begann mit einem Vortrag von Frau Prof. Dr. jur. Brunhilde Steckler der FH Bielefeld und behandelte Rechtsaspekte im Projekt KOMPASS: Es ging um die Vertraulichkeit und Integrität von Rechtssystemen, was im Rechtssystem alleine schon Aspekte des Persönlichkeitsrechts, Datenschutz, Telemedien, Vertrags- und Haftungsrecht berührt. In der betrachteten Anwendung ging es im Projekt um den Bereich Wearables und Fitness und wie hier Dienste rechtssicher angeboten werden und den Nutzenden die Datenverarbeitung transparent dargestellt werden können. Wie auch häufiger im Verlauf des Workshops kam sie auch auf die besondere Rolle der neuen Datenschutz-Grundverordnung (DS-GVO) der Europräischen Union zu sprechen, die ab Mai 2018 anzuwenden ist und insbesondere auch die Datenschutz-Folgenabschätzung eingeführt (Art. 35 DS-GVO) .

Der folgende Vortrag von Dipl.-Inf. Christian Burkert (@cburkert_de), früher praemandatum GmbH und jetzt wissenschaftlicher Mitarbeiter an der Universität Hamburg, behandelte Privacy-by-Design in der Produktentwicklung. Von Privacy-enhancing Technologies (PETs) aus den 90ern über Ann Cavoukians 7 Prinzipien des Privacy by Design zog er den zeitlichen Rahmen zur EU-Datenschutzreform von 2012. Die 7 Prinzipien des Privacy by Design geben direkte Handlungshinweise für die Einbettung des Datenschutzes in den Entwicklungsprozess, die im Sinne mit der Datenschutzgrundverordnung DS-GVO als „Datenschutz durch Technikgestaltung“ im Artikel 25 besonderen Einzug in die zukünftige Gesetzeslage gefunden haben, deren Umsetzung durch Verantwortliche mit Maßnahmen gesichert werden soll. An Hand der zwei Beispiele von den „Privacy Czars“ bei Apple und den „In-House Consultants“ bei Google stellte er dar, dass die Verankerung im Unternehmen sehr unterschiedliche Ausgestaltung haben kann.

Wie wichtig die Verankerung von Datenschutz in Geschäftsprozesse ist, sieht man schon daran, wie eindeutig Menschen im Netz durch ihren Browser identifiziert und verfolgt werden können, beispielsweise durch das Browser Fingerprinting oder mit Cookies. Ein Beispiel für Intervenierbarkeit durch den Nutzer ist das Google Privacy Dashboard, in dem man den Zugriff auf gewisse persönliche Daten widerrufen kann.

Im Vortrag von Prof. Dr. jur. Iris Kirchner-Freis der MLS LEGAL GmbH Rechtsanwalts- und Fachanwaltsgesellschaft ging es um Datenschutz bei Gesundheitsdaten am Beispiel des Projekts Adaptify. Dies beginnt schon mit der Frage der genauen Definition von Gesundheitsdaten im Sinne des Bundesdatenschutzgesetzes (BDSG) §3 Absatz 9 zu verstehen sind und besonders geschützt werden müssen: Dies umfasst sicher medizinische Informationen, können aber auch körperliche Leistungsdaten betreffen, die im Einsatz von Trackern beim Sport anfallen können. Das White Paper „Annex – health data in apps and devices“ der europäischen Union versucht hier die Definition zu konkretisieren. Bei der Frage der Einwilligung, Datensicherheit und Pseudonymisierung spielt für die Umsetzung in mobilen Lösungen insbesondere das Telemediengesetz (TMG) eine besondere Rolle. Grundlegend müssen nach BDSG den Nutzenden auch das Auskunftsrecht, Löschungs- und Sperrungsrecht und das Berichtigungsrecht eingeräumt werden und technisch-organisatorische Maßnahmen wie beispielsweise Zutritts- und Zugangskontrolle serverseitig umgesetzt werden.

Die Einbettung von Privacy by Design durch Legal Process Modelling war das Thema des Vortrags von Frau Prof. Dr. jur. Beatrix Weber der Hochschule Hof. Die verpflichtende Datenschutz Compliance der DS-GVO zu Privacy by Design und Default und der Umsetzung interner Strategien für organisatorische Maßnahmen sind unter einer Risikoabwägung umzusetzen: Hier fließt neben dem Stand der Technik, Implementierungskosten und der Art der erhobenenen Daten auch die Eintrittswahrscheinlichkeit und zu erwartende Schwere der Risiken für bedrohte Rechte und Freiheiten mit ein. Dabei sieht sie die Unternehmens-Compliance als Geschäftsprozess, der auch weitere Rechtsthemen wie Urheberrecht, Kartellrecht und ethische Normen abbildet, und grundsätzlich in Phasen der Konzeption, Umsetzung und Adjustierung strukturiert werden kann.

Von Herrn Prof. Dr. jur. Wolfgang Schild der Universität Bielefeld erhielten wir einen Einblick in rechtliche Fragen der Einwilligung vulnerabler Personengruppen. Grundsätzlich ist eine Einwilligung ein Aufopferungsakt, da man auf einen zustehenden rechtlichen Schutz verzichtet. Der rechtliche Grundsatz wird durch den lateinischen Ausdruck volenti non fit iniuria beschrieben, die Umsetzung muss dafür aber auch rechtlichen Anforderungen genügen: So muss die einwilligende Person den Fähigkeiten der intellektuellen Einsicht und voluntativen Willensbildung befähigt sein, und Informationen erhalten, was geschieht, auf was man verzichtet und welche Risiken, Chancen und Alternativen mit der Einwilligung einhergehen. Dabei ist die Einwilligung keine rechtliche Willenserklärung sondern ein Ausdruck des Selbstbestimmungsrecht und kann im Gegensatz zu geschlossenen Verträgen jederzeit widerrufen werden.

Der abschließende Vortrag von Dr. jur. Thilo Weichert vom Netzwerk Datenschutzexpertise behandelte die Themen Sensorik, automatische Entscheidungen und Persönlichkeitsschutz. Mit den technischen Entwicklung unter anderem im Mobile Computing und Social Communities wird es möglich automatisiert personalisierte Entscheidungen zu treffen. Beispiele sind hier unter anderem in Medizin, Spiel, Werbung und Arbeitswelt, die auch große Risiken beinhalten können: Durch intransparente Kreditscoring-Verfahren kann das Leben von Menschen beispielsweise radikal beeinflusst werden. Ebenso drohen der Verlust der Vertraulichkeit und Wahlfreiheit, es wird Tür und Tor der Diskriminierung und Manipulation geöffnet und Menschen können schaden nehmen. Daher muss es sowohl eine unbedingte Beachtung der datenschutzrechtlichen Grundlagen und gleichzeitig eine Achtung vor Kernbereichen privater Lebensgestaltung ganz im Sinne von Artikel 7 der europäischen Grundrechte-Charta geben, was in globaler Sicht große Herausforderungen beinhaltet.

Der Workshop bot ein gebündeltes Bild zur rechtwissenschaftlichen Begleitforschung und war für die Teilnehmenden in vielen Aspekten relevant und lehrreich. Die Darstellung der Fragestellungen und Erkenntnissen aus thematisch verwandten Projekten wird für die Umsetzung im Terrain Projekt eine große Hilfe sein. Besonderer Dank gilt Prof. Dr. Wolfgang Schild und Dr. Thilo Weichert, dass sie uns für persönliche Kommentare in dieser Folge zur Verfügung standen.

Weiterführende Informationen

Erstes Treffen der Expertenrunde

Nora Weinberger und Markus Winkelmann

Nach dem „Startschuss“ des Projekts hat das ITAS mit der Rekrutierung von Mitgliedern für die Expertenrunde begonnen und im Zuge dessen rd. 30 potentielle Expertinnen und Experten angesprochen und angeschrieben. Viele haben großes Interesse am Projekt geäußert, konnten aber aufgrund vieler Verpflichtungen u.a. in der Lehre eine Teilnahme nicht zusagen. Vierzehn Expertinnen und Experten hingegen sind für die drei geplanten Runden gewonnen worden. Hierunter sind Ethiker, Mediziner, Datenschützer, Rehabilitationswissenschaftler, ein Theologe, eine Mobilitätstrainerin, Psychologen, Juristen, Soziologen, Vertreter von Verbänden und Betroffene.

Ende 2016 fand dann die erste Expertenrunde statt. Nach einer Kennenlernphase, einer Einführung in das Projekt und dem Vorstellen des geplanten technischen Systems wurde eine erste Diskussion über die verschiedenen disziplinären und individuellen Zugänge und Erfahrungen zu ethischen, legalen und sozialen Implikationen und darüber hinausgehenden Fragestellungen, geführt. Hier gab es von den Expertinnen und Experten viele interessante Hinweise zum technischen System, aber auch soziale Implikationen wurden angesprochen. Unter anderem wurde geäußert, dass die Technik nicht zu einer Exklusion der Betroffenen führen dürfe. Erwartungen an technische Lösungen und das Zusammenspiel verschiedener – auch nicht technischer – Möglichkeiten waren Themen. Darüber hinaus konnten die Betroffenen aus ihrem schon technisierten Alltag berichten und merkten bspw. an, dass Sehbehinderungen sehr individuell ausgeprägt seien und daher das System stark adaptierbar sein müsse. Die Expertenrunde lobte das große Potential in diesem Projekt, da durch die Forschungsinstanz ITAS ein Vermittler zwischen Technik und Menschen dabei sei. Der Einbezug von Experten und potentiellen Nutzern in den gesamten Entwicklungsprozess wurde als sehr wichtig und zielführend begrüßt.

Ende 2017 findet die nächste Expertenrunde statt, zu der auf Hinweis der Runde noch eine Expertin/ein Experte für Neuroplastizität eingeladen wird, um eine Expertise zu Lernprozessen und dessen mnestischen (das Gedächtnis betreffenden), sensorischen und motorischen Phasen zu integrieren.

Neues-Terrain-04 – Orientierungsveranstaltung

Im Studienzentrum für Sehgeschädigte sprachen Susanne Schneider und Gerhard Jaworek über die Orientierungsveranstaltung für Schülerinnen und Schüler: Orientierungsveranstaltung (1:38:38, 45MB)

Das von Prof. Dr. Rainer Stiefelhagen geleitete Studienzentrum ist eine interfakultative Einrichtung, die der Informatik zugeordnet ist, und gleichzeitig ein Lehrstuhl. Entstanden ist es aus einem Modellversuch 1987 bis 1993, der Blinden und Sehbehinderten durch Studienmöglichkeiten neue Berufsfelder eröffnen sollte. Der Versuch war so erfolgreich, dass das Studienzentrum zur festen Einrichtung wurde und ist seit 2011 Lehrstuhl mit Professur. Zentrale Aufgaben sind dabei die Unterstützung Blinder und Sehbehinderter Studierender vor ihrem Studium, während des Studiums und beim Übergang in die Arbeitswelt nach dem Studium.

Ein wichtiges Aufgabenfeld des Studienzentrums ist daher die Information von Studieninteressierten und auch deren Betreuungspersonen. Letzteres wird besonders durch die drei-tägige Orientierungsveranstaltung realisiert, die von Susanne Schneider geplant, organisiert und durchgeführt wird. In den Themen geht es um Arbeitsausstattung, was sind Fragen der Orientierung und Mobilität (O&M), welche Unterstützung ist im Studium erforderlich, wie ist die Wohnsituation, und wer kann helfen, wenn es um juristische Fragestellungen geht. Die Veranstaltung findet jährlich von Montag bis Mittwoch vor dem Feiertag Christi Himmelfahrt statt. Grundsätzlich sollten Blinde und Sehbehinderte an allen Universitäten in Deutschland studieren können, da alle Universitäten Behindertenbeauftragte haben sollten, die bei Schwierigkeiten für die Studierenden angemessene Lösungen finden sollen. Der Workshop soll hier den Interessierten schon im Vorfeld helfen, offene Fragen zu klären und erforderliche Aufgaben anzugehen.

Das Studienzentrum für Sehgeschädigte (SZS) überdacht drei Säulen im Auftrag für Service und Forschung für Menschen mit Blindheit oder Sehbehinderung: Die erste Säule ist die Studienvorbereitung, hier geht es um Bundesweite Orientierungsveranstaltung für Studieninteressierte, Unterstützung bei der Auswahl von technischen Hilfsmitteln, Einweisung in spezifische Lern- und Arbeitstechniken und Beratung bei der Studienfachplanung. Die zweite Säule ist die Studienbegleitung: Hier geht es um Literaturumsetzung/- Anpassung, Schulung von Tutoren, Unterstützung in Lehrveranstaltungen und bei Prüfungen, Förderung von Auslandssemestern und Regelmäßige Semestertreffen für Studierende. Die dritte Säule ist die Berufsvorbereitung durch Unterstützung bei Industriepraktika im In- und Ausland, Bewerbungstraining für Studierende und Absolventen und Kontakte zu Arbeitgebern (Industrie/ Öffentlicher Dienst). Als Fundament gilt hier die Forschung und Lehre zum Thema Assistive Technologien und Informationstechnologien für Menschen mit Sehschädigung, Beratung, Schulungen und Taktiker Druckservice.
Die drei Säulen des Studienzentrum für Sehgeschädigte (SZS)

Da Interessierte aus dem ganzen Bundesgebiet anreisen, kommt es vor, dass es ein Wiedersehen mit Bekannten von anderen Veranstaltungen wie dem International Camp on Computers and Communication (ICC) an dem Gerhard Jaworek letztes Jahr auch teilnahm und dort Workshops zur Astronomie und dem Textsatzsystem LaTeX anbot.

Informationen werden im Vorfeld an Schulen, Verbände und Hilfsmittelhersteller versendet und auch Daten über mögliche Unterbringungsmöglichkeiten in Karlsruhe bereitgestellt. Die Teilnehmenden können komplett selbstständig oder mit Betreuungspersonen anreisen, das Studienzentrum bietet nach Absprache aber auch Möglichkeiten zur Anreiseunterstützung in Karlsruhe an.

Die Veranstaltung beginnt nach einer kurzen Vorstellung des Studienzentrums mit einer gegenseitigen Vorstellungsrunde der Interessierten, Begleitpersonen, Mitarbeitenden und aktuellen Studierenden mit Seheinschränkungen des KITs. Ein wichtiger Einstieg sind dabei die Erfahrungsberichte der Studierenden über ihren Beginn des Studiums, ihre Eindrücke, erlebte Herausforderungen und wie sie sei bewältigen konnten. Darauf schließt sich als ein aktives Element ein gemeinsamer und betreuter Besuch der Mensa auf dem Campus Süd des KIT an.

Im nächsten Programmpunkt wird die Arbeit des Studienzentrum vorgestellt, aufgeteilt in die Gruppen der Blinden und Sehgeschädigten, damit hier verschiedene Schwerpunkte gesetzt werden können. Dabei geht es sowohl um zur Verfügung stehende Hilfsmittel, Dienste wie der Literaturumsetzung wie auch die Fähigkeiten der Studieninteressierten. Hier können Hinweise gegeben werden, ob vor dem Studium noch Kurse zum Orientierungs- und Mobilitätstraining sinnvoll sind, beispielsweise die Braille-Fertigkeiten verbessert werden sollten oder das für das Studium sehr wichtige Tippen mit zehn Fingern trainiert werden sollte.

Ein wichtiges Thema ist auch der Nachteilsausgleich für Studierende mit Sehbeeinträchtigung. Am KIT fällt dies in den Arbeitsbereich von Frau Angelika Scherwitz-Gallegos, und betrifft natürlich auch besonders den Ablauf von Klausuren: Hier muss entweder inhaltlich genau die gleiche Prüfung unter eventuell leicht veränderten Rahmenbedingungen bestanden werden, oder in Ausnahmefällen von nicht durchführbaren Aktionen wie dem Umgang mit explosiven Chemikalien äquivalente Ersatzleistungen erbracht werden.

Am KIT gibt es auch ein Sportangebot, und so wird am Nachmittag des ersten Tages auch der Hochschulsport vorgestellt. Neben den Fitnessangeboten wird bei gutem Wetter oft auch die Slackline vorgestellt. Gerade für Menschen mit Sehschädigung ist es sehr wichtig mit Sport den eigenen Körper zu trainieren und kennenzulernen und hier das Angebot im Studium auch zu nutzen. Parallel dazu haben die Begleitpersonen einen Zeitbereich zum Austausch, denn auch für die Unterstützung gibt es spezifische Fragestellungen, die gesondert vertieft werden können. An den beiden Abenden wird die Orientierungsveranstaltung mit einem gemeinsamen Abendessen abgeschlossen und ermöglicht ein besseres Kennenlernen und eine lockere Umgebung für noch offen gebliebene Fragen.

Der zweite Tag beginnt mit vielen Referenten zu Fragestellungen wie den Wohnmöglichkeiten in Studierendenwohnheimen vom Studierendenwerk, zur Finanzierung der persönlichen Arbeitsmittel, der Eingliederungsunterstützung durch die Stadt Karlsruhe und auch zum Orientierungs- und Mobilitätstraining mit dem Sehwerk. Hier wird auch verdeutlicht, dass für die Vorbereitung des Studiums mindestens ein halbes Jahr an Vorlauf für Anträge, Bewerbung für geeigneten Wohnheimplatz und weiteren Terminen einzuplanen sind.

Regelmäßig folgt ein Beitrag der RBM Rechtsberatung „Rechte behinderter Menschen“ wo Möglichkeiten bei abgelehnten Bescheiden oder Anträgen, sowie das Vorgehen bei Klagen oder sozial- und verwaltungsrechtlichen Fragen angerissen werden. Es ist auch sehr empfehlenswert einem Selbsthilfeverein, beispielsweise dem Deutschen Blinden- und Sehbehindertenverbandes e.V., beizutreten, da einem dann dieser Rechtsbeistand kostenlos zusteht. Darüber hinaus hilft die Mitgliedschaft auch sehr in der Lobbyarbeit wie beispielsweise in der Diskussion zum Bundesteilhabegesetz.

Nach einem zweiten Besuch der Mensa am Mittag schließen sich am Nachmittag Besuche einer Wohnung in einem Studierendenwohnheim und der KIT-Bibliothek an, wo man weitere Eindrücke vom Leben und Lernen an einer Universität erhalten und dazu Fragen stellen kann. Darüber hinaus werden möglichst auch Besuche bei den Fakultäten den anvisierten Studienrichtungen ermöglicht, damit ein früher Kontakt mit den Lehrkräften ermöglicht wird.

Der Schritt ins Studium ist nicht nur ein Schritt in eine universitäre Umgebung, sondern oft auch ein Schritt in eine größere Selbstständigkeit. Oft müssen dazu auch weitere Fertigkeiten erlernt werden, wie das Kochen oder die eigene Wäsche zu machen. Auch hier gibt es Trainingsangebote (LPF = lebenspraktische Fähigkeiten) wie vom Sehwerk, die helfen, auch diesen Schritt gut zu meistern.

Am dritten Tag besteht die Möglichkeit an einer Vorlesung teilzunehmen, um einen Eindruck von diesen Veranstaltungen zu erhalten und beispielsweise auch die eigenen Hilfsmittel in der Vorlesungssituation zu testen. Weiterhin werden individuelle Gespräche angeboten und nach einem letzten gemeinsamen Mittagessen werden Eindrücke ausgetauscht und Rückmeldungen zur Veranstaltung gegeben.

Auch wenn die Veranstaltung regelmäßig am Karlsruher Institut für Technologie stattfindet, so richtet sie sich bundesweit an alle Interessierte, die sich mit Blindheit oder Sehbehinderung für ein Studium interessieren.

 

 

Strömungen – Symposium zu künstlerischer Sonifikation

Vom 2. bis zum 4. Dezember 2016 fand am ZKM – Zentrum für Kunst und Medien in Karlsruhe das vom Institut für Musik und Akustik  und Prof. Ludger Brümmer veranstaltete Symposium Strömungen zur künstlerischen Sonifikation statt. Sebastian Ritterbusch hatte die Gelegenheit am 3. Dezember einigen Vorträgen beizuwohnen.

Mikroorganismen sind kleinste Lebewesen, die in einer Mikrobiellen Brennstoffzelle zur Stromgewinnung genutzt werden können. Ricardo Climent stellte sich die Frage, wie man die Aktivität der Organismen sonifizieren könnte oder sogar mit verschiedenen Mikroorganismen durch Steuerung ihrer Lebensumstände ein Ensemble bilden könnte. Durch Zugabe und Reduktion von Nährstoffen sowie der Veränderung der Temperatur veränderte er den Stoffwechsel der Lebewesen, was zu unterschiedlichen Spannungen an den Elektroden führte. Diese Potentialunterschiede sonifizierte er mit Tongeneratoren und Synthesizern, die als Microbial Ensemble in Konzerten wie in Belfast aufspielen ließ.

Auf einer weit kleineren Skala betrachtete Falk Morawitz die magnetische Kernresonanz von beispielsweise Wasserstoff-, Kohlenstoff– und Stickstoffatomen und Isotopen. Während sich die eigentlichen Resonanzfrequenzen im Megahertzbereich von beispielsweise Ultrakurzwellen bewegen, so sind die Abweichungen von der Trägerfrequenz oft nur im Bereich von Kilohertz und können daher direkt sonifiziert werden. Die unterschiedlichen Resonanzen der Atome und Verbindungen ermöglichen in der Kernspinresonanzspektroskopie eine detaillierte Analyse von Stoffen und Molekülen auf atomarer Ebene, auch auf akustischem Wege: Die Sonifikation war laut Morawitz eine Standardausgabe früherer Spektrographen, die erst aktuelleren Geräten nicht mehr standardmäßig aktiviert ist. Wie man die Signale auch musikalisch nutzen kann, zeigt Falk Morawitz in Konzerten in Manchester oder auch zum Symposium am ZKM.

Einen großen Erfolg für Sonifikationen sieht Alexandra Supper durch ihre Immersion und Emotionalität in der Popularisierung von Wissenschaft. Prominente Beispiele sind hier die Sonifikation der Aurora (Beispiel einer Sonifikation des Nordlichts) oder in der Astroseismologie (Beispielhafte Sonifikationen der Astroseismologie). Gleichzeitig ist dies aber auch eine Gefahr, da sich so Forschende von einer anscheinend unwissenschaftlichen Methodik abwenden, statt Sonifizierung als wissenschaftliche Methode weiterzuentwickeln.

Gleich mehrere neue Methoden schlägt Jiajun Yang vor, um neue Nutzungsmöglichkeiten von Sonifikationen zu etablieren. Zum einen können funktionale Geräusche Menschen mit Einschränkungen wie beispielsweise Autismus helfen sich auszudrücken. So wurden Personen synthetische sprachähnliche Geräusche zur Auswahl gegeben, um über eine evolutionäre Auswahl typische Stimmungslaute zu identifizieren, die dann in der Übersetzung ihrer Gemütszustände eingesetzt werden können.

Ein weiterer Ansatz von Yang soll durch eine modellbasierte Sonifikation helfen große Datenmengen interaktiv und explorativ zu sonifizieren. So kann die akustische Darstellung der Trajektorie eines durch nahe Datenpunkte angezogenen Teilchens helfen, lokale und verborgene intrinsische Eigenschaften großer Datenmengen zu darzustellen.

In einer anschließenden Paneldiskussion kam auch das Thema auf, wann eine Geräuschbildung noch als Sonifikation angesehen werden kann. Hier hat Thomas Hermann 2008 die These zur Definition der Sonifikation  aufgestellt, dass sich die Sonifikation durch Objektivität, Systematik, Reproduzierbarkeit und Anwendbarkeit auszeichnet. Gleichzeitig stellen sich aber auch nicht alle Sonifikationen als sinnvolle Darstellungen heraus, da dem menschlichen Hörvermögen Grenzen gesetzt sind. Ebenso muss die Wirkung von akustischen Darstellungen beachtet werden, da nur erträgliche Sonifikationen überhaupt zum Einsatz kommen werden. Hier ist die künstlerische und interdisziplinäre Auseinandersetzung mit dem Thema der Sonifikation wie auf diesem Symposium ein auch für wissenschaftliche und technische Einsatzfelder eine wertvolle Bereicherung, da am Ende die Darstellungen wie im Terrain-Projekt auf offene Ohren treffen sollen.

Hilfsmittelausstellung des Allgemeinen Blinden- und Sehbehindertenverein Berlin

Während der Hilfsmittelausstellung des Allgemeinen Blinden- und Sehbehindertenverein Berlin gegr. 1874 e. V. am 16. und 17. November 2016 wurden von der Firma Papenmeier Hilfsmittel für den privaten sowie für den Arbeitsplatz Bereich präsentiert.

Für Arbeitsplätze, sowie für mobile Blindenarbeitsplätze wurden die Braillezeilen der Serien BRAILLEX ELc und BRAILLEX Live vorgeführt. Die hohe Qualität in Material, das schicke Design sowie die sehr einfache und intuitive Bedienbarkeit der Braillezeilen fanden große Zustimmung. Es wurden große 80-stellige Blindenschriftzeilen für den Arbeitsplatz ausgestellt, sowie mobile 40- und 20-stellige Zeilen gezeigt. So können die kleinen Zeilen auch via Bluetooth mit Tablets oder Smartphones gekoppelt werden. Damit überhaupt Informationen auf den Braillezeilen ankommen bedarf es einer Übersetzungssoftware (Screenreader). Die Firma Papenmeier setzt hierbei primär auf den Screenreader JAWS.

Als neues Produkt präsentierte Papenmeier das Kamerasystem VISULEX Maki, das für den Arbeitsplatzbereich entwickelt wurde. Es werden Vorlagen unter die Kamera gelegt, die dann vergrößert auf einem Bildschirm angeschaut werden können. Die sehr gute Stabilität und das hervorragende Bild in der Vergrößerung war für die Besucher besonders beeindruckend. Eine Vergrößerungssoftware (z.B. Supernova oder Zoomtext) ergänzt die technischen Arbeitshilfen für sehbehinderte Menschen. Durch diese kann ich den Bildschirminhalt vergrößert darstellen, Farben invertieren und bei Bedarf den Text vorlesen lassen.

Für den privaten Haushalt wurde bspw. das geschlossenes Vorlesesystem Universalreader Compact II ausgestellt. Dieses Hilfsmittel ist primär für ältere Menschen, die über keine respektive wenig Computerkenntnisse verfügen. So können sie sich ihre gedruckten Vorlagen mittels einer einfachen Tastatur einscannen und sie durch eine OCR in Text umwandeln und vorlesen lassen.

Neues-Terrain-03 – Innovationsforschung

Nora Weinberger und Sebastian Ritterbusch unterhalten sich über Innovationsprozesse in der Technologieentwicklung und das Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) am Karlsruher Institut für Technologie (KIT): Innovationsforschung (2:05:08, 58MB)

Die Analyse von Technikfolgen und den Wechselwirkungen von Technik und Gesellschaft ist äußerst interessant für Themenfelder wie beispielsweise die sozialen Medien in der Wissensgesellschaft, die Endlagersuche für nukleare Endprodukte im Energiesektor, wie auch den Umgang mit dem demographischen Wandel und der Nachhaltigkeit. Viele der Themen sind gesellschaftliche Grand Challenges und werden teilweise schon aus historischen Gründen am KIT länger untersucht: Das in das KIT eingeflossene ehemalige Forschungszentrum Karlsruhe hatte beispielsweise einen Forschungsbereich zur Kernkraft. Der Institutsleiter Prof. Dr. Armin Grunwald war so auch am Abschlussbereicht der Kommission zur Lagerung hoch radioaktiver Abfälle beteiligt und ist Mitglied im unabhängigen Nationalen Begleitgremium zur Endlagersuche.

Das ITAS ist nicht nur räumlich vom KIT Campus Nord in die Innenstadt und die Gesellschaft gezogen, sondern sucht in vielen Richtungen den Kontakt zu den eigentlichen Experten für den „Lebensalltag“. Ein Beispiel, wie das ITAS die Ergebnisse und Kontroversen zur Diskussion aktiv zu den Bürgerinnen und Bürgern bringt, ist die Veranstaltungsreihe  Technik Kontrovers: Hier werden nicht nur Themen vorgestellt, sondern intensiv die Beteiligung von Bürgerinnen und Bürgern in Entscheidungsprozesse gefördert.

Das Arbeitsgebiet von Nora Weinberger im Terrain Projekt liegt im Bereich der Innovationsforschung: Unter dem Begriff Innovation versteht man hier sowohl die technische Innovation als auch die soziale Innovation in Kombination. Die Betrachtung des Begriffs stellt auch die Frage, welche Innovationen und Technik sich betroffene Menschen eigentlich wünschen. Denn zu leicht können technische Innovationen an den Bedürfnissen der Gesellschaft vorbeigehen. So kann man auf der einen Seite noch im Innovationsprozess unerwünschten Technikfolgen entgegentreten und durch die frühe Beteiligung auch eine höhere gesellschaftliche Akzeptanz erzeugen. Die Veränderungen, die sich in der Gesellschaft durch technische Innovationen ausbilden können, sind ein Aspekt der sozialen Innovationen, die die technische Seite im optimalen Fall begleiten und unterstützen, aber auch eine ganz eigene Entwicklung ausbilden können.

Eine besondere Herausforderung ist dabei die Technikvorausschau, die in Zusammenarbeit mit Experten verschiedener Bereiche erstellt wird. Dabei wird jedoch keine Zukunft vorhergesagt, sondern es werden mögliche Zukünfte, also mögliche Zukunftsszenarien, diskutiert und analysiert. Wirksam werden die verschiedenen Zukünfte durch ihre Wirkungen, und in der neutralen Bewertung der Folgen können Risiken von Entwicklungen sachlich behandelt und damit beispielsweise politische Entscheidungsträger beraten werden. Dies ist unter anderem ein Arbeitsgebiet des durch das ITAS betriebene Büro für Technikfolgenabschätzung am Bundestag (TAB).

Ein großes Themengebiet der ITAS ist der demographische Wandel, also der Alterung der Gesellschaft und den unter anderem damit verbundenen steigenden Anforderungen im Bereich der Pflege. Wo zunächst eine Abneigung gegen technische Lösungen vorwiegen kann, ermöglicht die Teilhabe und Partizipation eine gesteigertes Akzeptanzbewusstsein und Interesse an neuen Verfahren.

Ein Aspekt der alternden Gesellschaft ist die stark steigende Anzahl von Menschen mit Demenz. Demenz ist dabei ein Sammelbegriff für ein Phänomen, das fortschreitend verläuft und durch schwere Verluste höherer kognitiver Funktionen, insbesondere des Gedächtnisses, des Denkens, der Orientierung, der Lernfähigkeit, der Sprache, aber auch des Urteilsvermögens, gekennzeichnet ist. Neben den beschriebenen kognitiven Einbußen gehen Veränderungen des Gefühlslebens, aber auch des Verhaltens mit der Demenz einher, die sich zu Depressivität, Wahn und extremer Unruhe entwickeln können. Mit dem Fortschreiten der Demenz ist ein zunehmender Verlust der geistigen Leistungsfähigkeit festzustellen, der sich unter anderem in einer abnehmenden Fähigkeit zeigt, Alltagsprobleme eigenständig zu lösen, sodass Menschen mit Demenz einen zunehmenden Selbständigkeitsverlust erleben und immer mehr auf Unterstützung angewiesen sind.

Die extreme Unruhe von Menschen mit Demenz kann sich dabei in einem hohen Bewegungsdrang (sog. „Wandering“) äußern. In Kombination mit den beschriebenen Defiziten können diese zu einem Selbstgefährdungspotential führen, weil eine örtliche Orientierung kaum oder gar nicht mehr möglich ist. Andererseits wird gerade Bewegung als Intervention zur Aktivierung der Gehirnfunktion und zur Teilhabe am sozialen Leben empfohlen. Die Bewegung kann damit als eine wirkungsvolle und nebenwirkungsarme Schlüsselkomponente bei der Pflege und Betreuung von Menschen mit Demenz angesehen werden. Mit ihr ist sowohl eine motorische als auch eine sensorische, aber auch eine soziale Aktivierung verbunden, die sich auf die subjektive Lebensqualität und den funktionellen Status der Menschen mit Demenz auswirken und dazu beitragen, Stürze, Kontrakturen sowie Dekubitus zu verhindern. So können bestehende Ressourcen so lange wie möglich erhalten, und eine hohe Pflegeintensität kann hinausgezögert werden. Die Realisierung von Bewegung vor allem außerhalb der Einrichtung stellt allerdings die Pflegenden, die Bewohner und deren Angehörige, aber auch die Bürger im Quartier vor eine dilemmatische Situation: Einerseits soll die Selbstständigkeit der Menschen mit Demenz gefordert und gefördert werden, andererseits besteht in Abhängigkeit von der Tagesform und den individuellen kognitiven Fähigkeiten der Wunsch der Pflegenden und der Angehörigen nach Sicherheit, was dann häufig mit Formen von Freiheitsentzug korreliert. Dies führt dazu, dass die eigentlich gewollte Selbstbestimmung und Selbstständigkeit durch Sicherheitserwägungen und Furcht vor Selbstgefährdung eingeschränkt wird. Hieraus folgend muss es in der pflegerischen Praxis darum gehen, das dargelegte Spannungsfeld von Freiheit und Selbstbestimmung versus Sicherheit mit den Beteiligten zu thematisieren und Bewegung innerhalb und außerhalb der Einrichtung zu ermöglichen. Ziel ist es, das „Draußen aktiv“ unter dem Motto: „So viel Freiheit wie möglich, so viel Schutz wie nötig“ zu gestalten.

Ausgehend von diesen spezifischen Problemlagen widmete sich das Movemenz-Projekt der Fragestellung, ob und wie zu entwickelnde technische Artefakte Formen der Unterstützung anbieten können, um die Grundanforderung „Bewegung“ in einem gerahmten Pflegesetting aufrechterhalten, bzw. zu unterstützen. Dafür hat das Forschungsteam die Institutionen für einige Wochen zur teilnehmenden Beobachtung besucht und anschließend mit den beteiligten Personen (Betroffenen, Pflege- und Betreuungskräften, Angehörigen und Ehrenamtlichen sowie Vertretern des Quartiers) die auf Mobilitätsaspekte bezogenen Ergebnisse besprochen. In einem weiteren Schritt wurden die Beobachtungen mit einem Team von Technikentwicklern diskutiert, um technische Lösungsansätze und Entwicklungsmöglichkeiten zu erforschen.

Basis für die Vorgehensweise im Projekt war der Ansatz der Grounded Theory: Hier wurden alle für die Forscher und Allgemeinheit verfügbaren Informationen wie Webseiten oder die teilnehmende Beobachtung genutzt, um daraus unbeeinflusste Thesen zu formulieren und zu begründen. Die Grounded Theory ist ein weit akzeptiertes sozialwissenschaftliches Vorgehen, um strukturiert und begründet Erkenntnisse erhalten, und erinnert in gewisser Weise nach einem Design Pattern aus der Informatik. Im skandinavischen Film Kitchen Stories von 2003 wird das gewählte Vorgehen der teilnehmenden Beobachtung einer kritischen und gleichzeitig humoristischen Betrachtung unterzogen.

Ein Ergebnis und Beispiel für eine mögliche Innovation, die sich statt aus einem Technology Push aus den Beobachtungen, Diskussionen mit Betroffenen und den Technikentwicklern also einem Demand Pull herausgebildet hat, ist die Möglichkeit Menschen mit Ortslokalisierung zu helfen. Diese Technikdee wird zusammen mit einer starken sozialen Innovation einem unterstützenden Helfernetz im QuartrBack-Projekt untersucht.

Den Ansatz neben dem Technology Push auch den Demand Pull zu setzen und im Vorfeld die Technikfolgen zu beachten wird auch im Terrain Projekt umgesetzt: So werden entsprechend interdisziplinäre Experten befragt, um weitere Anforderungen und Aspekte frühzeitig in die Entwicklung einfließen zu lassen. Ebenso werden im Projektverlauf mit Bürgerbeteiligung auch intensiv mögliche Technikfolgen und vorab Bedenken, aber auch Chancen des Technikeinsatzes untersucht.

Publikationen und weiterführende Informationen

Podcast

 

Neues-Terrain-02 – Blind Orientieren

Gerhard Jaworek und Sebastian Ritterbusch sprechen über Hilfsmittel für Menschen mit Blindheit zur Unterstützung von Orientierung und Mobilität (O&M) von damals bis heute: Blind Orientieren (2:49:21, 77MB)

Der Langstock ist das wichtigste Hilfsmittel in der Fortbewegung. Durch das Pendeln in der Bewegung wird etwa die Körperbreite abgetastet, unter anderem um Hindernisse zu erkennen und auch den Untergrund wahrzunehmen. Am Untergrund kann man Wegbegrenzungen und taktile Bodenindikatoren, die Bestandteil von Blindenleitsystemen sind, gut erkennen.

Eine besondere Herausforderung ist das Überqueren von größeren Freiflächen und Plätzen, hier war der Blindenkompass ein sehr gutes Hilfsmittel: Frühere Modelle bestanden aus einer sich mit Magnetfeld zunächst frei ausrichtenden Platte, die zum Ablesen fixiert werden konnte. Auf der Scheibe sind die Himmelsrichtungen und weitere Unterteilungen durch Punktschrift aufgebracht. Zum Einhalten einer Richtung beim Überqueren eines Platzes kann man nun regelmäßig die gewählte Himmelsrichtung kontrollieren und sich bei Bedarf neu ausrichten.

Sehr wichtig ist auch die Nutzung des Gehörs: Neben den Geräuschen der Umwelt können Schnalzlaute, Klicken oder Klatschen die Umgebung durch Echoortung erfahrbar machen und helfen, Ampelmasten, Abzweigungen und Eingänge zu finden. Inzwischen ist das Klicksonar wichtiger Bestandteil vieler Mobilitätstraining.

Die Verwendung von GPS-Trackern hat sich auch früh als sehr hilfreich herausgestellt. Bis zum Jahr 2000 wurde das GPS-System im Zuge der Selective Availability absichtlich gestört und konnte für die Öffentlichkeit nur eine Genauigkeit von 100m erreichen. Für Blinde wurde GPS interessant, als diese Ungenauigkeit aufgehoben wurde.

Mit sprechenden Trackern konnten Pfade aufgezeichnet und wiederholt werden. Außerdem konnten diese als Dateien anderen Personen zur Verfügung gestellt werden. Die einzelnen Punkte wurden jeweils mit Richtungsangaben, wie auf einem Ziffernblatt einer Uhr, vermittelt, z.B. „Bäcker XY in 200m auf 11 Uhr“. Das manuelle Setzen von Pfadpunkten erforderte dabei einige Überlegungen. Die Landmarken müssen stets eindeutig und gleichzeitig robust gegenüber Ungenauigkeiten des GPS sein.

Ein weiteres verbreitetes Mittel waren auch taktile Karten und Globen- hier wurden und werden Karten fühlbar gedruckt oder gefertigt, damit sie erfahrbar werden. Leider sind diese oft recht groß und unhandlich, so dass sie nicht mobil sind. Einfache schematische Darstellungen, z.B. die Form einer Kreuzung, X-, Y- oder T-Kreuzung können von Mobilitätstrainern oder Begleitpersonen einfach auf die Hand oder den Rücken der blinden Person gezeichnet werden.

Viele der früheren Hilfsmittel vereinen sich heute in aktuellen Smartphones- exemplarisch sprechen wir über die Features der Apple iPhones, die auf die eine oder andere Art auch auf Smartphones mit anderen Betriebssystemen und Hersteller umgesetzt sind. Im Falle der Apple-Produkte wird die Zugänglichkeit mit dem in das iOS-System integrierten Bildschirmleseprogramme VoiceOver realisiert. Sprachausgabe und veränderte Bedientesten machen dies möglich. Hier können blinde Personen sich beispielsweise Bedienelemente auf dem Touchscreen vorlesen lassen, bevor sie bei Bedarf ausgewählt werden. Ein nettes Feature von VoiceOver ist der sogenannte Bildschirmvorhang. Ist er aktiv, so wird die Beleuchtung ausgeschaltet, die Touch-Funktion bleibt aber erhalten. Somit kann der Akkuverbrauch gesenkt werden und blinde Benutzer können sich sicher sein, dass niemand unbefugtes in ihren Bildschirm schaut.

Für die Eingabe von Texten bietet der Multitouch-Bildschirm mehrere Möglichkeiten- neben der ertastenden Methode des Tippens wie auf einer Tastatur mit sprachlicher Rückmeldung gibt es auch die Braille-Tastatur, bei der jedes Zeichen durch eine Drückkombination von sechs Fingern im Sinne des Braillezeichens erfolgt. Damit können Texte sehr schnell eingegeben werden. Eine weitere Alternative ist auch die Spracheingabe für Texte.

Sehr passend sind dafür auch die neuen Entwicklungen bei Smartwatches, so ist beispielsweise die Apple Watch genauso mit VoiceOver zu bedienen und sie liefert bei vielen Anwendungen eine Bedienung des Smartphones ohne dieses aus der Tasche nehmen zu müssen. Zusätzlich sind haptische Signale, die Smartwatches liefern, eine große Bereicherung in der Signalisierung für Navigation und Anwendungen.

Eine sehr hilfreiche App ist die mitgelieferte Kompass-App, die das Überqueren von Freiflächen und Plätzen deutlich vereinfacht- anstatt dass man beim mechanischen Kompass immer wiederholt die Richtung testet bekommt man hier kontinuierlich die Ausrichtung und damit die Gehrichtung vermittelt.

Zusammen mit einem Vario kann man mit dem Kompass auch eine gute Orientierung als Mitfliegender im Segelflug erhalten. Einen Eindruck von einem Flug mit einem Motorsegler kann man in der ersten Folge des Omega Tau Podcasts erhalten, denn hier hört man nur und sieht nichts. Das soll nicht heißen, dass Blinde alleine ohne sehende Hilfe Segelfliegen können, aber Gerhard Jaworek fliegt mit Begleitung und navigiert und steuert nach Anweisungen des Piloten, des Marios und des sprechenden Kompasses.

Auch für die Orientierung am Nachthimmel ist der Kompass sehr hilfreich, wie auch die App Universe2Go, zu der Gerhard Jaworek auch beigetragen hat. Universe2Go ist ein sprechendes Handplanetarium, mit dessen Hilfe blinde Menschen auch Objekte Himmel finden können.

Weiterhin gibt es viele Navigations- und Orientierungsapps auf Smartphones. Sehr bekannt und populär ist die App BlindSquare, die aus der Open Street Map und Foursquare über die Umgebung informiert. Durch Filter nach Typen und Distanz werden alle bekannten Gebäude und Orte in Richtung und Entfernung in Sprache dargestellt. Dies hilft nicht nur der direkten Orientierung, sondern ermöglicht auch die Erstellung einer Mental Map bzw. kognitiven Karten

Die Nutzung solcher akustischer Informationen ist natürlich nicht mit normalen Over-Ear oder In-Ear Kopfhörern möglich, denn der normale Hörsinn darf nicht blockiert werden. Hier sind Kopfhörer mit Knochenleitung und Bluetooth-Anbindung eine sehr gute Lösung, da sie die akustischen Signale und Sprachausgaben hörbar machen ohne das normale Hören zu behindern.

Ergänzend zu Umgebungsinformationen sind Navigationslösungen ein wichtiges Hilfsmittel. Ein Beispiel ist hier die Lösung von Navigon, die neben einer Fußgängernavigation, einer guten Unterstützung über VoiceOver zusätzlich die Karten auch offline- also ohne Netzverbindung- zur Verfügung stellt.

Die Mailingliste Apple-Freunde bietet eine gute deutschsprachige Plattform über die Zugänglichkeit von Apple-Produkten und Apps auf den mobilen Geräten.

Eine kostenlose Navigationslösung ist die App ViaOptaNav, die durch große und kontrastreiche Bedienungselemente auch für Personen mit eingeschränktem Sehsinn leichter zu bedienen ist. Sehr schön ist hier auch der Routenüberblick, der im Vorfeld eine virtuelle Begehung des Weges ermöglicht. Zusätzlich können wie bei BlindSquare auch Umgebungsinformationen abgerufen werden, sie beschränkt sich aber auf die Informationen aus dem Kartenmaterial. Außerdem bietet diese App auch eine gute Anbindung an die Smartwatch.

Ebenfalls gut an die Smartwatch angebunden ist die mit dem Smartphone mitgelieferte Navigationslösung von Apple. In manchen Fällen ist auch die Google Maps Lösung sehr hilfreich, besonders, wenn der öffentliche Nahverkehr in die Navigation mit eingebunden werden soll.

Für das Aufzeichnen, Weitergeben und spätere Ablaufen von Wegen über GPS-Punkte bietet sich die iOS-App MyWay an. Es gibt sie in einer kostenlosen MyWay Lite Version und in der MyWay Classic in der auch Informationen über die Umgebung abgerufen werden können.

Zum Mobilitätstraining gehört weiterhin die haptische Vermittlung von Kreuzungstypen und Karten. Zum Zeitpunkt der Aufnahme bietet Touch Mapper einen besonders interessanten Service: Nach Angabe einer Adresse und der gewünschten Auflösung kann man sich eine taktile Karte senden lassen. Alternativ kann man kostenlos ein 3D-Modell herunterladen, das man mit einem 3D-Drucker drucken kann.

Viele der erwähnten Lösungen verwenden Kartendaten der Open Street Map (OSM), die durch die Zusammenarbeit vieler Menschen entstanden ist und frei zur Verfügung steht. Bisher kann diese freie Karte nicht überall mit der definierten Qualität von kommerziellen Kartenquellen mithalten, doch ist sie in manchen Bereichen sogar aktueller und genauer als die kommerziell erhältlichen Lösungen. Neben monatlichen Treffen bietet die Karlsruher OSM-Community auch halbjährlich größere Events an. Das nächste ist das Karlsruhe Hack Weekend 28.-30. Oktober 2016.

Informationen über die öffentlichen Verkehrsmittel in der Umgebung erhält man beispielsweise über den Abfahrtsmonitor – hier können die nächsten Haltestellen mit den nächsten Verbindungen abgerufen werden. In Karlsruhe ist das Stadtbahnsystem etwas besonderes: Als erste Zweisystem-Stadtbahn der Welt konnten die S-Bahnen sowohl in der Stadt als auch auf Strecken der Bahn fahren.

Für die Auswahl und Abfrage für Züge der Deutschen Bahn gibt es den DB-Navigator für eine Vielzahl von verschiedenen mobilen Plattformen. Die Deutsche Bahn bietet auch online buchbare Umstieghilfen an, die man mindestens einen Tag vor der Reise buchen kann. Letztlich können mit der MyTaxi App auch Taxis geordert und auch bezahlt werden.

Eine besondere Lösung ist die App BeMyEyes, wo blinde Personen Anfragen stellen können, die von Sehenden über eine Videoverbindung beantwortet werden, z.B. ob die Kleidung farblich zusammenpasst, oder was der in die Kamera gezeigte Tetrapack enthält. Auch die fest installierte Foto-App auf dem iPhone ist mit VoiceOver bedienbar. Durch Rückmeldungen, wann und wo ein Gesicht zu sehen ist, können auch blinde Menschen zumindest Personen fotografieren. Das wird sich aber künftig sicherlich auch auf andere Gegenstände ausweiten.

Ganz ohne Technik ist und bleibt der Blindenführhund für viele blinde Personen eine sichere und lebhafte Lösung für die individuelle und unabhängige Mobilität. Was ihn auszeichnet, ist z.B. die erlernte intelligente Gehorsamsverweigerung. Der Hund begibt sich und seinen blinden Besitzer niemals in Gefahr und verweigert einen Befehl, der eine derartige Situation herbeiführen würde.

Podcasts

Neues-Terrain-01 – Freiflächen

Daniel Koester (cv:hci) und Sebastian Ritterbusch (iXpoint) erklären, wie Computer für uns den freien Weg vor unseren Füßen erkennen können:
Freiflächen (2:10:58, 62MB)

Im Gespräch mit Daniel Koester am Computer Vision for Human-Computer Interaction Lab (cv:hci) geht es um die Erkennung des freien Weges vor unseren Füßen. Das cv:hci befasst sich mit der Fragestellung, wie Menschen mit Computer oder Robotern interagieren, und wie gerade die Bildverarbeitung dazu beitragen kann. Das Thema lässt sich auch gut mit dem Begriff der Anthropromatik beschreiben, der von Karlsruher Informatikprofessoren als Wissenschaft der Symbiose von Mensch und Maschine geprägt wurde und im Institut für Anthropromatik und Robotik am Karlsruher Institut für Technologie (KIT) erforscht und gelebt wird. So wurde der ARMAR Roboter, der elektronische Küchenjunge (Video), ebenfalls am Institut an der Fakultät für Informatik  entwickelt.

Schon früh stellte sich heraus, dass die Steuerung von Programmierung von Computern mit höheren Programmiersprachen wie Fortran, BASIC oder Logo durch Anlehnung an die menschliche Sprache große Vorteile gegenüber der Verwendung der Maschinensprache besitzt. Damit liegt das Thema ganz natürlich im Bereich der Informatik ist aber auch gleichzeitig sehr interdisziplinär aufgestellt: Das Team des KaMaRo (Folge im Modellansatz Podcast zum KaMaRo und Probabilistischer Robotik) entwickelt den Roboter in einem Team aus den Disziplinen Maschinenbau, Elektrotechnik und Informatik.

Mit der Freiflächenerkennung befasst sich Daniel Koester seit seiner Diplomarbeit, wo er die Frage anging, wie die Kurzstreckennavigation für blinde Personen erleichtert werden kann. Hier besteht eine Herausforderung darin, dass zwischen einer Fußgängernavigation und der Umgebungserfassung mit dem Blindenlangstock eine große informative Lücke besteht. Nach Abschaltung der Selective Availability des GPS liegt die erreichbare Genauigkeit bei mehreren Metern, aber selbst das ist nicht immer ausreichend. Dazu sind Hindernisse und Gefahren, wie Baustellen oder Personen auf dem Weg, natürlich in keiner Karte verzeichnet. Dabei können Informationen von anderen Verkehrsteilnehmern Navigationslösungen deutlich verbessern, wie das Navigationssystem Waze demonstriert.

Die Erkennung von freien Flächen ist außer zur Unterstützung in der Fußgängernavigation auch für einige weitere Anwendungen sehr wichtig- so werden diese Techniken auch für Fahrassistenzsysteme in Autos und für die Bewegungssteuerung von Robotern genutzt. Dabei kommen neben der visuellen Erfassung der Umgebung wie bei Mobileye auch weitere Sensoren hinzu: Mit Lidar werden mit Lasern sehr schnell und genau Abstände vermessen, Beispiele sind hier das Google Driverless Car oder auch der KaMaRo. Mit Schall arbeiten Sonor-Systeme sehr robust und sind im Vergleich zu Lidar relativ preisgünstig und werden oft für Einparkhilfe verwendet. Der UltraCane ist beispielsweise ein Blindenstock mit Ultraschallunterstützung und der GuideCane leitet mit Rädern aktiv um Hindernisse herum. Mit Radar werden im Auto beispielsweise Abstandsregelungen und Notbremsassistenten umgesetzt.

Die hier betrachtete Freiflächenerkennung soll aber keinesfalls den Langstock ersetzen, sondern das bewährte System möglichst hilfreich ergänzen. Dabei war es ein besonderer Schritt von der Erkennung bekannter und zu erlernenden Objekte abzusehen, sondern für eine größere Robustheit und Stabilität gerade die Abwesenheit von Objekten zu betrachten. Dazu beschränken sich die Arbeiten zunächst auf optische Sensoren, wobei Daniel Koester sich auf die Erfassung mit Stereo-Kamerasystemen konzentriert. Grundsätzlich ermöglicht die Analyse der Parallaxe eine dreidimensionale Erfassung der Umgebung- dies ist zwar in gewissem Maße auch mit nur einer Kamera möglicht, die sich bewegt, jedoch mit zwei Kameras in definiertem Abstand wird dies deutlich leichter und genauer. Dies entspricht dem verbreiteten stereoskopischen Sehen von Menschen mit Augenlicht, doch mitunter kommt es zu Situationen, dass Kinder bei einem schwächeren Auge das stereoskopische Sehen nicht erlernen- hier können temporär Augenpflaster zum Einsatz kommen.

Zur Rekonstruktion der Tiefenkarte aus einem Stereobild müssen zunächst korrespondierende Bildelemente gefunden werden, deren Parallaxenverschiebung dann die Bildtiefe ergibt. Ein Verfahren dazu ist das Block-Matching auf Epipolarlinien. Für ein gutes Ergebnis sollten die beiden Sensoren der Stereo-Kamera gut kalibriert und die Aufnahmen vor der Analyse rektifiziert sein. Die Zuordnung gleicher Bildelemente kann auch als lokale Kreuzkorrelation gesehen werden. Diese Tiefenrekonstruktion ist auch den menschlichen Augen nachempfunden, denen durch geeignete Wiederholung zufälliger Punkte in einem Bild eine räumliche Szene vorgespielt werden kann. Dieses Prinzip wird beim Stereogrammen oder Single Image Random Dot Stereogram (SIRDS)  ausgenutzt. Weiterhin muss man die Abbildungseigenschaften der Kameras berücksichtigen, damit die Parallaxverschiebungen auf horizontalen Linien bleiben. Ebenso müssen Vignettierungen ausgeglichen werden.

Algorithmen, die nur lokale Informationen zur Identifikation von Korrespondenzen verwenden, lassen sich sehr gut parallelisieren und damit auf geeigneter Software beschleunigen. Für größere gleichmäßige Flächen kommen diese Verfahren aber an die Grenzen und müssen durch globale Verfahren ergänzt oder korrigiert werden. Dabei leiden Computer und Algorithmen in gewisser Weise auch an der Menge der Daten: Der Mensch ist ausgezeichnet darin, die Bildinformationen auf das eigentlich Wichtige zu reduzieren, der Computer hat damit aber große Schwierigkeiten.

Für den Flowerbox-Testdatensatz (2GB) wurden Videos mit 1600×1200 Pixeln aufgelöste und synchronisierte Kameras in Stereo aufgezeichnet. Beispiele für synchronisierte Stereokamera-Systeme im Consumer-Bereich sind die Bumblebee oder das GoPro 3D-System. Die Kameras wurden leicht nach unten gerichtet an den Oberkörper gehalten und damit Aufnahmen gemacht, die dann zur Berechnung des Disparitätenbildes bzw. der Tiefenkarte verwendet wurden. Ebenso wurden die Videos manuell zu jedem 5. Bild gelabeled, um die tatsächliche Freifläche zur Evaluation als Referenz zu haben. Der Datensatz zeigt das grundsätzliche Problem bei der Aufnahme mit einer Kamera am Körper: Die Bewegung des Menschen lässt die Ausrichtung der Kamera stark variieren, wodurch herkömmliche Verfahren leicht an ihre Grenzen stoßen.

Das entwickelte Verfahren bestimmt nun an Hand der Disparitätenkarte die Normalenvektoren für die Bereiche vor der Person. Hier wird ausgenutzt, dass bei der Betrachtung der Disparitätenkarte von unten nach oben auf freien Flächen die Entfernung kontinuierlich zunimmt. Deshalb kann man aus der Steigung bzw. dem Gradienten das Maß der Entfernungszunahme berechnen und damit die Ausrichtung und den auf der Fläche senkrecht stehenden Normalenvektor bestimmen. Die bestimmte Freifläche ist nun der zusammenhängende Bereich, bei denen der Normalenvektor ebenso aufrecht steht, wie bei dem Bereich vor den Füßen.

Die Evaluation des Verfahrens erfolgte nun im Vergleich zu den gelabelten Daten aus dem Flowerbox-Datensatz. Dies führt auf eine Vierfeld-Statistik für das Verfahren. Im Ergebnis ergab sich eine korrekte Klassifikation für über 90% der Pixel auf Basis der realistischen Bilddaten.

Die veröffentlichte Software ist im Blind and Vision Support System (BVS) integriert, in der erforderliche Module in der Form eine Graphen mit einander verknüpft werden können- bei Bedarf auch parallel. Eine ähnliche aber gleichzeitig deutlich umfassendere Architektur ist das Robot Operation System (ROS), das noch viele weitere Aspekte der Robotersteuerung abdeckt. Eine wichtige Bibliothek, die auch stark verwendet wurde, ist OpenCV, mit der viele Aspekte der Bildverarbeitung sehr effizient umgesetzt werden kann.

Die Entwicklung der Hardware, gerade bei Mobilgeräten, lässt hoffen, dass die entwickelten Verfahren sehr bald in Echtzeit durchgeführt werden können: So können aktuelle Smartphones Spiele Software des Amiga Heimcomputers in einem interpretierten Javascript Emulator auf der Amiga Software Library auf Archive.org nahezu in Orginalgeschwindigkeit darstellen.

Für die Umsetzung von Assistenzsystemen für blinde und sehgeschädigte Menschen ist aber auch immer der Austausch mit Nutzern erforderlich: So sind Freiflächen für sich für blinde Personen zunächst Bereiche ohne Orientierbarkeit, da es keinen tastbaren Anknüpfungspunkt gibt. Hier müssen entweder digitale Linien erschaffen werden, oder die Navigation sich weiter nahe an fühlbaren Hindernissen orientieren. Am cv:hci ist der Austausch durch das angeschlossene Studienzentrum für sehgeschädigte Studierende (SZS) unmittelbar gegeben, wo entwickelte Technik sich unmittelbar dem Alltagsnutzen stellen muss.

Die entwickelte Freiflächenerkennung war nicht nur wissenschaftlich erfolgreich, sondern gewann auch einen Google Faculty Research Award und die Arbeitsgruppe wurde in der Lehre für ihr Praktikum den Best Praktikum Award 2015 ausgezeichnet.

Literatur und weiterführende Informationen