Neues Terrain 10 – Vernetzungstreffen Intelligente Mobilität

Am 18. April 2018 fand in Frankfurt das zweite Vernetzungstreffen der Projekte in der Förderline „Verlässliche Technik für den mobilen Menschen“ statt. Markus Winkelmann vom ITAS am Karlsruher Institut für Technologie (KIT) und Sebastian Ritterbusch von der iXpoint Informationssysteme GmbH konnten an dem Treffen teilnehmen, und unterhalten sich hier über die Erfahrungen und die verschiedenen Gespräche, die sie dort führen konnten: Vernetzungstreffen Intelligente Mobilität (2:00:06, 61MB)

Die Vernetzungstreffen ermöglichen den Projekten einen Austausch sowohl über ihre Projekte, als auch über Querschnittsthemen, die alle Projekte in der Förderlinie vereint. Verglichen zum ersten Vernetzungstreffen im Rahmen der Fachtagung Mobilität im Wandel in 2017 konnte hier noch stärker den einzelnen Projekten als auch den begleitenden ELSI Themen (Ethische, rechtliche und soziale Aspekte) Rechnung getragen werden.

In der Einführung durch Frau Albrecht-Lohmar für das BMBF-Referat „Mensch-Technik-Interaktion; Demografischer Wandel“ wurde großer Wert darauf gelegt, dass Forschung und Förderung kein Selbstzweck sein dürfen, sondern sie zu Innovationen führen sollen, die auch bei den Menschen ankommen. In der Begrüßung durch Dr. Marcel Kappel für den Projektträger und Organisator VDI/VDE-IT im Bereich Mensch-Technik Interaktion wurde die Einbettung der Förderlinie in das Forschungsprogramm dargestellt.

KoFFI

Das Projekt KoFFI zur kooperativen Fahrer-Fahrzeug Interaktion startete die Projektvorträge. Es ging dabei um Fragen wie man mit Konfliktsituationen zwischen Fahrer und Fahrzeug umgehen kann, oder wie eine Vertrauenssituation hergestellt wird. Eine kritische Frage war auch, in welchen Situationen sich ein Fahrzeug über die Entscheidungen des Fahrers hinwegsetzen sollte. So verhindert beispielsweise ein ausgelöster Airbag sehr deutlich die Aktionsfreiheit des Fahrers, es ist jedoch weithin akzeptiert, dass hier die unaufgeforderte Einschränkung des Menschen weit schlimmeres verhindern kann. Wann hingegen Überholvorgänge noch abgebrochen werden dürfen, sind hingegen deutlich kompliziertere Fragestellungen, die im Projekt untersucht werden. Dabei muss auch grundsätzlich berücksichtigt werden, dass ein Einverständnis auch ein Verständnis voraussetzt. Hier ergaben sich im Projekt überraschende Ergebnisse, über die uns Susanne Kuhnert vom Institut für Digitalethik der Hochschule für Medien (HDM) Stuttgart erzählte.

In der ethischen und rechtlichen Begleitung des sonst technisch ausgelegten Projekts KoFFI ging es weit über eine Literaturarbeit hinaus, und es wurde das Gespräch mit Probanden im Sinne einer experimentellen Philosophie gesucht, wo mit empirischen Ergebnissen und Experimenten gearbeitet wurde. Im der Forschung um autonomes Fahren zur Erarbeitung von ethischen Leitlinien (vgl. medizinische Leitlinien) stellte sich dabei früh die Frage, ob die Nutzergruppe überhaupt den Begriff der Autonomie versteht.

Das Projekt KoFFI untersucht grundsätzlich die Nutzbarkeit von Gesten und natürlicher Sprache zur Interaktion von Fahrzeug und Mensch, damit nicht mehr feste Befehle auswendig gelernt werden müssen, sondern der Wagen aus der Situation heraus den Menschen so gut wie möglich mit natürlicher Sprache verstehen kann. Eine überraschende Erkenntnis war hier, dass selbst bei technik-affinen Probanden eine grundsätzliche Technikskepsis zu beobachten war, die auf zweiten Blick durch den alltäglichen Umgang mit niemals perfekter Technik verständlich wird. Gleichzeitig wünscht sich natürlich niemand einen Technikausfall bei einer Fahrt mit hoher Geschwindigkeit auf der Autobahn. Diese Frage kann nicht alleine technisch behandelt werden, sondern benötigt einer ethischen Betrachtung, wie hier der Umgang der Technik mit dem Menschen und die Technikentwicklung von Menschen auf sehr elementare Fragen eingehen kann.

Im Vortrag wurden auch die Begriffe Technikzukünfte, wie die Nutzenden sich die Technik in Zukunft erwünschen, den Zukunftstechniken, den real in Zukunft existierenden Techniken, gegenüber gestellt. Um diese Begriffe der ungewissen Zukunft besser in den Griff zu bekommen, werden Szenarien erarbeitet, um wahrscheinliche Zukünfte als Entscheidungsgrundlage entwickeln zu können.

Vorreiter

Das Projekt Vorreiter will durch neuartige Kommunikationsmethoden auch Menschen mit Einschränkungen den Zugang zu teil- oder vollautomatisierten Fahrzeugen erleichtern. Ein Aspekt war hier, wie beispielsweise eine Lenkradsteuerung auch Menschen theoretisch und praktisch ermöglicht werden kann, die für eine traditionelle Kontrolle des Lenkrads körperlich nur eingeschränkt fähig sind. Hier wurden unter anderem Tests mit einem Altersanzug durchgeführt, die auch darstellten, dass die Einschränkungen auch einige in Erwägung gezogene Gesten betrafen.

Die anschließende Podiumsdiskussion zu den beiden Projekten startete mit der Frage „Mein Fahrzeug soll sein wie…“, wo sich das Publikum für den „Partner“ aussprach.

KOLA

Das Projekt KOLA befasst sich mit kooperativen Laserscheinwerfern und im Treffen wurden die Schwerpunkte Psychologie und Technik dargestellt. Welche Signale und Hinweise können über Lichtbilder auf der Straße verwendet werden, um über eine neue Kommunikationsform ein sozialeres und sicheres Straßenumfeld zu schaffen. Auf der einen Seite erscheinen Emoticons und Smileys als eine moderne und eingängige Kommunikationsform, jedoch sind sie weit weniger eindeutig als bekannte Verkehrsymbole, dessen Verwendung aber aus guten Gründen hier durch die StVO stark reglementiert ist. Auch der Stand der technischen Realisierung wurde im Vortrag sehr beeindruckend geschildert.

PAKoS

Zum Projekt PAKoS ging es insbesondere um die sichere Übergabe der Fahrzeugkontrolle vom Fahrer an die Automation und umgekehrt. An diesem Projekt ist mit dem cv:hci am Karlsruher Institut für Technologie (KIT) auch ein Partner vom TERRAIN-Projekt beteiligt.

Dr.-Ing. Michael Flad vom Institut für Regelungs- und Steuerungssysteme (IRS) am KIT war bereit, uns PAKoS vorzustellen, und uns die unterschiedlichen Kommunikationsmodalitäten, die in der Kommunikation mit dem Fahrzeug zum Einsatz kommen, zu erklären. Neben der visuellen Darstellung im Display oder als Projektion auf der Windschutzscheibe, wird auch eine akustische Sprachausgabe verwendet. Ergänzt werden diese Darstellungsformen durch haptische Signale durch einen mit Vibrationsmotoren ausgestatteten Sitz, der Interaktion mit dem Lenkrad und Pedalen an den Füßen. In einer ersten Studie hat sich ergeben, dass visuelle Signale am leichtesten übersehen werden, im Vergleich beispielsweise zu akustischen Hinweisen. Am deutlichsten wurden hier die Vibrationssignale im Sitz wahrgenommen. Dies ist genau gegenläufig zur möglichen Informationsdichte und entsprechenden Ablenkungspotential der Kanäle. Besondere Ablenkungen können hier die aktuell nicht erlaubten Nebentätigkeiten während des Fahrens sein, die beim autonomen Fahren teilweise akzeptiert werden können.

In der Zeit der nur teilautonomen Systeme müssen hier Verfahren untersucht werden, wie die Übergabe der Verantwortung in Abhängigkeit von den Tätigkeiten, dem Fahrer und der Situation ablaufen kann. Ein mathematisches Modell ist hier die Abbildung der Regelkonzepte als gekoppeltes Differenzialgleichungssystem zu betrachten. Mit Hilfe eines Differenzialspiels kann die Vorhersage über die erwartete Übernahme in die Fahrzeugautomation aufgenommen werden.

Der im Gespräch erwähnte Unfall mit einem teilautonomen Uber-Auto zeigte sehr deutlich, welche schlimmen Auswirkungen die Ablenkung der fahrenden Person haben kann.

Im Gespräch mit Luis Kalb vom Lehrstuhl für Ergonomie an der TU München ging es dann um Details der Verwendung des von Bastiaan Petermijer entwickelten vibrotaktilen Autositzes. Hier sitzt man auf einer Art Vibrationsmatte, die Vibrationsmuster in unterschiedlichen Intensitäten von der Sitzfläche bis zum Rückenbereich darstellen kann. Typische Muster sind Linien, die komplett von einer Seite zur anderen durchlaufen, und sie werden oft zusätzlich durch Sprachausgaben ergänzt. Gerade bei Ablenkungen des Fahrers kann mit Hilfe dieses Kommunikationskanals sehr deutlich auf gefährliche Situationen oder gefährliches Handeln hingewiesen werden.

Die zusätzlichen Kommunikations- und Detektionsmethoden für teilautonomen Automobilen ermöglichen deutlich sicherere Betriebsmodi, wenn beispielsweise bei einem abgelenkten Fahrer automatisch die Fahrgeschwindigkeit reduziert wird, da der Mensch nicht mehr so schnell eingreifen kann. Eine unmittelbar verständliche Reaktion kann auch sehr zur Akzeptanz eines Systems beitragen, wenn sie nicht womöglich als Rechtweisung oder Bestrafung aufgefasst wird. Ganz abgesehen davon nimmt die rechtliche Fragestellung zusätzlich einen großen Raum ein, wie die Verantwortung in solchen Situationen zu bewerten ist. Ein anderes Beispiel sind künstlich erzeugte Geräusche für langsam fahrende Elektroautos, ohne die blinde Menschen das Fahrzeug kaum noch akustisch orten können. Es gibt eine Vielzahl von technischen Lösungen, die sowohl im sozialen, psychologischen und rechtlichen Kontext bewertet werden müssen. Ab 2021 wird jedes neu zugelassene E-Auto entsprechende Geräusche machen müssen.

Bei der Frage in das Plenum, wie die Kommunikation zwischen Fahrzeug und Fahrende stattfinden sollte, lief es auf die Punkte intiutiv, sicher und verständlich hinaus, und führte in eine rege Diskussion zu den beiden Projekten.

Safety4Bikes

Der nächste Block startete mit dem Projekt Safety4Bikes für ein Assistenzsystem für mehr Sicherheit von fahrradfahrenden Kindern. Jochen Meis von GeoMobile und Dr. Florian Klingler der CCS Labs des Heinz Nixdorf Instituts der Uni Paderborn gaben uns in einem Gespräch einen tiefen Einblick in den Stand und die Erfahrungen aus ihrem Projekt. Sehr interessant ist beispielsweise das Ergebnis, dass der Fahrradhelm inzwischen bei Kindern fast durchweg genutzt wird, hingegen die Eltern ihn seltener und besonders die Großeltern fast überhaupt nicht verwenden. Ein anderes Ergebnis ist, dass der Unfallschwerpunkt für fahrradfahrende Kinder Kreuzungsbereiche sind, gefolgt von Ein- und Ausfahrten.

Eine Möglichkeit die Sicherheit zu erhöhen bietet die Car2X Kommunikation, wo im Projekt untersucht wird, wie Fahrräder in dieses Kommunikationsnetz integriert werden können, um im Vorfeld auf Gefahrensituationen hinweisen zu können. Die technische Grundlage ist das IEEE 802.11p Protokoll, das eine ad-hoc Kommunikation im Straßenverkehr ermöglicht. Die ersten Tests im Safety4Bikes Projekt wurden auf Trikes umgesetzt, um den jungen Probanden keiner zusätzlichen Gefahr auszusetzen. In Zukunft ist die fortschreitende Elektrifizierung auch im Fahrradbereich für das Projekt eine zusätzlich vorteilhafte Entwicklung, da sie die Frage der Stromversorgung erleichtert.

TERRAIN

Den Ansatz weitere Methoden im Forschungsprojekt zunächst auf einem tragbaren Computer statt auf dem Smartphone umzusetzen, verfolgen wir im TERRAIN-Projekt genauso wie bei Safety4Bikes: Die ersten Tests der Bilderkennung wurden auf einem Laptop durchgeführt, den die Probanden auf dem Rücken trugen, und im weiteren Verlauf befassen wir uns nun damit, wie und ob und wann wir Teile davon auch auf Smartphones bringen können.

Nach der Vorstellung des Fortschritts im TERRAIN Projekt gab es eine Podiumsdiskussion zu Gefährdeten und Gefahren im Straßenverkehr- nach Meinung des Plenums sind Fahrradfahrende besonders den Gefahren ausgeliefert.

ELSI-Themen

Das Treffen endete mit einer Diskussion zu ELSI-Themen, angeleitet durch Prof. Dr. Tobias Keber (@datenreiserecht), der unter anderem von den Ergebnissen einer Umfrage zu ELSI-Themen bei Forschungsprojekten berichtete: Ein Ergebnis war hier der Ratschlag, ELSI-Aspekte als kreative ‚Störfaktoren‘ zu nutzen. Auf jeden Fall müsse die Begleitforschung auch zu gemeinsamen Aktivitäten führen, um eine Integration zu ermöglichen. Das Zusammenspiel der technischen Entwicklung mit der Reflektion in der ELSI-Begleitforschung ist ein guter Weg, auf eine Entwicklung für die Menschen hinzuarbeiten, also zur Technik für die Menschen hinzuwirken.

Encoding Cultures: Rainer Stiefelhagen

Computer Vision zur Unterstützung von Menschen mit Sehschädigung

Vom 27.-28. April fand am ZKM-Zentrum für Kunst und Medien das Symposium „Encoding Cultures. Leben mit intelligenten Maschinen“ statt. In den Vorträgen und Diskussionen zur Auswirkung der künstlichen Intelligenz sprach Prof. Dr. Rainer Stiefelhagen über den Einsatz von Maschinensehen für die Mensch-Maschine-Interaktion und der Unterstützung  für Menschen mit Blindheit oder Sehbehinderung.

SightCity 2018

Wie seit vielen Jahren, fand auch in diesem Jahr im Mai die größte internationale Messe für Hilfsmittel für Menschen mit Blindheit oder Sehbehinderung SightCity im Sheraton-Hotel am Frankfurter Flughafen statt.

Vom einfachen Haushaltshelfer, dem Nadeleinfädler, über taktile Spiele, Punktschrift- und Hörbücher, über die Selbsthilfeorganisationen, bis hin zu komplexen Arbeitsplatzausstattungen mit Computer, Vergrößerungssoftware, Bildschirmkamera, Braillezeile, Sprachausgabe, Punktschriftdrucker und vieles mehr, war alles zu finden.

In diesem Jahr waren aber ganz deutlich einige neue Trends zu erkennen. Es gab vielfältige Anpassungen zu kommerziellen Organisern, PDA’s und Smartphones. Das betraf sowohl die Software für die Vergrößerung und die Sprachausgabe, als auch die Punktschriftausgabe mit Touch-Funktion.

Mindestens drei Ansätze – teilweise noch als Prototyp oder gar nur als Modell – zur Entwicklung zweidimensionaler taktiler Displays konnten bestaunt werden. Für Menschen mit Restsehvermögen halten langsam Virtual Reality und Augmented Reality mit Brillen zur Verbesserung des Sehrestes Einzug.

Es gab auch wieder Geräte, die auf Ultraschall und Laser basiert Hindernisse akustisch oder per Vibration anzeigen. Ein Ansatz war sogar in einem Schuh integriert. Außerdem wurde auch ein Vibrationsgürtel zum Halten der Richtung präsentiert. Was bleibt ist, dass sich die Reise zur diesjährigen SightCity gelohnt hat. Erstmals konnten wir die Sightcity und die damit verbundenen Netzwerke nutzen, um Interessenten für die anstehenden Benutzertests für Terrain zu finden und zu begeistern.

Gerhard Jaworek, SZS, KIT

SightCity 2017

Einmal pro Jahr, findet im Frühjahr die größte internationale Fachmesse SightCity für Blinden- und Sehbehindertenhilfsmittel im Sheraton Hotel am Frankfurter Flughafen statt. In diesem Jahr präsentierten von 03. bis 05. Mai über 100 Hersteller und Organisationen Neuentwicklungen und bewährte Hilfsmittel. An den Ständen können potentielle Anwenderinnen und Anwender neue Hilfsmittel ausprobieren und mit den Herstellern ins Gespräch kommen. Zusätzlich gibt es ein Forum, in dem Fachvorträge zu unterschiedlichen Themen rund um Sehbeeinträchtigung gehalten werden. Personen mit Sehbeeinträchtigungen werden kostenlos von einem Abholdienst an den Bahnsteigen abgeholt und zur Messe begleitet. Auch in der Messe gibt es Assistenzen, die zu den gewünschten Ausstellungsständen begleiten. Die gesamten Räumlichkeiten sind durch barrierefreie Leitlinien ausgerüstet. Zusätzlich gab es in diesem Jahr auch Apps, die mit Hilfe von Beacons die Orientierung in den Räumlichkeiten der Messe verbessern sollen.

Auch die Firma Papenmeier und das Studienzentrum für Sehgeschädigte (SZS), zwei Kooperationspartner im TERRAIN Projekt, waren als Aussteller bei der diesjährigen Messe.

Als Schwerpunkt zeigte das SZS aktuelle Projekte wie das ATMAPS Projekt mit dem Thema audio-taktile Landkarten, Prosperity4All, das neue Accessibility Lab, 3D-Druck-Objekte für Studierende sowie Angebote des SZS wie die jährlich stattfindende bundesweit ausgeschriebene Orientierungsveranstaltung für Studieninteressierte oder das Bewerbungstraining „Mein Profil“.

Das zentrale Thema der Firma Papenmeier war die Beratung im Bereich der IT-Barrierefreiheit. Konkreter ging es dabei um die Vorstellung des neuen Fachbereichs „Papenmeier Consulting“. Dieser unterstützt Unternehmen, sowie Behörden mit Gutachten zur Barrierefreiheit und bietet Schulungen für Entwickler und Entscheider.
Die praktische Kombination von barrierefreien Anwendungen und aktuellster Hilfsmitteltechnik, wie Braillezeilen, hochauflösenden Kamerasystemen und Hilfsmittelsoftware für Blinde und Sehbehinderte, wurde Endanwendern, Technischen Beratern und Entscheidern präsentiert.

Nähere Informationen über die Messe sind unter der Homepage der SightCity (http://www.sightcity.net/) zu finden.

 

Zweites Konsortialtreffen

Am 27. März traf sich das TERRAIN Konsortium zum zweiten Projekttreffen in Karlsruhe.

Gruppenbild des Konsortialteams beim zweiten Treffen im TERRAIN-Projekt
Gruppenbild zum zweiten Konsortialtreffen: v.l.n.r. Frank, Siebert, Jaworek, Kochanek, Müller, Weinberger, 
Petrausch, Winkelmann, Stiefelhagen, Haurilet, Ritterbusch

Auf dem Konsortialtreffen berichteten alle Projektteilnehmer vom Studienzentrum für Sehgeschädigte (SZS), dem Forschungslabor cv:hci, dem Institut für Technologiefolgen und Systemanalyse (ITAS), der Firma Papenmeier und der Firma iXpoint Informationssysteme über ihre bisherigen Ergebnisse und die Pläne für die nächsten sechs Monate: Es gab unter anderem spannende Ergebnisse aus der Entwicklung der Braillekomponente, der TERRAIN-App und erste Erfahrungen aus der Bilderkennung.

Dazu gibt es einige Abstimmungen zum gemeinsamen Vorgehen, Einsichten aus Veranstaltungen wie der Expertenrunde sowie der Anforderungsanalyse und Diskussionen über neue Aspekte, die sich aus den bisherigen Arbeiten ergeben haben.

Nach dem gemeinsamen Mittagessen haben wir ein Gruppenfoto geschossen, das wir aber nicht wie zum Kickoff-Meeting machen konnten. Wir mussten uns in einer anderen Himmelsrichtung aufstellen, wie man es mit dem Entwicklungsstand der TERRAIN-App schon jetzt feststellen konnte. Zum astronomischen Zusammenhang bemerkte Gerhard Jaworek, blinder Informatiker am SZS, auf seiner Astro-Mailingliste „Astronomiezugang für Blinde“:

Gestern war nun wieder am selben Ort zur selben Zeit der Fototermin. Als wir uns positionierten, bemerkte eine Teilnehmerin, dass wir das Foto gar nicht so, wie beim letzten Mal machen könnten, weil es jetzt blenden würde.

Da ging mir ein Licht auf. Natürlich konnten wir uns gestern nicht so stellen, denn wir waren ganz woanders im Jahreslauf.

Beim Kickoff-Meeting am 07.07.2016 befanden wir uns gerade mal ungefähr zwei Wochen nach Sommersonnenwende. Die Sonne erreichte somit an diesem Tag noch fast ihren höchsten Sonnenstand, den sie überhaupt innerhalb des Jahreslaufes erreichen kann.
Und heute, am 28.03. befinden wir uns gerade mal eine Woche nach Frühlings-Anfang (Tag-Nacht-Gleiche) und noch ein Viertel Jahr ist es noch hin, bis zur Sommersonnenwende 2017.

Das bedeutet, dass sie gerade mal ihren halben Höchststand am Himmel erreicht hat. Das ist vereinfachend gesagt, aber, vergessen wir jetzt mal Kugel, Perspektive, dass der Höchststand im Laufe eines Jahres um etwa eine Stunde variiert, etc. Jeder von uns weiß, wie die Jahreszeiten entstehen. Ich schrieb glaub auch schon drüber. Es geht mir hier um das Erlebnis an sich. Überall kann man beobachten, dass die Sonne im Winter deutlich steiler zur Mittagszeit am Himmel steht. Ich fand das aber dennoch sehr faszinierend. Noch gut erinnere ich mich daran, wie und wo ich im letzten Jahr für das Foto, und wo ich diesmal stand.

Zum Glück war am Sonntag Zeitumstellung. Sonst wäre das Erlebnis nicht so schön. So fielen beide Termine in die Sommerzeit und sind somit vergleichbar.

Wie gesagt. Wir hätten das Foto wegen Blendung nicht so stellen können, wie im letzten Jahr. Besser so. Das bringt Abwechslung.

So zeigt sich, wie schon eine kleine Information wie der Ausrichtung zur Umgebung das eigene Verständnis für die Geschehnisse um einen herum bereichern kann.

Natürlich hoffen wir im Verlaufe des Projekts noch viele weitere Aspekte der Umgebungsdarstellung anzugehen. Wir sehen uns nach dem erfolgreichen Treffen unseres Teams auf jeden Fall auf einem sehr gutem Weg.

Erstes Treffen der Expertenrunde

Nora Weinberger und Markus Winkelmann

Nach dem „Startschuss“ des Projekts hat das ITAS mit der Rekrutierung von Mitgliedern für die Expertenrunde begonnen und im Zuge dessen rd. 30 potentielle Expertinnen und Experten angesprochen und angeschrieben. Viele haben großes Interesse am Projekt geäußert, konnten aber aufgrund vieler Verpflichtungen u.a. in der Lehre eine Teilnahme nicht zusagen. Vierzehn Expertinnen und Experten hingegen sind für die drei geplanten Runden gewonnen worden. Hierunter sind Ethiker, Mediziner, Datenschützer, Rehabilitationswissenschaftler, ein Theologe, eine Mobilitätstrainerin, Psychologen, Juristen, Soziologen, Vertreter von Verbänden und Betroffene.

Ende 2016 fand dann die erste Expertenrunde statt. Nach einer Kennenlernphase, einer Einführung in das Projekt und dem Vorstellen des geplanten technischen Systems wurde eine erste Diskussion über die verschiedenen disziplinären und individuellen Zugänge und Erfahrungen zu ethischen, legalen und sozialen Implikationen und darüber hinausgehenden Fragestellungen, geführt. Hier gab es von den Expertinnen und Experten viele interessante Hinweise zum technischen System, aber auch soziale Implikationen wurden angesprochen. Unter anderem wurde geäußert, dass die Technik nicht zu einer Exklusion der Betroffenen führen dürfe. Erwartungen an technische Lösungen und das Zusammenspiel verschiedener – auch nicht technischer – Möglichkeiten waren Themen. Darüber hinaus konnten die Betroffenen aus ihrem schon technisierten Alltag berichten und merkten bspw. an, dass Sehbehinderungen sehr individuell ausgeprägt seien und daher das System stark adaptierbar sein müsse. Die Expertenrunde lobte das große Potential in diesem Projekt, da durch die Forschungsinstanz ITAS ein Vermittler zwischen Technik und Menschen dabei sei. Der Einbezug von Experten und potentiellen Nutzern in den gesamten Entwicklungsprozess wurde als sehr wichtig und zielführend begrüßt.

Ende 2017 findet die nächste Expertenrunde statt, zu der auf Hinweis der Runde noch eine Expertin/ein Experte für Neuroplastizität eingeladen wird, um eine Expertise zu Lernprozessen und dessen mnestischen (das Gedächtnis betreffenden), sensorischen und motorischen Phasen zu integrieren.

Strömungen – Symposium zu künstlerischer Sonifikation

Vom 2. bis zum 4. Dezember 2016 fand am ZKM – Zentrum für Kunst und Medien in Karlsruhe das vom Institut für Musik und Akustik  und Prof. Ludger Brümmer veranstaltete Symposium Strömungen zur künstlerischen Sonifikation statt. Sebastian Ritterbusch hatte die Gelegenheit am 3. Dezember einigen Vorträgen beizuwohnen.

Mikroorganismen sind kleinste Lebewesen, die in einer Mikrobiellen Brennstoffzelle zur Stromgewinnung genutzt werden können. Ricardo Climent stellte sich die Frage, wie man die Aktivität der Organismen sonifizieren könnte oder sogar mit verschiedenen Mikroorganismen durch Steuerung ihrer Lebensumstände ein Ensemble bilden könnte. Durch Zugabe und Reduktion von Nährstoffen sowie der Veränderung der Temperatur veränderte er den Stoffwechsel der Lebewesen, was zu unterschiedlichen Spannungen an den Elektroden führte. Diese Potentialunterschiede sonifizierte er mit Tongeneratoren und Synthesizern, die als Microbial Ensemble in Konzerten wie in Belfast aufspielen ließ.

Auf einer weit kleineren Skala betrachtete Falk Morawitz die magnetische Kernresonanz von beispielsweise Wasserstoff-, Kohlenstoff– und Stickstoffatomen und Isotopen. Während sich die eigentlichen Resonanzfrequenzen im Megahertzbereich von beispielsweise Ultrakurzwellen bewegen, so sind die Abweichungen von der Trägerfrequenz oft nur im Bereich von Kilohertz und können daher direkt sonifiziert werden. Die unterschiedlichen Resonanzen der Atome und Verbindungen ermöglichen in der Kernspinresonanzspektroskopie eine detaillierte Analyse von Stoffen und Molekülen auf atomarer Ebene, auch auf akustischem Wege: Die Sonifikation war laut Morawitz eine Standardausgabe früherer Spektrographen, die erst aktuelleren Geräten nicht mehr standardmäßig aktiviert ist. Wie man die Signale auch musikalisch nutzen kann, zeigt Falk Morawitz in Konzerten in Manchester oder auch zum Symposium am ZKM.

Einen großen Erfolg für Sonifikationen sieht Alexandra Supper durch ihre Immersion und Emotionalität in der Popularisierung von Wissenschaft. Prominente Beispiele sind hier die Sonifikation der Aurora (Beispiel einer Sonifikation des Nordlichts) oder in der Astroseismologie (Beispielhafte Sonifikationen der Astroseismologie). Gleichzeitig ist dies aber auch eine Gefahr, da sich so Forschende von einer anscheinend unwissenschaftlichen Methodik abwenden, statt Sonifizierung als wissenschaftliche Methode weiterzuentwickeln.

Gleich mehrere neue Methoden schlägt Jiajun Yang vor, um neue Nutzungsmöglichkeiten von Sonifikationen zu etablieren. Zum einen können funktionale Geräusche Menschen mit Einschränkungen wie beispielsweise Autismus helfen sich auszudrücken. So wurden Personen synthetische sprachähnliche Geräusche zur Auswahl gegeben, um über eine evolutionäre Auswahl typische Stimmungslaute zu identifizieren, die dann in der Übersetzung ihrer Gemütszustände eingesetzt werden können.

Ein weiterer Ansatz von Yang soll durch eine modellbasierte Sonifikation helfen große Datenmengen interaktiv und explorativ zu sonifizieren. So kann die akustische Darstellung der Trajektorie eines durch nahe Datenpunkte angezogenen Teilchens helfen, lokale und verborgene intrinsische Eigenschaften großer Datenmengen zu darzustellen.

In einer anschließenden Paneldiskussion kam auch das Thema auf, wann eine Geräuschbildung noch als Sonifikation angesehen werden kann. Hier hat Thomas Hermann 2008 die These zur Definition der Sonifikation  aufgestellt, dass sich die Sonifikation durch Objektivität, Systematik, Reproduzierbarkeit und Anwendbarkeit auszeichnet. Gleichzeitig stellen sich aber auch nicht alle Sonifikationen als sinnvolle Darstellungen heraus, da dem menschlichen Hörvermögen Grenzen gesetzt sind. Ebenso muss die Wirkung von akustischen Darstellungen beachtet werden, da nur erträgliche Sonifikationen überhaupt zum Einsatz kommen werden. Hier ist die künstlerische und interdisziplinäre Auseinandersetzung mit dem Thema der Sonifikation wie auf diesem Symposium ein auch für wissenschaftliche und technische Einsatzfelder eine wertvolle Bereicherung, da am Ende die Darstellungen wie im Terrain-Projekt auf offene Ohren treffen sollen.

Hilfsmittelausstellung des Allgemeinen Blinden- und Sehbehindertenverein Berlin

Während der Hilfsmittelausstellung des Allgemeinen Blinden- und Sehbehindertenverein Berlin gegr. 1874 e. V. am 16. und 17. November 2016 wurden von der Firma Papenmeier Hilfsmittel für den privaten sowie für den Arbeitsplatz Bereich präsentiert.

Für Arbeitsplätze, sowie für mobile Blindenarbeitsplätze wurden die Braillezeilen der Serien BRAILLEX ELc und BRAILLEX Live vorgeführt. Die hohe Qualität in Material, das schicke Design sowie die sehr einfache und intuitive Bedienbarkeit der Braillezeilen fanden große Zustimmung. Es wurden große 80-stellige Blindenschriftzeilen für den Arbeitsplatz ausgestellt, sowie mobile 40- und 20-stellige Zeilen gezeigt. So können die kleinen Zeilen auch via Bluetooth mit Tablets oder Smartphones gekoppelt werden. Damit überhaupt Informationen auf den Braillezeilen ankommen bedarf es einer Übersetzungssoftware (Screenreader). Die Firma Papenmeier setzt hierbei primär auf den Screenreader JAWS.

Als neues Produkt präsentierte Papenmeier das Kamerasystem VISULEX Maki, das für den Arbeitsplatzbereich entwickelt wurde. Es werden Vorlagen unter die Kamera gelegt, die dann vergrößert auf einem Bildschirm angeschaut werden können. Die sehr gute Stabilität und das hervorragende Bild in der Vergrößerung war für die Besucher besonders beeindruckend. Eine Vergrößerungssoftware (z.B. Supernova oder Zoomtext) ergänzt die technischen Arbeitshilfen für sehbehinderte Menschen. Durch diese kann ich den Bildschirminhalt vergrößert darstellen, Farben invertieren und bei Bedarf den Text vorlesen lassen.

Für den privaten Haushalt wurde bspw. das geschlossenes Vorlesesystem Universalreader Compact II ausgestellt. Dieses Hilfsmittel ist primär für ältere Menschen, die über keine respektive wenig Computerkenntnisse verfügen. So können sie sich ihre gedruckten Vorlagen mittels einer einfachen Tastatur einscannen und sie durch eine OCR in Text umwandeln und vorlesen lassen.

International Camp on Communication and Computers 2016

Diplom-Informatiker Gerhard Jaworek aus dem TERRAIN-Konsortium für das Studienzentrum für Sehgeschädigte Studierende (SZS) am Karlsruher Institut für Technologie (KIT) nahm auch dieses Jahr am ICC 2016 (International Camp on Communicaton and Computers) teil, das vom 25. Juli bis zum 3. August an der Technischen Universität Dresden stattfand.

In drei Themenbereichen präsentierte er in mehrfachen Workshops wie Blinde einen unmittelbaren Zugang zur Astronomie erhalten können, führte in die barriefreie Nutzung der Audio-Workstation Audacity ein, und schulte, wie man wohlformatierte naturwissenschaftliche Texte mittels LaTeX erstellt.

Verschiedene Anbieter präsentierten dort auch neue Entwicklungen in Accessibility Technology (AT) vor, so wurde von der Firma HandyTech die Brille „Orcam“ vorgestellt, die mittels einer Kamera und Gestensteuerung in der Lage ist, Straßenschilder, Plakate, Speisekarten etc. vorzulesen. Sie kann auch auf Personen trainiert werden.

Die Universität Dresden demonstrierte einen Prototypen eines elektronischen Blindenhundes, der bei Orientierung und Mobilität unterstützen soll.

In weiteren Workshops wurde z. B. der Zugang zu elektronischen Schaltungen für Menschen mit Blindheit auf Basis von Sensoren und der Arduino-Technologie vermittelt.

Auch grundlegende pädagogische Themen wurden im Rahmen von Vorträgen behandelt, z. B. die Gestaltung barrierefreier MOOCs. Das „International Camp on Communication and Computers“ ICC-Camp richtet sich an blinde und sehbehinderte jugendliche und junge Erwachsene.

Ursprünglich entstand das ICC, als europäisches länderübergreifendes Projekt, um der Zielgruppe im Rahmen von Workshops IT-Kenntnisse zu vermitteln, die vor etwa 20 Jahren in den verschiedenen Partnerländern sehr unterschiedlich vorhanden waren.

Mittlerweile hat sich das ICC zu einem holistischen Konzept entwickelt. Es werden Kenntnisse und Fertigkeiten geschult die weit über IT und AT hinaus gehen, z. B. Präsentationstechniken, Studieren im Ausland, Verfassen einer internationalen Bewerbung und vieles mehr.

Das ICC entstand ursprünglich als gemeinsames Event der Forschungsabteilung „Computer Science for the Blind“ an der Universität Linz, dem „Studienzentrum für Sehgeschädigte Studierende“ am Karlsruher Institut für Technologie (KIT) um für Blinde oder Menschen mit Seheinschränkungen durch Nutzung von Informations- und Kommunikationstechnologien sowie der AT die Möglichkeiten zu verbessern, gleichberechtigt an Kursen in Universitäten und Schulen teilnehmen zu können.

Vor dem Hintergrund, wieviel Europa manchmal in Europa nicht funktioniert, ist das ICC ein lebendiges Beispiel für gelebtes Europa in Inklusion, so das Fazit von Gerhard Jaworek.

Projekt Kick-Off

Am 7. Juli 2016 traf sich das TERRAIN Konsortium und startete das Projekt mit einem Kick-Off Treffen in Karlsruhe.

Ein Bild des Projektteams und des Vertreters des Projektträgers beim Kick-Off Treffen am 7. Juli 2016. Auf dem Bild sind von links nach rechts Sebastian Ritterbusch, Patrick Frank, Daniel Köster, Susanne Helfer, Karin Müller, Stefan Siebert, Nora Weinberger, Bruno Behrendt, Gerhard Jaworek, Dirk Kochanek, Christian Wehrmann, Rainer Stiefelhagen und Saquib Sarfraz auf einem Weg vor einer Wiese zu sehen.
Das Konsortium und Vertreter des Projektträgers beim Kick-Off, v.l.n.r: Ritterbusch, Frank, Koester, Helfer, Müller, Siebert, Weinberger,
Behrendt, Jaworek, Kochanek, Wehrmann, Stiefelhagen, Sarfraz.

 

Gehard Jaworek, Mitarbeiter des Studienzentrums für Sehgeschädigte, zum Start des Projekts (mp3):

 

Bruno Behrendt, Fachbereichsleiter Rehatechnik, F. H. Papenmeier GmbH & Co. KG, zum Start des Projekts (mp3):