Neues Terrain 10 – Vernetzungstreffen Intelligente Mobilität

Am 18. April 2018 fand in Frankfurt das zweite Vernetzungstreffen der Projekte in der Förderline „Verlässliche Technik für den mobilen Menschen“ statt. Markus Winkelmann vom ITAS am Karlsruher Institut für Technologie (KIT) und Sebastian Ritterbusch von der iXpoint Informationssysteme GmbH konnten an dem Treffen teilnehmen, und unterhalten sich hier über die Erfahrungen und die verschiedenen Gespräche, die sie dort führen konnten: Vernetzungstreffen Intelligente Mobilität (2:00:06, 61MB)

Die Vernetzungstreffen ermöglichen den Projekten einen Austausch sowohl über ihre Projekte, als auch über Querschnittsthemen, die alle Projekte in der Förderlinie vereint. Verglichen zum ersten Vernetzungstreffen im Rahmen der Fachtagung Mobilität im Wandel in 2017 konnte hier noch stärker den einzelnen Projekten als auch den begleitenden ELSI Themen (Ethische, rechtliche und soziale Aspekte) Rechnung getragen werden.

In der Einführung durch Frau Albrecht-Lohmar für das BMBF-Referat „Mensch-Technik-Interaktion; Demografischer Wandel“ wurde großer Wert darauf gelegt, dass Forschung und Förderung kein Selbstzweck sein dürfen, sondern sie zu Innovationen führen sollen, die auch bei den Menschen ankommen. In der Begrüßung durch Dr. Marcel Kappel für den Projektträger und Organisator VDI/VDE-IT im Bereich Mensch-Technik Interaktion wurde die Einbettung der Förderlinie in das Forschungsprogramm dargestellt.

KoFFI

Das Projekt KoFFI zur kooperativen Fahrer-Fahrzeug Interaktion startete die Projektvorträge. Es ging dabei um Fragen wie man mit Konfliktsituationen zwischen Fahrer und Fahrzeug umgehen kann, oder wie eine Vertrauenssituation hergestellt wird. Eine kritische Frage war auch, in welchen Situationen sich ein Fahrzeug über die Entscheidungen des Fahrers hinwegsetzen sollte. So verhindert beispielsweise ein ausgelöster Airbag sehr deutlich die Aktionsfreiheit des Fahrers, es ist jedoch weithin akzeptiert, dass hier die unaufgeforderte Einschränkung des Menschen weit schlimmeres verhindern kann. Wann hingegen Überholvorgänge noch abgebrochen werden dürfen, sind hingegen deutlich kompliziertere Fragestellungen, die im Projekt untersucht werden. Dabei muss auch grundsätzlich berücksichtigt werden, dass ein Einverständnis auch ein Verständnis voraussetzt. Hier ergaben sich im Projekt überraschende Ergebnisse, über die uns Susanne Kuhnert vom Institut für Digitalethik der Hochschule für Medien (HDM) Stuttgart erzählte.

In der ethischen und rechtlichen Begleitung des sonst technisch ausgelegten Projekts KoFFI ging es weit über eine Literaturarbeit hinaus, und es wurde das Gespräch mit Probanden im Sinne einer experimentellen Philosophie gesucht, wo mit empirischen Ergebnissen und Experimenten gearbeitet wurde. Im der Forschung um autonomes Fahren zur Erarbeitung von ethischen Leitlinien (vgl. medizinische Leitlinien) stellte sich dabei früh die Frage, ob die Nutzergruppe überhaupt den Begriff der Autonomie versteht.

Das Projekt KoFFI untersucht grundsätzlich die Nutzbarkeit von Gesten und natürlicher Sprache zur Interaktion von Fahrzeug und Mensch, damit nicht mehr feste Befehle auswendig gelernt werden müssen, sondern der Wagen aus der Situation heraus den Menschen so gut wie möglich mit natürlicher Sprache verstehen kann. Eine überraschende Erkenntnis war hier, dass selbst bei technik-affinen Probanden eine grundsätzliche Technikskepsis zu beobachten war, die auf zweiten Blick durch den alltäglichen Umgang mit niemals perfekter Technik verständlich wird. Gleichzeitig wünscht sich natürlich niemand einen Technikausfall bei einer Fahrt mit hoher Geschwindigkeit auf der Autobahn. Diese Frage kann nicht alleine technisch behandelt werden, sondern benötigt einer ethischen Betrachtung, wie hier der Umgang der Technik mit dem Menschen und die Technikentwicklung von Menschen auf sehr elementare Fragen eingehen kann.

Im Vortrag wurden auch die Begriffe Technikzukünfte, wie die Nutzenden sich die Technik in Zukunft erwünschen, den Zukunftstechniken, den real in Zukunft existierenden Techniken, gegenüber gestellt. Um diese Begriffe der ungewissen Zukunft besser in den Griff zu bekommen, werden Szenarien erarbeitet, um wahrscheinliche Zukünfte als Entscheidungsgrundlage entwickeln zu können.

Vorreiter

Das Projekt Vorreiter will durch neuartige Kommunikationsmethoden auch Menschen mit Einschränkungen den Zugang zu teil- oder vollautomatisierten Fahrzeugen erleichtern. Ein Aspekt war hier, wie beispielsweise eine Lenkradsteuerung auch Menschen theoretisch und praktisch ermöglicht werden kann, die für eine traditionelle Kontrolle des Lenkrads körperlich nur eingeschränkt fähig sind. Hier wurden unter anderem Tests mit einem Altersanzug durchgeführt, die auch darstellten, dass die Einschränkungen auch einige in Erwägung gezogene Gesten betrafen.

Die anschließende Podiumsdiskussion zu den beiden Projekten startete mit der Frage „Mein Fahrzeug soll sein wie…“, wo sich das Publikum für den „Partner“ aussprach.

KOLA

Das Projekt KOLA befasst sich mit kooperativen Laserscheinwerfern und im Treffen wurden die Schwerpunkte Psychologie und Technik dargestellt. Welche Signale und Hinweise können über Lichtbilder auf der Straße verwendet werden, um über eine neue Kommunikationsform ein sozialeres und sicheres Straßenumfeld zu schaffen. Auf der einen Seite erscheinen Emoticons und Smileys als eine moderne und eingängige Kommunikationsform, jedoch sind sie weit weniger eindeutig als bekannte Verkehrsymbole, dessen Verwendung aber aus guten Gründen hier durch die StVO stark reglementiert ist. Auch der Stand der technischen Realisierung wurde im Vortrag sehr beeindruckend geschildert.

PAKoS

Zum Projekt PAKoS ging es insbesondere um die sichere Übergabe der Fahrzeugkontrolle vom Fahrer an die Automation und umgekehrt. An diesem Projekt ist mit dem cv:hci am Karlsruher Institut für Technologie (KIT) auch ein Partner vom TERRAIN-Projekt beteiligt.

Dr.-Ing. Michael Flad vom Institut für Regelungs- und Steuerungssysteme (IRS) am KIT war bereit, uns PAKoS vorzustellen, und uns die unterschiedlichen Kommunikationsmodalitäten, die in der Kommunikation mit dem Fahrzeug zum Einsatz kommen, zu erklären. Neben der visuellen Darstellung im Display oder als Projektion auf der Windschutzscheibe, wird auch eine akustische Sprachausgabe verwendet. Ergänzt werden diese Darstellungsformen durch haptische Signale durch einen mit Vibrationsmotoren ausgestatteten Sitz, der Interaktion mit dem Lenkrad und Pedalen an den Füßen. In einer ersten Studie hat sich ergeben, dass visuelle Signale am leichtesten übersehen werden, im Vergleich beispielsweise zu akustischen Hinweisen. Am deutlichsten wurden hier die Vibrationssignale im Sitz wahrgenommen. Dies ist genau gegenläufig zur möglichen Informationsdichte und entsprechenden Ablenkungspotential der Kanäle. Besondere Ablenkungen können hier die aktuell nicht erlaubten Nebentätigkeiten während des Fahrens sein, die beim autonomen Fahren teilweise akzeptiert werden können.

In der Zeit der nur teilautonomen Systeme müssen hier Verfahren untersucht werden, wie die Übergabe der Verantwortung in Abhängigkeit von den Tätigkeiten, dem Fahrer und der Situation ablaufen kann. Ein mathematisches Modell ist hier die Abbildung der Regelkonzepte als gekoppeltes Differenzialgleichungssystem zu betrachten. Mit Hilfe eines Differenzialspiels kann die Vorhersage über die erwartete Übernahme in die Fahrzeugautomation aufgenommen werden.

Der im Gespräch erwähnte Unfall mit einem teilautonomen Uber-Auto zeigte sehr deutlich, welche schlimmen Auswirkungen die Ablenkung der fahrenden Person haben kann.

Im Gespräch mit Luis Kalb vom Lehrstuhl für Ergonomie an der TU München ging es dann um Details der Verwendung des von Bastiaan Petermijer entwickelten vibrotaktilen Autositzes. Hier sitzt man auf einer Art Vibrationsmatte, die Vibrationsmuster in unterschiedlichen Intensitäten von der Sitzfläche bis zum Rückenbereich darstellen kann. Typische Muster sind Linien, die komplett von einer Seite zur anderen durchlaufen, und sie werden oft zusätzlich durch Sprachausgaben ergänzt. Gerade bei Ablenkungen des Fahrers kann mit Hilfe dieses Kommunikationskanals sehr deutlich auf gefährliche Situationen oder gefährliches Handeln hingewiesen werden.

Die zusätzlichen Kommunikations- und Detektionsmethoden für teilautonomen Automobilen ermöglichen deutlich sicherere Betriebsmodi, wenn beispielsweise bei einem abgelenkten Fahrer automatisch die Fahrgeschwindigkeit reduziert wird, da der Mensch nicht mehr so schnell eingreifen kann. Eine unmittelbar verständliche Reaktion kann auch sehr zur Akzeptanz eines Systems beitragen, wenn sie nicht womöglich als Rechtweisung oder Bestrafung aufgefasst wird. Ganz abgesehen davon nimmt die rechtliche Fragestellung zusätzlich einen großen Raum ein, wie die Verantwortung in solchen Situationen zu bewerten ist. Ein anderes Beispiel sind künstlich erzeugte Geräusche für langsam fahrende Elektroautos, ohne die blinde Menschen das Fahrzeug kaum noch akustisch orten können. Es gibt eine Vielzahl von technischen Lösungen, die sowohl im sozialen, psychologischen und rechtlichen Kontext bewertet werden müssen. Ab 2021 wird jedes neu zugelassene E-Auto entsprechende Geräusche machen müssen.

Bei der Frage in das Plenum, wie die Kommunikation zwischen Fahrzeug und Fahrende stattfinden sollte, lief es auf die Punkte intiutiv, sicher und verständlich hinaus, und führte in eine rege Diskussion zu den beiden Projekten.

Safety4Bikes

Der nächste Block startete mit dem Projekt Safety4Bikes für ein Assistenzsystem für mehr Sicherheit von fahrradfahrenden Kindern. Jochen Meis von GeoMobile und Dr. Florian Klingler der CCS Labs des Heinz Nixdorf Instituts der Uni Paderborn gaben uns in einem Gespräch einen tiefen Einblick in den Stand und die Erfahrungen aus ihrem Projekt. Sehr interessant ist beispielsweise das Ergebnis, dass der Fahrradhelm inzwischen bei Kindern fast durchweg genutzt wird, hingegen die Eltern ihn seltener und besonders die Großeltern fast überhaupt nicht verwenden. Ein anderes Ergebnis ist, dass der Unfallschwerpunkt für fahrradfahrende Kinder Kreuzungsbereiche sind, gefolgt von Ein- und Ausfahrten.

Eine Möglichkeit die Sicherheit zu erhöhen bietet die Car2X Kommunikation, wo im Projekt untersucht wird, wie Fahrräder in dieses Kommunikationsnetz integriert werden können, um im Vorfeld auf Gefahrensituationen hinweisen zu können. Die technische Grundlage ist das IEEE 802.11p Protokoll, das eine ad-hoc Kommunikation im Straßenverkehr ermöglicht. Die ersten Tests im Safety4Bikes Projekt wurden auf Trikes umgesetzt, um den jungen Probanden keiner zusätzlichen Gefahr auszusetzen. In Zukunft ist die fortschreitende Elektrifizierung auch im Fahrradbereich für das Projekt eine zusätzlich vorteilhafte Entwicklung, da sie die Frage der Stromversorgung erleichtert.

TERRAIN

Den Ansatz weitere Methoden im Forschungsprojekt zunächst auf einem tragbaren Computer statt auf dem Smartphone umzusetzen, verfolgen wir im TERRAIN-Projekt genauso wie bei Safety4Bikes: Die ersten Tests der Bilderkennung wurden auf einem Laptop durchgeführt, den die Probanden auf dem Rücken trugen, und im weiteren Verlauf befassen wir uns nun damit, wie und ob und wann wir Teile davon auch auf Smartphones bringen können.

Nach der Vorstellung des Fortschritts im TERRAIN Projekt gab es eine Podiumsdiskussion zu Gefährdeten und Gefahren im Straßenverkehr- nach Meinung des Plenums sind Fahrradfahrende besonders den Gefahren ausgeliefert.

ELSI-Themen

Das Treffen endete mit einer Diskussion zu ELSI-Themen, angeleitet durch Prof. Dr. Tobias Keber (@datenreiserecht), der unter anderem von den Ergebnissen einer Umfrage zu ELSI-Themen bei Forschungsprojekten berichtete: Ein Ergebnis war hier der Ratschlag, ELSI-Aspekte als kreative ‚Störfaktoren‘ zu nutzen. Auf jeden Fall müsse die Begleitforschung auch zu gemeinsamen Aktivitäten führen, um eine Integration zu ermöglichen. Das Zusammenspiel der technischen Entwicklung mit der Reflektion in der ELSI-Begleitforschung ist ein guter Weg, auf eine Entwicklung für die Menschen hinzuarbeiten, also zur Technik für die Menschen hinzuwirken.

Neues Terrain 09 – Vibrationsbänder

Richtungsinformationen lassen sich sehr gut über Vibrationen vermitteln. Dafür hat Patryk Dzierzawski im Rahmen seiner Abschlussarbeit Vibrationsbänder entwickelt, aufgebaut und evaluiert: Vibrationsbänder (46:30, 21MB)

Am Lehrstuhl vom Computer Vision for Human-Computer Interaction Lab (cv:hci) und dem Studienzentrum für Sehgeschädigte (SZS) werden nicht nur Assistive Technologien für Menschen mit Sehbehinderungen evaluiert und angeboten, sondern auch dazu unterrichtet. Weiterhin werden Studierenden Möglichkeiten geboten unter anderem mit Abschlussarbeiten in diesem Bereich sich direkt an der Forschung zu beteiligen. Patryk Dzierzawski stellt dazu hier im Gespräch mit Gerhard Jaworek seine Abschlussarbeit zu Vibrationsbändern zur Navigationsunterstützung an Arm oder Fuß vor.

Die Arbeit bestand aus dem Design, der prototypischen Herstellung, einer Ansteuerung durch Smartphone und der Evaluation des vibrotaktilen Interfaces. Die Vibrationsbänder selbst bestehen aus mit 3D-Druck erstellten Band und Gehäuse, einem Mikrocontroller mit Batterie und Vibrationsmotoren. Bei der Erstellung war das Vorwissen um Wearable Computing und Robotik sehr hilfreich.

Schon in der Folge 2 „Blind Orientieren“ dieses Podcasts wurden vorgestellt, wie vibrotaktile Interfaces zum Einsatz kommen können. Meisst gab es hier nur einfache Vibrationen, wo hingegen die Vibrationsbänder drei von einander unabhängig ansteuerbare Vibrationsaktoren eingesetzt werden. Damit können elementare und wichtigste Navigationsanweisungen zur Richtung und Warnmeldungen zum Anhalten sehr direkt vermittelt werden. Der große Vorteil der vibrotaktilen Vermittlung liegt dabei darin, dass der Hörsinn nicht wie bei Narration und Sonifikation eingeschränkt wird.

Im Gegensatz zu kommerziellen Lösungen wie dem VibroTac System lag in der Arbeit der Fokus auf einer leichten und preiswerten selbstätigen Herstell- und Reparierbarkeit durch Rapid Prototyping Technologien mit der damit einhergehenden Reduzierung auf eine minimale Lösung, die noch die volle Navigationsunterstützung liefern kann. Die Literaturrecherche führte unter anderem zum „Gentle Guide“, wo an jedem Arm ein Vibrationsmotor eingesetzt wurde, wo durch die Nutzenden gerade die Nutzung zweier Bänder kritisch gesehen wurde, so wurde hier eine Lösung mit nur einem Band angestrebt. Interessanterweise hat sich diese reduzierte Lösung als sehr effektiv in einem Navigationstest erwiesen, wenn auch die Interpretation der Signale im Vergleich zur akustischen Ausgabe durch den Menschen etwas länger dauerte.

Im FDM 3D-Druck kamen für das Armband ein flexibles TPU Filament und für den Gehäuseschutz für Platine und Batterie ein hartes Filament zum Einsatz. Für den Microcontroller Adafruit Feather 32u4 Bluefruit LE mit eingebautem Bluetooth Low Energy (BLE)-Modul musste auch die Ansteuerelektronik für die Motoren ausgelegt werden. Die Programmierung erfolgte mit der Arduino-Entwicklungsumgebung und ermöglichte die Ansteuerung durch Smartphones über Bluetooth LE.

Für die technische Ansteuerung der Vibrationsbänder wurde auch eine App für Android Smartphones entwickelt. Dabei wurde auch auf die Barrierefreiheit geachtet, damit auch blinde Menschen die technischen Tests durchführen können. In den damit ermöglichten Praxistests wurde geprüft, in wie weit die gewünschte Funktion erfüllt wird, welche Vibrationsstärken und -dauer als sinnvoll und angenehm bewertet wurden. Dabei wurden die Tests sowohl in Ruhe als auch in Bewegung durchgeführt. Interessanterweise wurden am Armband zur sichereren Unterscheidbarkeit typischerweise länger und stärker gewünscht, am Fußband wurden die angesetzten Standardwerte gut akzeptiert. Die Tests beschränkten sich aber auf die reine Identifikation der Vibrationen, erweiterte Wizard-of-Oz Tests bei dem ein Mensch die Funktion einer erweiterten Software simuliert und die Hardware direkt ansteuert, sollen eine Navigation simulieren und sind Teil eines späteren Tests im Terrain-Projekt.

Literatur und weiterführende Informationen

Neues Terrain 08 – Raumklang

Mit unserem Gehör können wir Geräusche unmittelbar orten und identifizieren. Um diese Fähigkeit sinnvoll im Projekt nutzen zu können, gibt uns Dr. Paul Modler einen Einblick in Raumklang (2:43:10, 130MB).


Die Abteilung Medienkunst Akustik (MK Akustik) der Staatlichen Hochschule für Gestaltung (HfG) in Karlsruhe befasst sich mit elektronischer und elektroakustischer Musik, Klanginstallation und Sonifikation. Sie wird von Dr. Paul Modler geleitet, der uns in diesem Gespräch einen Einblick in Raumakustik und Techniken für räumliches Hörempfinden über Kopfhörer geben konnte.

Paul Modler ist gerade von einem Besuch der Ars Electronica in Linz zurückgekehrt. Ein hervorgehobenes Event des Festivals der elektronischen Künsten war die Klangwolke einer Story mit Feuerwerk, Maschinen, Jets und Booten auf der Donau. Der Wettbewerb Prix Ars Electronica gab einen Einblick, welche aktuellen Richtungen die durchaus diskutierte Medienkunst darbietet.

Nach seinem Diplom in den Ingenieurwissenschaften an der ehemaligen Universität Karlsruhe (jetzt Karlsruher Institut für Technologie (KIT)) zur Signalverarbeitung und Filterentwurf des Waveterm Synthesizer der Palm Products GmbH (PPG), gelangte Paul Modler an die University of York, wo er im Bereich der Music Technology promovierte und von dort an die Hochschule für Gestaltung in die Medienkunst geworben wurde. Seine Forschungsinteressen gehen auch in Richtung des Mehrkanaltons, insbesondere im Verfahren der Ambisonics, das nach langer Durststrecke inzwischen sogar als Raumklangformat bei YouTube Einzug gehalten hat.

Die MK Sound setzt sich mit der Frage der Musikerstellung, der Definition und möglichen Instrumenten sowie der Technik, Installation und Performance in einem sehr breiten Spektrum interdisziplinär auseinander. Es gibt Lehrveranstaltungen zur analogen Tonerzeugung, wie auch die Auseinandersetzung mit neuen digitalen Einflüssen und die Abbildung analoger Synthesizern auf mobilen Geräten wie bei Korg. Die Gruppe wird auch von besuchenden Künstlern wie John Richards in Richtung Circuit Bending inspiriert. Dies führt zu faszinierenden Abschlussarbeiten wie den Atmospheric Disturbances von Lorenz Schwarz, wo Raumklang mit Plasmalautprechern künstlerisch umgesetzt wurde. Interessante Impulse entstehen auch aus der Zusammenarbeit mit weiteren Instituten und Hochschulen: So beteiligen sich auch oft Studierende des KIT an Projekten.

Die Aufnahme fand im Studio 311 der MK Sound statt, wo die Gruppe einen mobilen Klangdom installiert hat, um an ambisonischen Verfahren zu arbeiten und ihn musikalisch zu nutzen. Zur Ansteuerung kommt hier die Software Zirkonium wie auch die Software des Institut de Recherche et Coordination Acoustique/Musique (IRCAM) „Spat“ zum Einsatz, sowie andere verfügbare Verräumlichungstools. Ein Aspekt ist dabei auch der Wandel der Sicht auf den Lautsprecher vom Mittel zum Zweck hin zu einem eigenständigen Musikinstrument.

Die Hochschule für Gestaltung in Karlsruhe ist eingerahmt und im gleichen Haus wie das Museum für neue Kunst und das ZKM – Zentrum für Kunst und Medien und  Medienmuseum. So arbeitet die MK Sound natürlich eng mit dem von Prof. Ludger Brümmer geleiteten Institut für Musik und Akustik am ZKM zusammen. Das Institut bietet insbesondere auch der Diskussion musikalisch digitalen elektroakustischen Bereich eine Plattform und hat mit dem Klangdom im ZKM Kubus eine etablierte Referenzplattform für Raumklang. Zusammen mit der HfG wurde dazu auch 2015 das inSonic Festival zu Raumklang ausgerichtet, das sich im inSonic Festival Dezember 2017 wiederholt. Die große Bandbreite des Instituts zeigt sich auch in häufigen Kraftwerk-Konzerten bis hin zu häufigen Linux Audio Konferenzen. Der ehemalige Kraftwerk-Musiker Florian Schneider-Esleben war auch 1998 als Professor für Medienkunst und Performance an die HfG berufen. Ende letzten Jahres fand am Institut auch das Strömungen Symposium zu künstlerischer Sonifikation statt.

Durch unser Gehör und Körper nehmen wir Schallwellen wahr, soweit sich diese etwa im Hörbereich von etwa 20-20kHz und einem davon abhängigen Pegel befindet.  Assoziieren wir einen Sinn oder gewisse Ästhetik in ein Geräusch, so mögen wir es als Klang bezeichnen, der Teil einer Musik sein kann. Ein Teil der Akustikempfindung wird in der Psychoakustik beschrieben, die auch sehr exakt mit der Hörbarkeit von Geräuschen und Auswirkung von Wahrnehmungen auf den Menschen analysiert. Diese Analyse hat erst den Erfolgszug der verlustbehafteten Audiokompression möglich gemacht.

Für die Aufnahme von Raumklang spielt die Positionierung der Mikrofone eine besondere Rolle: Da eine Aufnahme aus allen Richtungen an einem Punkt nicht möglich ist, müssen Mikrofone mit gewissen Abstand von einander positioniert werden, wodurch der Raum diskretisiert wird. Besonders beispielhaft für die Auswirkung der Diskretisierung sind Werke von John Chowning, der die Frequenzmodulations-Synthese aus der Raumklangforschung heraus für Synthesizer patentierte. Hier erhält man an leicht unterschiedlichen Positionen mit klassischem Soundfeld Mikrofon oder mit Ambeo VR Mikrofon ein völlig anderes Konzerterlebnis.

Im Rahmen einer Stereoaufnahme und -reproduktion durch Lautsprecher entstehen Phantomschallquellen um die Lautsprecher, soweit man sich exakt im Sweet Spot des Stereodreiecks befindet. Empirisch zeigt sich, dass die Verwendung von zusätzlich an die Wand gedrehten Treibern, wie beim Acoustimass-System ein immersiveres Stereoempfinden erzeugt wird. Das räumliche Empfinden im Kopf entsteht zunächst durch Intensitäts- oder Pegelunterschiede und Laufzeitunterschieden zwischen den Ohren, die vom Gehirn rekonstruiert und die virtuelle Position der Schallquellen rekonstruiert wird. Sehr individuell spielt aber auch die Kopf- und Körperform eine große Rolle, denn je nach Kopfgröße sind die Ohren unterschiedlich weit voneinander entfernt, die Ohrmuschel unterschiedlich geformt und die Schultern unterschiedlich weit entfernt. Dadurch ergeben sich eine durch frequenzabhängige Intensitäts- und Laufzeitsunterschiede resultierende Filterung, die als Head-Related Transfer Function (HRTF) bzw. Kopfübertragungsfunktion bezeichnet wird. Die Berücksichtigung dieser Abbildung führt zur binauralen Aufnahme und Reproduktion. Eine weitere Wahrnehmungsmöglichkeit ist der Raumschall, wo eine räumliche Wahrnehmung durch die Beziehung zum Raum ermöglicht wird. Daher muss man in der Stereofonie deutlich zwischen Lautsprecheraufnahmen und Kopfhöreraufnahmen unterscheiden, da die Reproduktion über Kopfhörer die Berücksichtigung der Kopfübertragungsfunktion erforderlich ist.

Der Weg zu Mehrkanal-Tonsystemen führte von der Stereofonie zunächst zur Quadrofonie für Systeme mit vier Lautsprechern, die im Vergleich zum Aufwand einen begrenzten Gewinn des Raumklangs unter Einführung weiterer unerwünschter Effekte bewirkte. Da sich keine Aufzeichnungssysteme für dieses Tonsystem wirklich kommerziell durchsetzen konnten, war das System wenig verbreitet. Die sehr verwandten Dolby Surround oder 5.1-Systeme haben sich durch leichte Veränderung des Systems im Film- und Kinobereich dagegen sehr durchgesetzt. Für den Film war es sehr wichtig, dass Einführung des zentralen Center-Lautsprechers die räumliche Positionierung der Schauspieler deutlich verbessert hat, und die Verwendung von Subwoofer bzw. des LFE-Kanals auch preiswertere immersive Installationen durch Satelliten-Lautsprecher ermöglicht hat.

Als großer Kritiker der Quadrofonie entwickelte Michael Gerzon 1973 mathematisch-physikalisch fundierte Ambisonics-Verfahren, um auf einer beliebigen Anzahl von Lautsprechern einen Raumklang aufnehmen, aufzeichnen und wiedergeben zu können. Während ein System nullter Ordnung mit einem einzigen Kugelmikrofon und Kugellautsprecher realisiert werden kann, sind ab erster Ordnung schon mindestens acht Lautsprecher für eine sinnvolle Reproduktion erforderlich. Leider müssten sehr viele Mikrofone für das Verfahren alle koinzident in einem Punkt positioniert werden, was mit herkömmlicher Aufnahmetechnik nicht optimal realisierbar ist, und dafür von Gerzon besondere Mikrofonkonfigurationen entwickelt wurden, die das koinzidente Signal rekonstruieren können. Im Bereich der Meteorologie gibt es Ultraschallanemometer, die tatsächlich die Luftbewegung im Raum in einem einzelnen Messraum bestimmen können, nur ist dies aktuell nur im Aufnahmebereich räumlich gemittelt bis zu 200mal pro Sekunde bis maximal in den Infraschallbereich möglich.

Eine frühe berühmte und umstrittene Raumklang-Installation war der Philips Pavilion bzw. Poème électronique auf der Weltausstellung Expo 58 in Brüssel, wo die an hyperbolischen Trajektorien aufgestellten Lautsprecher als diskrete wandernde Tonquellen benutzt wurden. Zur Weltausstellung Expo 70 in Osaka entwarf Karlheinz Stockhausen für den deutschen Pavillon das Kugelauditorium, in dem die Ansteuerung der Lautsprecher durch einen Drehhebel erreicht werden konnte. Ein ähnliches Verfahren ist das Vector Based Amplitude Panning (VBAP)-Prinzip, das von Ville Pulkii 1997 wissenschaftlich ausgearbeitet wurde.

Im Gegensatz zu den früheren Installationen verlangen ambisonische Verfahren sehr regelmäßige Lautsprecherpositionen, da das Verfahren ideal als Fourier-Synthese auf einer Sphäre interpretiert werden kann. Praktisch gibt es auf einer Kugeloberfläche nur wenige exakt equidistante Punktmengen auf Basis der platonischen Körper, dazu sind volle Sphären eine architektonische Herausforderung und aufgrund unseres geringen Lokalisationsfähigkeit im Vertikalen nur von begrenztem Nutzen. Daher werden die Lautsprecher nur in einer oberen Halbsphäre mit nach oben abnehmender Anzahl pro Lautsprechern im Radius installiert.

Die ambisonische Raumklang-Demonstration ist ein Teil aus dem Stück „Parallel“ von Paul Modler, das bei einer Aufführung zusätzlich bewegliche Hörner und ein Wellenfeld-Array anspricht.

Im Gegensatz zu Mehrkanal-Tonsystemen berücksichtigt der binaurale Raumklang die Kopfübertragungsfunktion und ist nur für die Erfahrung über Kopfhörer gedacht. Zur Erzeugung von binauralen Signalen kann man auf Kunstkopf– oder In-Ear oder Orginal-Kopf-Mikrofone (OKM) zurückgreifen. Alternativ kann man Schallquellen synthetisch über die HRTF auf die Wirkung auf die Ohren berechnen.

Zur Erfassung der individuellen HRTF werden Mikrofone in die Ohren installiert und robotergesteuert Lautsprecher an verschiedene Positionen um die Versuchsperson gefahren. Die Lautsprecher spielen dann jeweils Klicks oder Chirps, um die Impulsantwort des Signals, die Head-Related Impulse Response zu bestimmen. Die HRTF ergibt sich dann als Fourier-Transformite der Impulsantwort. Alternativ können auf niedrigerem Niveau auch halbsphärische Lautsprecher wie im Klangdrom statt einer langsamen Robotersteuerung verwendet werden. Impulsantworten existieren grundsätzlich nur auf einer begrenzten Anzahl von Filterpunkten, zwischen denen nach VBAP-Prinzip auch Zwischenpunkte berechnet werden und Klänge aus beliebigen Richtungen im zwischen Punkten im Diskretisierungsgitter abgebildet werden. Eine Herausforderung bleibt die Kopfbewegung, die mit Head-Trackern für einen immersiven Eindruck berücksichtigt werden muss, man sich also zum Klang hindrehen können muss. Das ist eine entsprechende Herausforderung der Virtual Reality, wo die Bewegung des Kopfes auch unmittelbar in die Darstellung berücksichtigt werden muss.

Die räumliche Abbildung von Tönen ergibt auch neue Möglichkeiten in der Sonifikation, um Informationen nicht nur klanglich unterscheidbar sondern auch räumlich lokalisiert abgebildet werden kann. Dabei ist zu berücksichtigen, dass visuelle Eindrücke akustische Ereignisse verfälschen können. Bei steigender Komplexität der verwendeten Modelle, muss das Verständnis für Sonifikation auch erlernt werden.

Literatur und weiterführende Informationen

Podcasts

Neues Terrain 07 – BOGY-Praktikum

Im Rahmen einer Berufs- und Studienorientierung an Gymnasien (BOGY-Praktikum), bekam Leonard die Gelegenheit bei der iXpoint Informationsysteme GmbH das Terrain Projekt kennen zu lernen, und sprach am Studienzentrum für Sehgeschädigte mit Gerhard Jaworek und Sebastian Ritterbusch über seine Erfahrungen und Ergebnisse. BOGY-Praktikum (44:56, 20MB)

Leonard besucht die Mittelstufe eines Karlsruher Gymnasiums und interessiert sich für Softwareentwicklung, Projektmanagement und Informatik, da er in seiner Freizeit mit Programmiersprachen wie Java interessante Projekte beispielsweise zur Erweiterung von Minecraft umsetzen konnte. Die Erweiterungen von Spielen ermöglichen auch Blinden die Partizipation an Multi-User Spielen.

Das BOGY-Praktikum hatte als Anwendungsproblem die Überquerung einer Fläche oder eines Platzes: Ohne weitere Orientierungslinien können Blinde hier leicht die vorgesehene Richtung verlieren. Daher gibt es im Mobilitätstraining immer ein Kompasstraining, das blinden Menschen die richtungstreue Überquerung erleichtert. Da ein Kompass Parallelverschiebungen nicht messen kann, ergab sich der Ansatz mit der zusätzlichen Nutzung von GPS, um eine zielgenauere und robustere Überquerung zu ermöglichen.

Das eigentliche Praktikum startete mit Planung: Der Aufgabenbeschreibung, der Zerlegung in Teilprobleme und der Erstellung eines Ablaufplans, mit einem Augenmerk auf einer agilen Vorgehensweise gegenüber eines klassischen Wasserfallmodells. Daran schloss sich am zweiten Tag die Einführung in die Entwicklungsumgebung und Dokumentation des Terrain-Projekts und die Nutzung des Versionsmanagementsystems Git. In den folgenden drei Tagen wurden drei Entwicklungszyklen umgesetzt, jeweils mit einer Detailplanung am Tagesanfang, der Implementierung über den Tag, sowie Tests und Dokumentation am Ende des Tages. Am Freitag kam am Ende noch Gerhard Jaworek hinzu, um das Ergebnis auch aus Nutzersicht zu evaluieren und diskutieren.

Die Verwendung von GPS zur Überquerung basierte darauf, dass man am Startpunkt den Längen– und Breitengrad der aktuellen Position aufnimmt und dann daraus entweder den Zielpunkt berechnet oder auf dem Weg die aktuelle Position zur Ursprungsposition ins Verhältnis setzt. Da man sich aber hier nun auf einer idealisierten Erdoberfläche in Form einer Sphäre bewegt, wird die Trigonometrie gleich etwas komplizierter, als es in der Schule zunächst behandelt wird.

Ein wichtiger Aspekt der Entwicklung lag auf der Gestaltung der Mensch-Maschine-Schnittstelle, also der Nutzung von Sprachausgabe, Gestenerkennung und Vibration zur Bedienung des Systems. Darüber hinaus hat Leonard verschiedene unterschiedliche Darstellungen umgesetzt: So kann man sich entscheiden, ob man eine Richtung mit einer Gradzahl, einer Uhrzeit oder sprachlich, wie „etwas rechts“, „etwas links“ mehr oder weniger ausführlich dargestellt bekommen möchte.

Insgesamt konnte Leonard im Praktikum nicht nur eine Unterstützung für Blinde entwickeln, sondern auch einen Einblick in verschiedene Berufsbilder und Themenbereiche von Softwareentwicklung, Unterinterfacedesign, Projektplanung und -management erhalten, auch wenn eine Praktikumsdauer von einer Woche für so ein Thema natürlich sehr kurz ist.

Neues Terrain 06 – Fachtagung Mobilität im Wandel

Am 4. April fand in Berlin die Fachtagung „Mobilität im Wandel – Praxisbeispiele und neue Impulse zur BMBF Forschungsagenda“ statt. Sebastian Ritterbusch von der iXpoint Informationssysteme GmbH war dort, stellte das Terrain Projekt vor und spricht mit Gerhard Jaworek vom Studienzentrum für Blinde und Sehbehinderte (SZS) am Karlsruher Institut für Technologie (KIT) über die Veranstaltung im InterContinental Hotel in Berlin. Fachtagung Mobilität im Wandel (1:53:57, 50MB)

Zum Start der Bekanntmachungen Mensch-Technik-Interaktion für eine intelligente Mobilität (IMO), Elektroniksysteme für das vollautomatisierte Fahren (ELEVATE) und weiterer Projekte aus dem Themenfeld Kommunikationssysteme & IT-Sicherheit lud das Bundesministerium für Bildung und Forschung (BMBF) die geförderten Projekte und Interessierte zum Austausch nach Berlin ein.

Zur Bekanntmachung ELEVATE lag ein Schwerpunkt auf Projekten zu Radartechnologien, wie beispielsweise das Projekt KameRad zu kombinierten Kamera-Radar-Modulen, das Projekt KoRRund zu konformen multistatischen Radarkonfigurationen zur Rundumsicht oder das Projekt radar4FAD zu universellen Radarmodulen für das vollautomatisierte Fahren, die in einem eigenem Workshop später ihren Cluster auf der Tagung initiierten. In der Linie ELEVATE gab es aber auch weitere Themen wie das Projekt AutoKonf zu automatisch rekonfigurierbaren Aktoriksteuerungen für ausfallsichere automatisierte Fahrfunktionen oder HiBord zu hoch zuverlässigen und intelligenten Bordnetztopologien. Informationen zur Nutzung von Radar-Technologien in der Erdbeobachtung gibt es in der Folge 244 SAR Satelliten und Satellitendatenarchivierung  am EOC im Omega Tau Podcast

Die Veranstaltung wurde durch eine Begrüßung von Frau Gabriele Albrecht-Lohmar und Herrn Andreas Kirchner für BMBF und einer Einführungskeynote von Herrn  Dr.-Ing. Sven Bugiel zu sicheren autonomen Fahrzeugen in der Zukunft eröffnet. Daran schloss sich ein „Project-Slam“ an, in dem sich die rund 20 Projekte jeweils mit etwa 3 Folien in 3 Minuten vorstellen konnten und von Frau Dr. Julia Seebode und Herrn Dr. Marcel Kappel der VDI/VDE Innovation + Technik GmbH moderiert wurden. Die Vorträge waren sehr intensiv, jedoch von der Form natürlich nicht wie Science-Slams, wie sie auch in Karlsruhe oft ausgetragen werden und jungen Forscherinnen und Forschern eine Bühne bieten, ihr Gebiet in 10 Minuten sehr unterhaltsam vorzutragen. Auch aus der Ferne konnte man über Social Media der Fachtagung folgen. Auf die Slams folgten drei parallele Workshops, einmal zum Start des Radar-Clusters in ELEVATE, dann ein Workshop zu Projekten aus der Bekanntmachtung Intelligente Mobilität und einem Workshop zur neue Bekanntmachung Elektronom zur Elektronik für autonomes elektrisches Fahren. Die Tagung endete mit einem Abschlussvortrag von Prof. Dr. Andreas Knie zu vernetzten multimodalen Mobilitätslösungen der Zukunft und Ausklang bei einer Abendveranstaltung.

In einigen Projekten stellten sich interessante Verbindungen zum Terrain Projekt heraus: Das Projekt KoFFI zur kooperativen Fahrer-Fahrzeug-Interaktion will Systeme entwickeln, die durch neue Interaktionskonzepte zu mehr Sicherheit, Komfort und Sicherheit bei teilautomatisierten Fahrzeugen führen soll. Dabei geht es auch um Fragen der Akzeptanz und natürlicher Sprachkommunikation, wie es mit dem Wunderautos Dudu oder K.I.T.T. in Filmen und Serien vorgedacht wurde. Im Projekt KomfoPilot zu personalisierter Fahrstilmodellierung im automatisierten Fahrzeug soll sich das Auto an den vom Menschen gewünschten Fahrstil anpassen. Das Projekt PAKoS befasst sich personalisierte, adaptive kooperative Systeme für automatisierte Fahrzeuge, das vom Karlsruher Institut für Technologie (KIT) koordiniert wird. Hier wird auch ein Nutzerprofil mit der Erfassung des Fahrerzustands kombiniert, um das Leistungsvermögen des Fahrers zu beurteilen und darauf angepasst zu reagieren.

Zum Projekt Safety4Bikes, einem Assistenzsystem für mehr Sicherheit von fahrradfahrenden Kindern, waren deren Verbundkoordinator Jochen Meis von der GeoMobile GmbH und Annika Johnsen vom Institut für empirische Soziologie an der Friedrich-Alexander-Universität in Erlangen-Nürnberg dankenswerter Weise zu einem Gespräch bereit. Mit Sensoren an Helm, Fahrrad und weiteren Schnittstellen wird hier die Umgebung erfasst und aufbereitet, um Kindern vor Gefahren zu warnen und für eine sichere Teilnahme am Straßenverkehr zu trainieren. Schwerpunkte sind hier neben der technischen Entwicklung des Systems auch die Identifikation der kritischen Gefahrenstellen und der geeigneten Kommunikation zu den Kindern. Bei der Erstellung von Anforderungsanalysen werden Ergebnisse früherer Projekte einbezogen, wie beispielsweise dem Projekt OIWOB für zum Orientieren, Informieren, Warnen in einer Orientierungshilfe für Blinde, welches von der HFC Human-Factors-Consult GmbH koordiniert wurde.

Eine Entwicklung von guten Mensch-Maschine-Interaktionen (MTI) ist ein Weg in vielen Schritten: So gab es früher Digital-Mäuse, bei denen sich ein gesteuerter Mauszeiger immer in der gleichen Geschwindigkeit wie von einem digitalen Joystick gesteuert in acht mögliche Richtungen bewegt, und nicht wie wir es jetzt kennen proportional oder überproportional zur physischen Bewegung des Eingabegeräts. Die Entwicklung neuer Sensoren ermöglicht heute eine Bedienung auf Berührung oder durch Bewegung und Drehung des Geräts durch miniaturisierte Inertialsensoren, die Einzug in Smartphone und Tablets gehalten haben. Ein Beispiel für eine Bedienung über Inertialsensoren ist die Anwendung Universe2Go mit der Blinde wie auch sehende Menschen den Sternhimmel wie durch ein Smartphone-Fenster erfahren und hören können.

In der MTI ist es auch wichtig kurz und prägnant den aktuellen Kontext darzustellen. Visuell werden für solche Identifikationshinweise oft Icons benutzt und diese haben ein akustischen Pendant, die so genannten Earcons: So kann durch einen kurzen und prägnanten Laut den Nutzenden sehr schnell eine wichtige Information oder ein Bezug hergestellt werden. In der Gestaltung solcher Earcons ist neben der Unterscheidbarkeit untereinander auch Distanz zu reellen Geräuschen zu berücksichtigen, damit ein eingesetztes System nicht mit Informationen aus der Realität verwechselt werden kann. Das hapto-akustische Spiel Bob it hat auch einen Spielmodus mit Geräuschen, wodurch gegenüber Sprachausgabe die Spielinformation schneller vermittelt wird.

Mit Lenkgesten teilautomatisierte Fahrzeuge steuern wie der Reiter das Pferd; das ist das Ziel des Projekts Vorreiter. Auch hier waren Yigiterkut Canpolat vom Institut für Arbeitswissenschaft an der RWTH Aachen und Prof. Dr. Clemens Arzt, Direktor des Forschungsinstituts für öffentliche und private Sicherheit (FÖPS Berlin) an der Hochschule für Wirtschaft und Recht Berlin bereit über ihr Projekt zu sprechen. Hier sollen intuitive Steuerungen entwickelt werden, die Menschen mit körperlichen Einschränkungen die Nutzung von teilautomatisierten Fahrzeugen ermöglichen sollen. Dabei ist nicht nur die technische Entwicklung wichtig, sondern besonders auch die rechtswissenschaftliche Begleitforschung, da die gesetzlichen Voraussetzungen analysiert werden müssen, die bei der Umsetzung Berücksichtigung finden müssen und wo eventuell auch in rechtlicher oder gesetzlicher Sicht Handlungsbedarf besteht. Ein sehr überzeugendes Beispiel für eine gelungene Umsetzung ist das Sam Car Project des industriellen Partners Paravan im Vorreiter-Projekt, wo dem ehemaliger Indy-car Fahrer und seit einem schweren Rennunfall querschnittgelähmten Sam Schmidt mit einer Spezialanfertigung wieder die Steuerung eines Autos ermöglicht wurde.

Pferde sind jedoch nicht nur einfache Fortbewegungsmittel, sondern können in besonderem Maße Menschen mit Einschränkungen in ihrer Mobilität unterstützen. Ein sehr außergewöhnliches Beispiel bietet hier Sabriye Tenberken, die zu Pferd durch Tibet reiste und als Blinde die Blindenschule Braille without Borders in Tibet eröffnete und darüber auch das Buch Mein Weg führt nach Tibet veröffentlichte.

Die Fachtagung endete mit dem Fachvortrag von Prof. Dr. Andreas Knie zu vernetzten multimodale Mobilitätslösungen der Zukunft und einer Abendveranstaltung zum Austausch mit den weiteren Teilnehmern der Tagung.

Neues Terrain 05 – Juristische Begleitforschung

Am 18. November 2016 fand an der Fachhochschule Bielefeld ein vom Bundesministerium für Bildung und Forschung (BMBF) und der FH Bielefeld angebotener Workshop zu Einzelaspekten rechtswissenschaftlicher Begleitforschung statt, an dem Johannes Hirsch, Markus Winkelmann und Sebastian Ritterbusch teilnahmen. Im Gespräch und diesem Text werden zwar rechtswissenschaftliche Fragen angesprochen, die Aussagen sind aber keinesfalls als Rechtshinweise oder Rechtsberatung zu verstehen. Juristische Begleitforschung (1:15:24, 33MB)

Eine juristische Begleitforschung ist ein Aspekt der ELSI-Begleitforschung, die die Betrachtung von ethischen (ethical), rechtlichen (law) uns sozialen (social) Fragestellungen zu Projekten umfasst. Diese Themen stehen im Zentrum des vom Institut für Technologiefolgenabschätzung und Systemanalyse (ITAS) am Karlsruher Institut für Technologie (KIT) vorangetriebenen Forschung.

Im Projekt QuartrBack befasst sich Johannes Hirsch mit der Begleitforschung um eine intelligente Notfallkette im Quartier für Menschen mit Demenz. In rechtlicher Sicht wurden hier insbesonders Aspekte des Datenschutz beleuchtet. Auch in anderen Themenbereichen werden diese Fragestellungen untersucht, so wurde der Institutsleiter Prof. Dr. Armin Grundwald in die von Bundesminister Alexander Dobrindt eingesetzte Ethik-Kommission zu automatisierten Fahren berufen. Auch zu Energiethemen hat Markus Winkelmann am ITAS gesellschaftliche, rechtliche und soziale Fragestellungen betrachtet und begleitet das Terrain-Projekt durch Begleitforschung. Für Sebastian Ritterbusch von der iXpoint Informationssysteme GmbH sind die rechtlichen Fragestellungen einmal für das Projekt Terrain insgesamt aber auch speziell für die Entwicklung der Anwendungen für die Nutzenden von großem Interesse.

Der Workshop begann mit einem Vortrag von Frau Prof. Dr. jur. Brunhilde Steckler der FH Bielefeld und behandelte Rechtsaspekte im Projekt KOMPASS: Es ging um die Vertraulichkeit und Integrität von Rechtssystemen, was im Rechtssystem alleine schon Aspekte des Persönlichkeitsrechts, Datenschutz, Telemedien, Vertrags- und Haftungsrecht berührt. In der betrachteten Anwendung ging es im Projekt um den Bereich Wearables und Fitness und wie hier Dienste rechtssicher angeboten werden und den Nutzenden die Datenverarbeitung transparent dargestellt werden können. Wie auch häufiger im Verlauf des Workshops kam sie auch auf die besondere Rolle der neuen Datenschutz-Grundverordnung (DS-GVO) der Europräischen Union zu sprechen, die ab Mai 2018 anzuwenden ist und insbesondere auch die Datenschutz-Folgenabschätzung eingeführt (Art. 35 DS-GVO) .

Der folgende Vortrag von Dipl.-Inf. Christian Burkert (@cburkert_de), früher praemandatum GmbH und jetzt wissenschaftlicher Mitarbeiter an der Universität Hamburg, behandelte Privacy-by-Design in der Produktentwicklung. Von Privacy-enhancing Technologies (PETs) aus den 90ern über Ann Cavoukians 7 Prinzipien des Privacy by Design zog er den zeitlichen Rahmen zur EU-Datenschutzreform von 2012. Die 7 Prinzipien des Privacy by Design geben direkte Handlungshinweise für die Einbettung des Datenschutzes in den Entwicklungsprozess, die im Sinne mit der Datenschutzgrundverordnung DS-GVO als „Datenschutz durch Technikgestaltung“ im Artikel 25 besonderen Einzug in die zukünftige Gesetzeslage gefunden haben, deren Umsetzung durch Verantwortliche mit Maßnahmen gesichert werden soll. An Hand der zwei Beispiele von den „Privacy Czars“ bei Apple und den „In-House Consultants“ bei Google stellte er dar, dass die Verankerung im Unternehmen sehr unterschiedliche Ausgestaltung haben kann.

Wie wichtig die Verankerung von Datenschutz in Geschäftsprozesse ist, sieht man schon daran, wie eindeutig Menschen im Netz durch ihren Browser identifiziert und verfolgt werden können, beispielsweise durch das Browser Fingerprinting oder mit Cookies. Ein Beispiel für Intervenierbarkeit durch den Nutzer ist das Google Privacy Dashboard, in dem man den Zugriff auf gewisse persönliche Daten widerrufen kann.

Im Vortrag von Prof. Dr. jur. Iris Kirchner-Freis der MLS LEGAL GmbH Rechtsanwalts- und Fachanwaltsgesellschaft ging es um Datenschutz bei Gesundheitsdaten am Beispiel des Projekts Adaptify. Dies beginnt schon mit der Frage der genauen Definition von Gesundheitsdaten im Sinne des Bundesdatenschutzgesetzes (BDSG) §3 Absatz 9 zu verstehen sind und besonders geschützt werden müssen: Dies umfasst sicher medizinische Informationen, können aber auch körperliche Leistungsdaten betreffen, die im Einsatz von Trackern beim Sport anfallen können. Das White Paper „Annex – health data in apps and devices“ der europäischen Union versucht hier die Definition zu konkretisieren. Bei der Frage der Einwilligung, Datensicherheit und Pseudonymisierung spielt für die Umsetzung in mobilen Lösungen insbesondere das Telemediengesetz (TMG) eine besondere Rolle. Grundlegend müssen nach BDSG den Nutzenden auch das Auskunftsrecht, Löschungs- und Sperrungsrecht und das Berichtigungsrecht eingeräumt werden und technisch-organisatorische Maßnahmen wie beispielsweise Zutritts- und Zugangskontrolle serverseitig umgesetzt werden.

Die Einbettung von Privacy by Design durch Legal Process Modelling war das Thema des Vortrags von Frau Prof. Dr. jur. Beatrix Weber der Hochschule Hof. Die verpflichtende Datenschutz Compliance der DS-GVO zu Privacy by Design und Default und der Umsetzung interner Strategien für organisatorische Maßnahmen sind unter einer Risikoabwägung umzusetzen: Hier fließt neben dem Stand der Technik, Implementierungskosten und der Art der erhobenenen Daten auch die Eintrittswahrscheinlichkeit und zu erwartende Schwere der Risiken für bedrohte Rechte und Freiheiten mit ein. Dabei sieht sie die Unternehmens-Compliance als Geschäftsprozess, der auch weitere Rechtsthemen wie Urheberrecht, Kartellrecht und ethische Normen abbildet, und grundsätzlich in Phasen der Konzeption, Umsetzung und Adjustierung strukturiert werden kann.

Von Herrn Prof. Dr. jur. Wolfgang Schild der Universität Bielefeld erhielten wir einen Einblick in rechtliche Fragen der Einwilligung vulnerabler Personengruppen. Grundsätzlich ist eine Einwilligung ein Aufopferungsakt, da man auf einen zustehenden rechtlichen Schutz verzichtet. Der rechtliche Grundsatz wird durch den lateinischen Ausdruck volenti non fit iniuria beschrieben, die Umsetzung muss dafür aber auch rechtlichen Anforderungen genügen: So muss die einwilligende Person den Fähigkeiten der intellektuellen Einsicht und voluntativen Willensbildung befähigt sein, und Informationen erhalten, was geschieht, auf was man verzichtet und welche Risiken, Chancen und Alternativen mit der Einwilligung einhergehen. Dabei ist die Einwilligung keine rechtliche Willenserklärung sondern ein Ausdruck des Selbstbestimmungsrecht und kann im Gegensatz zu geschlossenen Verträgen jederzeit widerrufen werden.

Der abschließende Vortrag von Dr. jur. Thilo Weichert vom Netzwerk Datenschutzexpertise behandelte die Themen Sensorik, automatische Entscheidungen und Persönlichkeitsschutz. Mit den technischen Entwicklung unter anderem im Mobile Computing und Social Communities wird es möglich automatisiert personalisierte Entscheidungen zu treffen. Beispiele sind hier unter anderem in Medizin, Spiel, Werbung und Arbeitswelt, die auch große Risiken beinhalten können: Durch intransparente Kreditscoring-Verfahren kann das Leben von Menschen beispielsweise radikal beeinflusst werden. Ebenso drohen der Verlust der Vertraulichkeit und Wahlfreiheit, es wird Tür und Tor der Diskriminierung und Manipulation geöffnet und Menschen können schaden nehmen. Daher muss es sowohl eine unbedingte Beachtung der datenschutzrechtlichen Grundlagen und gleichzeitig eine Achtung vor Kernbereichen privater Lebensgestaltung ganz im Sinne von Artikel 7 der europäischen Grundrechte-Charta geben, was in globaler Sicht große Herausforderungen beinhaltet.

Der Workshop bot ein gebündeltes Bild zur rechtwissenschaftlichen Begleitforschung und war für die Teilnehmenden in vielen Aspekten relevant und lehrreich. Die Darstellung der Fragestellungen und Erkenntnissen aus thematisch verwandten Projekten wird für die Umsetzung im Terrain Projekt eine große Hilfe sein. Besonderer Dank gilt Prof. Dr. Wolfgang Schild und Dr. Thilo Weichert, dass sie uns für persönliche Kommentare in dieser Folge zur Verfügung standen.

Weiterführende Informationen

Neues-Terrain-04 – Orientierungsveranstaltung

Im Studienzentrum für Sehgeschädigte sprachen Susanne Schneider und Gerhard Jaworek über die Orientierungsveranstaltung für Schülerinnen und Schüler: Orientierungsveranstaltung (1:38:38, 45MB)

Das von Prof. Dr. Rainer Stiefelhagen geleitete Studienzentrum ist eine interfakultative Einrichtung, die der Informatik zugeordnet ist, und gleichzeitig ein Lehrstuhl. Entstanden ist es aus einem Modellversuch 1987 bis 1993, der Blinden und Sehbehinderten durch Studienmöglichkeiten neue Berufsfelder eröffnen sollte. Der Versuch war so erfolgreich, dass das Studienzentrum zur festen Einrichtung wurde und ist seit 2011 Lehrstuhl mit Professur. Zentrale Aufgaben sind dabei die Unterstützung Blinder und Sehbehinderter Studierender vor ihrem Studium, während des Studiums und beim Übergang in die Arbeitswelt nach dem Studium.

Ein wichtiges Aufgabenfeld des Studienzentrums ist daher die Information von Studieninteressierten und auch deren Betreuungspersonen. Letzteres wird besonders durch die drei-tägige Orientierungsveranstaltung realisiert, die von Susanne Schneider geplant, organisiert und durchgeführt wird. In den Themen geht es um Arbeitsausstattung, was sind Fragen der Orientierung und Mobilität (O&M), welche Unterstützung ist im Studium erforderlich, wie ist die Wohnsituation, und wer kann helfen, wenn es um juristische Fragestellungen geht. Die Veranstaltung findet jährlich von Montag bis Mittwoch vor dem Feiertag Christi Himmelfahrt statt. Grundsätzlich sollten Blinde und Sehbehinderte an allen Universitäten in Deutschland studieren können, da alle Universitäten Behindertenbeauftragte haben sollten, die bei Schwierigkeiten für die Studierenden angemessene Lösungen finden sollen. Der Workshop soll hier den Interessierten schon im Vorfeld helfen, offene Fragen zu klären und erforderliche Aufgaben anzugehen.

Das Studienzentrum für Sehgeschädigte (SZS) überdacht drei Säulen im Auftrag für Service und Forschung für Menschen mit Blindheit oder Sehbehinderung: Die erste Säule ist die Studienvorbereitung, hier geht es um Bundesweite Orientierungsveranstaltung für Studieninteressierte, Unterstützung bei der Auswahl von technischen Hilfsmitteln, Einweisung in spezifische Lern- und Arbeitstechniken und Beratung bei der Studienfachplanung. Die zweite Säule ist die Studienbegleitung: Hier geht es um Literaturumsetzung/- Anpassung, Schulung von Tutoren, Unterstützung in Lehrveranstaltungen und bei Prüfungen, Förderung von Auslandssemestern und Regelmäßige Semestertreffen für Studierende. Die dritte Säule ist die Berufsvorbereitung durch Unterstützung bei Industriepraktika im In- und Ausland, Bewerbungstraining für Studierende und Absolventen und Kontakte zu Arbeitgebern (Industrie/ Öffentlicher Dienst). Als Fundament gilt hier die Forschung und Lehre zum Thema Assistive Technologien und Informationstechnologien für Menschen mit Sehschädigung, Beratung, Schulungen und Taktiker Druckservice.
Die drei Säulen des Studienzentrum für Sehgeschädigte (SZS)

Da Interessierte aus dem ganzen Bundesgebiet anreisen, kommt es vor, dass es ein Wiedersehen mit Bekannten von anderen Veranstaltungen wie dem International Camp on Computers and Communication (ICC) an dem Gerhard Jaworek letztes Jahr auch teilnahm und dort Workshops zur Astronomie und dem Textsatzsystem LaTeX anbot.

Informationen werden im Vorfeld an Schulen, Verbände und Hilfsmittelhersteller versendet und auch Daten über mögliche Unterbringungsmöglichkeiten in Karlsruhe bereitgestellt. Die Teilnehmenden können komplett selbstständig oder mit Betreuungspersonen anreisen, das Studienzentrum bietet nach Absprache aber auch Möglichkeiten zur Anreiseunterstützung in Karlsruhe an.

Die Veranstaltung beginnt nach einer kurzen Vorstellung des Studienzentrums mit einer gegenseitigen Vorstellungsrunde der Interessierten, Begleitpersonen, Mitarbeitenden und aktuellen Studierenden mit Seheinschränkungen des KITs. Ein wichtiger Einstieg sind dabei die Erfahrungsberichte der Studierenden über ihren Beginn des Studiums, ihre Eindrücke, erlebte Herausforderungen und wie sie sei bewältigen konnten. Darauf schließt sich als ein aktives Element ein gemeinsamer und betreuter Besuch der Mensa auf dem Campus Süd des KIT an.

Im nächsten Programmpunkt wird die Arbeit des Studienzentrum vorgestellt, aufgeteilt in die Gruppen der Blinden und Sehgeschädigten, damit hier verschiedene Schwerpunkte gesetzt werden können. Dabei geht es sowohl um zur Verfügung stehende Hilfsmittel, Dienste wie der Literaturumsetzung wie auch die Fähigkeiten der Studieninteressierten. Hier können Hinweise gegeben werden, ob vor dem Studium noch Kurse zum Orientierungs- und Mobilitätstraining sinnvoll sind, beispielsweise die Braille-Fertigkeiten verbessert werden sollten oder das für das Studium sehr wichtige Tippen mit zehn Fingern trainiert werden sollte.

Ein wichtiges Thema ist auch der Nachteilsausgleich für Studierende mit Sehbeeinträchtigung. Am KIT fällt dies in den Arbeitsbereich von Frau Angelika Scherwitz-Gallegos, und betrifft natürlich auch besonders den Ablauf von Klausuren: Hier muss entweder inhaltlich genau die gleiche Prüfung unter eventuell leicht veränderten Rahmenbedingungen bestanden werden, oder in Ausnahmefällen von nicht durchführbaren Aktionen wie dem Umgang mit explosiven Chemikalien äquivalente Ersatzleistungen erbracht werden.

Am KIT gibt es auch ein Sportangebot, und so wird am Nachmittag des ersten Tages auch der Hochschulsport vorgestellt. Neben den Fitnessangeboten wird bei gutem Wetter oft auch die Slackline vorgestellt. Gerade für Menschen mit Sehschädigung ist es sehr wichtig mit Sport den eigenen Körper zu trainieren und kennenzulernen und hier das Angebot im Studium auch zu nutzen. Parallel dazu haben die Begleitpersonen einen Zeitbereich zum Austausch, denn auch für die Unterstützung gibt es spezifische Fragestellungen, die gesondert vertieft werden können. An den beiden Abenden wird die Orientierungsveranstaltung mit einem gemeinsamen Abendessen abgeschlossen und ermöglicht ein besseres Kennenlernen und eine lockere Umgebung für noch offen gebliebene Fragen.

Der zweite Tag beginnt mit vielen Referenten zu Fragestellungen wie den Wohnmöglichkeiten in Studierendenwohnheimen vom Studierendenwerk, zur Finanzierung der persönlichen Arbeitsmittel, der Eingliederungsunterstützung durch die Stadt Karlsruhe und auch zum Orientierungs- und Mobilitätstraining mit dem Sehwerk. Hier wird auch verdeutlicht, dass für die Vorbereitung des Studiums mindestens ein halbes Jahr an Vorlauf für Anträge, Bewerbung für geeigneten Wohnheimplatz und weiteren Terminen einzuplanen sind.

Regelmäßig folgt ein Beitrag der RBM Rechtsberatung „Rechte behinderter Menschen“ wo Möglichkeiten bei abgelehnten Bescheiden oder Anträgen, sowie das Vorgehen bei Klagen oder sozial- und verwaltungsrechtlichen Fragen angerissen werden. Es ist auch sehr empfehlenswert einem Selbsthilfeverein, beispielsweise dem Deutschen Blinden- und Sehbehindertenverbandes e.V., beizutreten, da einem dann dieser Rechtsbeistand kostenlos zusteht. Darüber hinaus hilft die Mitgliedschaft auch sehr in der Lobbyarbeit wie beispielsweise in der Diskussion zum Bundesteilhabegesetz.

Nach einem zweiten Besuch der Mensa am Mittag schließen sich am Nachmittag Besuche einer Wohnung in einem Studierendenwohnheim und der KIT-Bibliothek an, wo man weitere Eindrücke vom Leben und Lernen an einer Universität erhalten und dazu Fragen stellen kann. Darüber hinaus werden möglichst auch Besuche bei den Fakultäten den anvisierten Studienrichtungen ermöglicht, damit ein früher Kontakt mit den Lehrkräften ermöglicht wird.

Der Schritt ins Studium ist nicht nur ein Schritt in eine universitäre Umgebung, sondern oft auch ein Schritt in eine größere Selbstständigkeit. Oft müssen dazu auch weitere Fertigkeiten erlernt werden, wie das Kochen oder die eigene Wäsche zu machen. Auch hier gibt es Trainingsangebote (LPF = lebenspraktische Fähigkeiten) wie vom Sehwerk, die helfen, auch diesen Schritt gut zu meistern.

Am dritten Tag besteht die Möglichkeit an einer Vorlesung teilzunehmen, um einen Eindruck von diesen Veranstaltungen zu erhalten und beispielsweise auch die eigenen Hilfsmittel in der Vorlesungssituation zu testen. Weiterhin werden individuelle Gespräche angeboten und nach einem letzten gemeinsamen Mittagessen werden Eindrücke ausgetauscht und Rückmeldungen zur Veranstaltung gegeben.

Auch wenn die Veranstaltung regelmäßig am Karlsruher Institut für Technologie stattfindet, so richtet sie sich bundesweit an alle Interessierte, die sich mit Blindheit oder Sehbehinderung für ein Studium interessieren.

 

 

Neues-Terrain-03 – Innovationsforschung

Nora Weinberger und Sebastian Ritterbusch unterhalten sich über Innovationsprozesse in der Technologieentwicklung und das Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) am Karlsruher Institut für Technologie (KIT): Innovationsforschung (2:05:08, 58MB)

Die Analyse von Technikfolgen und den Wechselwirkungen von Technik und Gesellschaft ist äußerst interessant für Themenfelder wie beispielsweise die sozialen Medien in der Wissensgesellschaft, die Endlagersuche für nukleare Endprodukte im Energiesektor, wie auch den Umgang mit dem demographischen Wandel und der Nachhaltigkeit. Viele der Themen sind gesellschaftliche Grand Challenges und werden teilweise schon aus historischen Gründen am KIT länger untersucht: Das in das KIT eingeflossene ehemalige Forschungszentrum Karlsruhe hatte beispielsweise einen Forschungsbereich zur Kernkraft. Der Institutsleiter Prof. Dr. Armin Grunwald war so auch am Abschlussbereicht der Kommission zur Lagerung hoch radioaktiver Abfälle beteiligt und ist Mitglied im unabhängigen Nationalen Begleitgremium zur Endlagersuche.

Das ITAS ist nicht nur räumlich vom KIT Campus Nord in die Innenstadt und die Gesellschaft gezogen, sondern sucht in vielen Richtungen den Kontakt zu den eigentlichen Experten für den „Lebensalltag“. Ein Beispiel, wie das ITAS die Ergebnisse und Kontroversen zur Diskussion aktiv zu den Bürgerinnen und Bürgern bringt, ist die Veranstaltungsreihe  Technik Kontrovers: Hier werden nicht nur Themen vorgestellt, sondern intensiv die Beteiligung von Bürgerinnen und Bürgern in Entscheidungsprozesse gefördert.

Das Arbeitsgebiet von Nora Weinberger im Terrain Projekt liegt im Bereich der Innovationsforschung: Unter dem Begriff Innovation versteht man hier sowohl die technische Innovation als auch die soziale Innovation in Kombination. Die Betrachtung des Begriffs stellt auch die Frage, welche Innovationen und Technik sich betroffene Menschen eigentlich wünschen. Denn zu leicht können technische Innovationen an den Bedürfnissen der Gesellschaft vorbeigehen. So kann man auf der einen Seite noch im Innovationsprozess unerwünschten Technikfolgen entgegentreten und durch die frühe Beteiligung auch eine höhere gesellschaftliche Akzeptanz erzeugen. Die Veränderungen, die sich in der Gesellschaft durch technische Innovationen ausbilden können, sind ein Aspekt der sozialen Innovationen, die die technische Seite im optimalen Fall begleiten und unterstützen, aber auch eine ganz eigene Entwicklung ausbilden können.

Eine besondere Herausforderung ist dabei die Technikvorausschau, die in Zusammenarbeit mit Experten verschiedener Bereiche erstellt wird. Dabei wird jedoch keine Zukunft vorhergesagt, sondern es werden mögliche Zukünfte, also mögliche Zukunftsszenarien, diskutiert und analysiert. Wirksam werden die verschiedenen Zukünfte durch ihre Wirkungen, und in der neutralen Bewertung der Folgen können Risiken von Entwicklungen sachlich behandelt und damit beispielsweise politische Entscheidungsträger beraten werden. Dies ist unter anderem ein Arbeitsgebiet des durch das ITAS betriebene Büro für Technikfolgenabschätzung am Bundestag (TAB).

Ein großes Themengebiet der ITAS ist der demographische Wandel, also der Alterung der Gesellschaft und den unter anderem damit verbundenen steigenden Anforderungen im Bereich der Pflege. Wo zunächst eine Abneigung gegen technische Lösungen vorwiegen kann, ermöglicht die Teilhabe und Partizipation eine gesteigertes Akzeptanzbewusstsein und Interesse an neuen Verfahren.

Ein Aspekt der alternden Gesellschaft ist die stark steigende Anzahl von Menschen mit Demenz. Demenz ist dabei ein Sammelbegriff für ein Phänomen, das fortschreitend verläuft und durch schwere Verluste höherer kognitiver Funktionen, insbesondere des Gedächtnisses, des Denkens, der Orientierung, der Lernfähigkeit, der Sprache, aber auch des Urteilsvermögens, gekennzeichnet ist. Neben den beschriebenen kognitiven Einbußen gehen Veränderungen des Gefühlslebens, aber auch des Verhaltens mit der Demenz einher, die sich zu Depressivität, Wahn und extremer Unruhe entwickeln können. Mit dem Fortschreiten der Demenz ist ein zunehmender Verlust der geistigen Leistungsfähigkeit festzustellen, der sich unter anderem in einer abnehmenden Fähigkeit zeigt, Alltagsprobleme eigenständig zu lösen, sodass Menschen mit Demenz einen zunehmenden Selbständigkeitsverlust erleben und immer mehr auf Unterstützung angewiesen sind.

Die extreme Unruhe von Menschen mit Demenz kann sich dabei in einem hohen Bewegungsdrang (sog. „Wandering“) äußern. In Kombination mit den beschriebenen Defiziten können diese zu einem Selbstgefährdungspotential führen, weil eine örtliche Orientierung kaum oder gar nicht mehr möglich ist. Andererseits wird gerade Bewegung als Intervention zur Aktivierung der Gehirnfunktion und zur Teilhabe am sozialen Leben empfohlen. Die Bewegung kann damit als eine wirkungsvolle und nebenwirkungsarme Schlüsselkomponente bei der Pflege und Betreuung von Menschen mit Demenz angesehen werden. Mit ihr ist sowohl eine motorische als auch eine sensorische, aber auch eine soziale Aktivierung verbunden, die sich auf die subjektive Lebensqualität und den funktionellen Status der Menschen mit Demenz auswirken und dazu beitragen, Stürze, Kontrakturen sowie Dekubitus zu verhindern. So können bestehende Ressourcen so lange wie möglich erhalten, und eine hohe Pflegeintensität kann hinausgezögert werden. Die Realisierung von Bewegung vor allem außerhalb der Einrichtung stellt allerdings die Pflegenden, die Bewohner und deren Angehörige, aber auch die Bürger im Quartier vor eine dilemmatische Situation: Einerseits soll die Selbstständigkeit der Menschen mit Demenz gefordert und gefördert werden, andererseits besteht in Abhängigkeit von der Tagesform und den individuellen kognitiven Fähigkeiten der Wunsch der Pflegenden und der Angehörigen nach Sicherheit, was dann häufig mit Formen von Freiheitsentzug korreliert. Dies führt dazu, dass die eigentlich gewollte Selbstbestimmung und Selbstständigkeit durch Sicherheitserwägungen und Furcht vor Selbstgefährdung eingeschränkt wird. Hieraus folgend muss es in der pflegerischen Praxis darum gehen, das dargelegte Spannungsfeld von Freiheit und Selbstbestimmung versus Sicherheit mit den Beteiligten zu thematisieren und Bewegung innerhalb und außerhalb der Einrichtung zu ermöglichen. Ziel ist es, das „Draußen aktiv“ unter dem Motto: „So viel Freiheit wie möglich, so viel Schutz wie nötig“ zu gestalten.

Ausgehend von diesen spezifischen Problemlagen widmete sich das Movemenz-Projekt der Fragestellung, ob und wie zu entwickelnde technische Artefakte Formen der Unterstützung anbieten können, um die Grundanforderung „Bewegung“ in einem gerahmten Pflegesetting aufrechterhalten, bzw. zu unterstützen. Dafür hat das Forschungsteam die Institutionen für einige Wochen zur teilnehmenden Beobachtung besucht und anschließend mit den beteiligten Personen (Betroffenen, Pflege- und Betreuungskräften, Angehörigen und Ehrenamtlichen sowie Vertretern des Quartiers) die auf Mobilitätsaspekte bezogenen Ergebnisse besprochen. In einem weiteren Schritt wurden die Beobachtungen mit einem Team von Technikentwicklern diskutiert, um technische Lösungsansätze und Entwicklungsmöglichkeiten zu erforschen.

Basis für die Vorgehensweise im Projekt war der Ansatz der Grounded Theory: Hier wurden alle für die Forscher und Allgemeinheit verfügbaren Informationen wie Webseiten oder die teilnehmende Beobachtung genutzt, um daraus unbeeinflusste Thesen zu formulieren und zu begründen. Die Grounded Theory ist ein weit akzeptiertes sozialwissenschaftliches Vorgehen, um strukturiert und begründet Erkenntnisse erhalten, und erinnert in gewisser Weise nach einem Design Pattern aus der Informatik. Im skandinavischen Film Kitchen Stories von 2003 wird das gewählte Vorgehen der teilnehmenden Beobachtung einer kritischen und gleichzeitig humoristischen Betrachtung unterzogen.

Ein Ergebnis und Beispiel für eine mögliche Innovation, die sich statt aus einem Technology Push aus den Beobachtungen, Diskussionen mit Betroffenen und den Technikentwicklern also einem Demand Pull herausgebildet hat, ist die Möglichkeit Menschen mit Ortslokalisierung zu helfen. Diese Technikdee wird zusammen mit einer starken sozialen Innovation einem unterstützenden Helfernetz im QuartrBack-Projekt untersucht.

Den Ansatz neben dem Technology Push auch den Demand Pull zu setzen und im Vorfeld die Technikfolgen zu beachten wird auch im Terrain Projekt umgesetzt: So werden entsprechend interdisziplinäre Experten befragt, um weitere Anforderungen und Aspekte frühzeitig in die Entwicklung einfließen zu lassen. Ebenso werden im Projektverlauf mit Bürgerbeteiligung auch intensiv mögliche Technikfolgen und vorab Bedenken, aber auch Chancen des Technikeinsatzes untersucht.

Publikationen und weiterführende Informationen

Podcast

 

Neues-Terrain-02 – Blind Orientieren

Gerhard Jaworek und Sebastian Ritterbusch sprechen über Hilfsmittel für Menschen mit Blindheit zur Unterstützung von Orientierung und Mobilität (O&M) von damals bis heute: Blind Orientieren (2:49:21, 77MB)

Der Langstock ist das wichtigste Hilfsmittel in der Fortbewegung. Durch das Pendeln in der Bewegung wird etwa die Körperbreite abgetastet, unter anderem um Hindernisse zu erkennen und auch den Untergrund wahrzunehmen. Am Untergrund kann man Wegbegrenzungen und taktile Bodenindikatoren, die Bestandteil von Blindenleitsystemen sind, gut erkennen.

Eine besondere Herausforderung ist das Überqueren von größeren Freiflächen und Plätzen, hier war der Blindenkompass ein sehr gutes Hilfsmittel: Frühere Modelle bestanden aus einer sich mit Magnetfeld zunächst frei ausrichtenden Platte, die zum Ablesen fixiert werden konnte. Auf der Scheibe sind die Himmelsrichtungen und weitere Unterteilungen durch Punktschrift aufgebracht. Zum Einhalten einer Richtung beim Überqueren eines Platzes kann man nun regelmäßig die gewählte Himmelsrichtung kontrollieren und sich bei Bedarf neu ausrichten.

Sehr wichtig ist auch die Nutzung des Gehörs: Neben den Geräuschen der Umwelt können Schnalzlaute, Klicken oder Klatschen die Umgebung durch Echoortung erfahrbar machen und helfen, Ampelmasten, Abzweigungen und Eingänge zu finden. Inzwischen ist das Klicksonar wichtiger Bestandteil vieler Mobilitätstraining.

Die Verwendung von GPS-Trackern hat sich auch früh als sehr hilfreich herausgestellt. Bis zum Jahr 2000 wurde das GPS-System im Zuge der Selective Availability absichtlich gestört und konnte für die Öffentlichkeit nur eine Genauigkeit von 100m erreichen. Für Blinde wurde GPS interessant, als diese Ungenauigkeit aufgehoben wurde.

Mit sprechenden Trackern konnten Pfade aufgezeichnet und wiederholt werden. Außerdem konnten diese als Dateien anderen Personen zur Verfügung gestellt werden. Die einzelnen Punkte wurden jeweils mit Richtungsangaben, wie auf einem Ziffernblatt einer Uhr, vermittelt, z.B. „Bäcker XY in 200m auf 11 Uhr“. Das manuelle Setzen von Pfadpunkten erforderte dabei einige Überlegungen. Die Landmarken müssen stets eindeutig und gleichzeitig robust gegenüber Ungenauigkeiten des GPS sein.

Ein weiteres verbreitetes Mittel waren auch taktile Karten und Globen- hier wurden und werden Karten fühlbar gedruckt oder gefertigt, damit sie erfahrbar werden. Leider sind diese oft recht groß und unhandlich, so dass sie nicht mobil sind. Einfache schematische Darstellungen, z.B. die Form einer Kreuzung, X-, Y- oder T-Kreuzung können von Mobilitätstrainern oder Begleitpersonen einfach auf die Hand oder den Rücken der blinden Person gezeichnet werden.

Viele der früheren Hilfsmittel vereinen sich heute in aktuellen Smartphones- exemplarisch sprechen wir über die Features der Apple iPhones, die auf die eine oder andere Art auch auf Smartphones mit anderen Betriebssystemen und Hersteller umgesetzt sind. Im Falle der Apple-Produkte wird die Zugänglichkeit mit dem in das iOS-System integrierten Bildschirmleseprogramme VoiceOver realisiert. Sprachausgabe und veränderte Bedientesten machen dies möglich. Hier können blinde Personen sich beispielsweise Bedienelemente auf dem Touchscreen vorlesen lassen, bevor sie bei Bedarf ausgewählt werden. Ein nettes Feature von VoiceOver ist der sogenannte Bildschirmvorhang. Ist er aktiv, so wird die Beleuchtung ausgeschaltet, die Touch-Funktion bleibt aber erhalten. Somit kann der Akkuverbrauch gesenkt werden und blinde Benutzer können sich sicher sein, dass niemand unbefugtes in ihren Bildschirm schaut.

Für die Eingabe von Texten bietet der Multitouch-Bildschirm mehrere Möglichkeiten- neben der ertastenden Methode des Tippens wie auf einer Tastatur mit sprachlicher Rückmeldung gibt es auch die Braille-Tastatur, bei der jedes Zeichen durch eine Drückkombination von sechs Fingern im Sinne des Braillezeichens erfolgt. Damit können Texte sehr schnell eingegeben werden. Eine weitere Alternative ist auch die Spracheingabe für Texte.

Sehr passend sind dafür auch die neuen Entwicklungen bei Smartwatches, so ist beispielsweise die Apple Watch genauso mit VoiceOver zu bedienen und sie liefert bei vielen Anwendungen eine Bedienung des Smartphones ohne dieses aus der Tasche nehmen zu müssen. Zusätzlich sind haptische Signale, die Smartwatches liefern, eine große Bereicherung in der Signalisierung für Navigation und Anwendungen.

Eine sehr hilfreiche App ist die mitgelieferte Kompass-App, die das Überqueren von Freiflächen und Plätzen deutlich vereinfacht- anstatt dass man beim mechanischen Kompass immer wiederholt die Richtung testet bekommt man hier kontinuierlich die Ausrichtung und damit die Gehrichtung vermittelt.

Zusammen mit einem Vario kann man mit dem Kompass auch eine gute Orientierung als Mitfliegender im Segelflug erhalten. Einen Eindruck von einem Flug mit einem Motorsegler kann man in der ersten Folge des Omega Tau Podcasts erhalten, denn hier hört man nur und sieht nichts. Das soll nicht heißen, dass Blinde alleine ohne sehende Hilfe Segelfliegen können, aber Gerhard Jaworek fliegt mit Begleitung und navigiert und steuert nach Anweisungen des Piloten, des Marios und des sprechenden Kompasses.

Auch für die Orientierung am Nachthimmel ist der Kompass sehr hilfreich, wie auch die App Universe2Go, zu der Gerhard Jaworek auch beigetragen hat. Universe2Go ist ein sprechendes Handplanetarium, mit dessen Hilfe blinde Menschen auch Objekte Himmel finden können.

Weiterhin gibt es viele Navigations- und Orientierungsapps auf Smartphones. Sehr bekannt und populär ist die App BlindSquare, die aus der Open Street Map und Foursquare über die Umgebung informiert. Durch Filter nach Typen und Distanz werden alle bekannten Gebäude und Orte in Richtung und Entfernung in Sprache dargestellt. Dies hilft nicht nur der direkten Orientierung, sondern ermöglicht auch die Erstellung einer Mental Map bzw. kognitiven Karten

Die Nutzung solcher akustischer Informationen ist natürlich nicht mit normalen Over-Ear oder In-Ear Kopfhörern möglich, denn der normale Hörsinn darf nicht blockiert werden. Hier sind Kopfhörer mit Knochenleitung und Bluetooth-Anbindung eine sehr gute Lösung, da sie die akustischen Signale und Sprachausgaben hörbar machen ohne das normale Hören zu behindern.

Ergänzend zu Umgebungsinformationen sind Navigationslösungen ein wichtiges Hilfsmittel. Ein Beispiel ist hier die Lösung von Navigon, die neben einer Fußgängernavigation, einer guten Unterstützung über VoiceOver zusätzlich die Karten auch offline- also ohne Netzverbindung- zur Verfügung stellt.

Die Mailingliste Apple-Freunde bietet eine gute deutschsprachige Plattform über die Zugänglichkeit von Apple-Produkten und Apps auf den mobilen Geräten.

Eine kostenlose Navigationslösung ist die App ViaOptaNav, die durch große und kontrastreiche Bedienungselemente auch für Personen mit eingeschränktem Sehsinn leichter zu bedienen ist. Sehr schön ist hier auch der Routenüberblick, der im Vorfeld eine virtuelle Begehung des Weges ermöglicht. Zusätzlich können wie bei BlindSquare auch Umgebungsinformationen abgerufen werden, sie beschränkt sich aber auf die Informationen aus dem Kartenmaterial. Außerdem bietet diese App auch eine gute Anbindung an die Smartwatch.

Ebenfalls gut an die Smartwatch angebunden ist die mit dem Smartphone mitgelieferte Navigationslösung von Apple. In manchen Fällen ist auch die Google Maps Lösung sehr hilfreich, besonders, wenn der öffentliche Nahverkehr in die Navigation mit eingebunden werden soll.

Für das Aufzeichnen, Weitergeben und spätere Ablaufen von Wegen über GPS-Punkte bietet sich die iOS-App MyWay an. Es gibt sie in einer kostenlosen MyWay Lite Version und in der MyWay Classic in der auch Informationen über die Umgebung abgerufen werden können.

Zum Mobilitätstraining gehört weiterhin die haptische Vermittlung von Kreuzungstypen und Karten. Zum Zeitpunkt der Aufnahme bietet Touch Mapper einen besonders interessanten Service: Nach Angabe einer Adresse und der gewünschten Auflösung kann man sich eine taktile Karte senden lassen. Alternativ kann man kostenlos ein 3D-Modell herunterladen, das man mit einem 3D-Drucker drucken kann.

Viele der erwähnten Lösungen verwenden Kartendaten der Open Street Map (OSM), die durch die Zusammenarbeit vieler Menschen entstanden ist und frei zur Verfügung steht. Bisher kann diese freie Karte nicht überall mit der definierten Qualität von kommerziellen Kartenquellen mithalten, doch ist sie in manchen Bereichen sogar aktueller und genauer als die kommerziell erhältlichen Lösungen. Neben monatlichen Treffen bietet die Karlsruher OSM-Community auch halbjährlich größere Events an. Das nächste ist das Karlsruhe Hack Weekend 28.-30. Oktober 2016.

Informationen über die öffentlichen Verkehrsmittel in der Umgebung erhält man beispielsweise über den Abfahrtsmonitor – hier können die nächsten Haltestellen mit den nächsten Verbindungen abgerufen werden. In Karlsruhe ist das Stadtbahnsystem etwas besonderes: Als erste Zweisystem-Stadtbahn der Welt konnten die S-Bahnen sowohl in der Stadt als auch auf Strecken der Bahn fahren.

Für die Auswahl und Abfrage für Züge der Deutschen Bahn gibt es den DB-Navigator für eine Vielzahl von verschiedenen mobilen Plattformen. Die Deutsche Bahn bietet auch online buchbare Umstieghilfen an, die man mindestens einen Tag vor der Reise buchen kann. Letztlich können mit der MyTaxi App auch Taxis geordert und auch bezahlt werden.

Eine besondere Lösung ist die App BeMyEyes, wo blinde Personen Anfragen stellen können, die von Sehenden über eine Videoverbindung beantwortet werden, z.B. ob die Kleidung farblich zusammenpasst, oder was der in die Kamera gezeigte Tetrapack enthält. Auch die fest installierte Foto-App auf dem iPhone ist mit VoiceOver bedienbar. Durch Rückmeldungen, wann und wo ein Gesicht zu sehen ist, können auch blinde Menschen zumindest Personen fotografieren. Das wird sich aber künftig sicherlich auch auf andere Gegenstände ausweiten.

Ganz ohne Technik ist und bleibt der Blindenführhund für viele blinde Personen eine sichere und lebhafte Lösung für die individuelle und unabhängige Mobilität. Was ihn auszeichnet, ist z.B. die erlernte intelligente Gehorsamsverweigerung. Der Hund begibt sich und seinen blinden Besitzer niemals in Gefahr und verweigert einen Befehl, der eine derartige Situation herbeiführen würde.

Podcasts

Neues-Terrain-01 – Freiflächen

Daniel Koester (cv:hci) und Sebastian Ritterbusch (iXpoint) erklären, wie Computer für uns den freien Weg vor unseren Füßen erkennen können:
Freiflächen (2:10:58, 62MB)

Im Gespräch mit Daniel Koester am Computer Vision for Human-Computer Interaction Lab (cv:hci) geht es um die Erkennung des freien Weges vor unseren Füßen. Das cv:hci befasst sich mit der Fragestellung, wie Menschen mit Computer oder Robotern interagieren, und wie gerade die Bildverarbeitung dazu beitragen kann. Das Thema lässt sich auch gut mit dem Begriff der Anthropromatik beschreiben, der von Karlsruher Informatikprofessoren als Wissenschaft der Symbiose von Mensch und Maschine geprägt wurde und im Institut für Anthropromatik und Robotik am Karlsruher Institut für Technologie (KIT) erforscht und gelebt wird. So wurde der ARMAR Roboter, der elektronische Küchenjunge (Video), ebenfalls am Institut an der Fakultät für Informatik  entwickelt.

Schon früh stellte sich heraus, dass die Steuerung von Programmierung von Computern mit höheren Programmiersprachen wie Fortran, BASIC oder Logo durch Anlehnung an die menschliche Sprache große Vorteile gegenüber der Verwendung der Maschinensprache besitzt. Damit liegt das Thema ganz natürlich im Bereich der Informatik ist aber auch gleichzeitig sehr interdisziplinär aufgestellt: Das Team des KaMaRo (Folge im Modellansatz Podcast zum KaMaRo und Probabilistischer Robotik) entwickelt den Roboter in einem Team aus den Disziplinen Maschinenbau, Elektrotechnik und Informatik.

Mit der Freiflächenerkennung befasst sich Daniel Koester seit seiner Diplomarbeit, wo er die Frage anging, wie die Kurzstreckennavigation für blinde Personen erleichtert werden kann. Hier besteht eine Herausforderung darin, dass zwischen einer Fußgängernavigation und der Umgebungserfassung mit dem Blindenlangstock eine große informative Lücke besteht. Nach Abschaltung der Selective Availability des GPS liegt die erreichbare Genauigkeit bei mehreren Metern, aber selbst das ist nicht immer ausreichend. Dazu sind Hindernisse und Gefahren, wie Baustellen oder Personen auf dem Weg, natürlich in keiner Karte verzeichnet. Dabei können Informationen von anderen Verkehrsteilnehmern Navigationslösungen deutlich verbessern, wie das Navigationssystem Waze demonstriert.

Die Erkennung von freien Flächen ist außer zur Unterstützung in der Fußgängernavigation auch für einige weitere Anwendungen sehr wichtig- so werden diese Techniken auch für Fahrassistenzsysteme in Autos und für die Bewegungssteuerung von Robotern genutzt. Dabei kommen neben der visuellen Erfassung der Umgebung wie bei Mobileye auch weitere Sensoren hinzu: Mit Lidar werden mit Lasern sehr schnell und genau Abstände vermessen, Beispiele sind hier das Google Driverless Car oder auch der KaMaRo. Mit Schall arbeiten Sonor-Systeme sehr robust und sind im Vergleich zu Lidar relativ preisgünstig und werden oft für Einparkhilfe verwendet. Der UltraCane ist beispielsweise ein Blindenstock mit Ultraschallunterstützung und der GuideCane leitet mit Rädern aktiv um Hindernisse herum. Mit Radar werden im Auto beispielsweise Abstandsregelungen und Notbremsassistenten umgesetzt.

Die hier betrachtete Freiflächenerkennung soll aber keinesfalls den Langstock ersetzen, sondern das bewährte System möglichst hilfreich ergänzen. Dabei war es ein besonderer Schritt von der Erkennung bekannter und zu erlernenden Objekte abzusehen, sondern für eine größere Robustheit und Stabilität gerade die Abwesenheit von Objekten zu betrachten. Dazu beschränken sich die Arbeiten zunächst auf optische Sensoren, wobei Daniel Koester sich auf die Erfassung mit Stereo-Kamerasystemen konzentriert. Grundsätzlich ermöglicht die Analyse der Parallaxe eine dreidimensionale Erfassung der Umgebung- dies ist zwar in gewissem Maße auch mit nur einer Kamera möglicht, die sich bewegt, jedoch mit zwei Kameras in definiertem Abstand wird dies deutlich leichter und genauer. Dies entspricht dem verbreiteten stereoskopischen Sehen von Menschen mit Augenlicht, doch mitunter kommt es zu Situationen, dass Kinder bei einem schwächeren Auge das stereoskopische Sehen nicht erlernen- hier können temporär Augenpflaster zum Einsatz kommen.

Zur Rekonstruktion der Tiefenkarte aus einem Stereobild müssen zunächst korrespondierende Bildelemente gefunden werden, deren Parallaxenverschiebung dann die Bildtiefe ergibt. Ein Verfahren dazu ist das Block-Matching auf Epipolarlinien. Für ein gutes Ergebnis sollten die beiden Sensoren der Stereo-Kamera gut kalibriert und die Aufnahmen vor der Analyse rektifiziert sein. Die Zuordnung gleicher Bildelemente kann auch als lokale Kreuzkorrelation gesehen werden. Diese Tiefenrekonstruktion ist auch den menschlichen Augen nachempfunden, denen durch geeignete Wiederholung zufälliger Punkte in einem Bild eine räumliche Szene vorgespielt werden kann. Dieses Prinzip wird beim Stereogrammen oder Single Image Random Dot Stereogram (SIRDS)  ausgenutzt. Weiterhin muss man die Abbildungseigenschaften der Kameras berücksichtigen, damit die Parallaxverschiebungen auf horizontalen Linien bleiben. Ebenso müssen Vignettierungen ausgeglichen werden.

Algorithmen, die nur lokale Informationen zur Identifikation von Korrespondenzen verwenden, lassen sich sehr gut parallelisieren und damit auf geeigneter Software beschleunigen. Für größere gleichmäßige Flächen kommen diese Verfahren aber an die Grenzen und müssen durch globale Verfahren ergänzt oder korrigiert werden. Dabei leiden Computer und Algorithmen in gewisser Weise auch an der Menge der Daten: Der Mensch ist ausgezeichnet darin, die Bildinformationen auf das eigentlich Wichtige zu reduzieren, der Computer hat damit aber große Schwierigkeiten.

Für den Flowerbox-Testdatensatz (2GB) wurden Videos mit 1600×1200 Pixeln aufgelöste und synchronisierte Kameras in Stereo aufgezeichnet. Beispiele für synchronisierte Stereokamera-Systeme im Consumer-Bereich sind die Bumblebee oder das GoPro 3D-System. Die Kameras wurden leicht nach unten gerichtet an den Oberkörper gehalten und damit Aufnahmen gemacht, die dann zur Berechnung des Disparitätenbildes bzw. der Tiefenkarte verwendet wurden. Ebenso wurden die Videos manuell zu jedem 5. Bild gelabeled, um die tatsächliche Freifläche zur Evaluation als Referenz zu haben. Der Datensatz zeigt das grundsätzliche Problem bei der Aufnahme mit einer Kamera am Körper: Die Bewegung des Menschen lässt die Ausrichtung der Kamera stark variieren, wodurch herkömmliche Verfahren leicht an ihre Grenzen stoßen.

Das entwickelte Verfahren bestimmt nun an Hand der Disparitätenkarte die Normalenvektoren für die Bereiche vor der Person. Hier wird ausgenutzt, dass bei der Betrachtung der Disparitätenkarte von unten nach oben auf freien Flächen die Entfernung kontinuierlich zunimmt. Deshalb kann man aus der Steigung bzw. dem Gradienten das Maß der Entfernungszunahme berechnen und damit die Ausrichtung und den auf der Fläche senkrecht stehenden Normalenvektor bestimmen. Die bestimmte Freifläche ist nun der zusammenhängende Bereich, bei denen der Normalenvektor ebenso aufrecht steht, wie bei dem Bereich vor den Füßen.

Die Evaluation des Verfahrens erfolgte nun im Vergleich zu den gelabelten Daten aus dem Flowerbox-Datensatz. Dies führt auf eine Vierfeld-Statistik für das Verfahren. Im Ergebnis ergab sich eine korrekte Klassifikation für über 90% der Pixel auf Basis der realistischen Bilddaten.

Die veröffentlichte Software ist im Blind and Vision Support System (BVS) integriert, in der erforderliche Module in der Form eine Graphen mit einander verknüpft werden können- bei Bedarf auch parallel. Eine ähnliche aber gleichzeitig deutlich umfassendere Architektur ist das Robot Operation System (ROS), das noch viele weitere Aspekte der Robotersteuerung abdeckt. Eine wichtige Bibliothek, die auch stark verwendet wurde, ist OpenCV, mit der viele Aspekte der Bildverarbeitung sehr effizient umgesetzt werden kann.

Die Entwicklung der Hardware, gerade bei Mobilgeräten, lässt hoffen, dass die entwickelten Verfahren sehr bald in Echtzeit durchgeführt werden können: So können aktuelle Smartphones Spiele Software des Amiga Heimcomputers in einem interpretierten Javascript Emulator auf der Amiga Software Library auf Archive.org nahezu in Orginalgeschwindigkeit darstellen.

Für die Umsetzung von Assistenzsystemen für blinde und sehgeschädigte Menschen ist aber auch immer der Austausch mit Nutzern erforderlich: So sind Freiflächen für sich für blinde Personen zunächst Bereiche ohne Orientierbarkeit, da es keinen tastbaren Anknüpfungspunkt gibt. Hier müssen entweder digitale Linien erschaffen werden, oder die Navigation sich weiter nahe an fühlbaren Hindernissen orientieren. Am cv:hci ist der Austausch durch das angeschlossene Studienzentrum für sehgeschädigte Studierende (SZS) unmittelbar gegeben, wo entwickelte Technik sich unmittelbar dem Alltagsnutzen stellen muss.

Die entwickelte Freiflächenerkennung war nicht nur wissenschaftlich erfolgreich, sondern gewann auch einen Google Faculty Research Award und die Arbeitsgruppe wurde in der Lehre für ihr Praktikum den Best Praktikum Award 2015 ausgezeichnet.

Literatur und weiterführende Informationen