Neues Terrain-12 – 11.07.2019 – Der Langstock – Hilfsmittel oder Zauberstab?

Ottmar Kappen und Christoph Erbach, beide Mobilitätstrainer bei Sehwerk, sind zu Gast bei Gerhard Jaworek vom Studienzentrum für Sehgeschädigte (SZS) am Karlsruher Institut für Technologie (KIT). Thema der Folge ist der klassische Blindenstock oder Langstock. Der Langstock (1:03:25, 43MB)

Jeder, der an blinde Menschen denkt, verbindet das meist mit dem robustesten und zuverlässigsten Hilfsmittel zur Orientierung, dem Langstock, den die blinde Person vor sich her pendelt beziehungsweise mit sich führt.

Die Geschichte, dass sich blinde Menschen mit Stöcken orientieren, geht bis in das Mittelalter zurück. Es scheint Darstellungen zu geben, die Blinde mit Stock zeigen. Auf dem Gemälde „Zug der Blinden“, das auf um 1800 geschätzt wird, geht einer mit einem Stecken voraus und andere blinde Menschen folgen.

Der klassische Langstock wurde in Frankreich von Guilly d’Herbemont entwickelt. In Deutschland hielt sich noch sehr lange bis in die 70er Jahre des letzten Jahrhunderts hinein der weiße kurze Krückstock. Der Volksmund sagt heute noch „Das sieht ja ein Blinder mit dem Krückstock“… Hauptnachteil des Krückstocks ist die zu kurze Distanz, um auf Hindernisse reagieren zu können. Er diente auch eher der Kennzeichnung und weniger der Orientierung. Die Systematisierung der Benutzung des Langstockes erfolgte 1944 durch Richard Edwin Hoover.

Der Stock sollte ungefähr bis zum Brustbein reichen. Bei Kindern, bzw. Personen, die sehr schnell unterwegs sind, etwas länger, um einen längeren Reaktionsweg zu erreichen.

Erste Experimente wurden in den 70er Jahren mit Stativ-Beinen gemacht, die man weiß anstrich. Heute kommen häufig Hightech-Materialien zum Einsatz, wie man sie vom Outdoor-Bereich her kennt, beispielsweise Carbon, Aluminium und andere Leichtmetalle bis hin zum Flugzeugstahl.

Die Machart des Stockes, also  wie viele Klappteile er besitzt, das Material des Stockes und auch der Spitze, legen fest, wie gut der Stock Bodeninformationen überträgt. Den Vorteil eines praktisch faltbaren Klappstocks erkauft man sich eventuell durch seinen dadurch eher dämpfenden Charakter und die dadurch etwas weichere und verwaschenere Informationsübertragung.

Auch die Spitze ist hierfür sehr entscheidend. Eine starre unbewegliche überträgt mehr Information und gibt mehr Geräusch, was auch zur Auswertung der Umgebung genutzt werden kann, aber auf Kopfsteinpflaster bleibt man damit hängen.

Oft kommen Rollspitzen zum Einsatz. Diese entlasten die Stockhand enorm. Sie drehen sich leider nicht in Laufrichtung. Die Rollspitze hat die Technik verändert. Bei starren Spitzen tippt man eher und bei Rollspitze verbleibt der Stock auf dem Boden.

Es gibt im wesentlichen drei Typen von Langstöcken und Kombinationen davon:

  1. Der starre Langstock kann weder gefaltet, noch ineinander geschoben werden.
  2. Der Teleskop-Langstock. mit ihm kann die Länge variiert werden. Das kann beispielsweise dann sinnvoll sein, wenn man mal schneller und mal langsamer unterwegs ist.
  3. Der Faltstock. Von zwei bis sechs Teile, die durch einen Gummizug gehalten werden.

Bei manchen Faltstöcken ist ein Glied als Teleskop ausgelegt, so dass man die Länge so auf 20 cm variieren kann.

Den besten Stock gibt es nicht. Der muss gemeinsam mit den Trainern individuell gefunden werden. Manche setzen je nach Situation auch mehrere Stöcke ein. Für sehbehinderte Menschen gibt es kürzere Stöcke, die lediglich der Kennzeichnung dienen. Auch bei den Griffen gibt es inzwischen von der Krücke, dem Golfgriff, dem edlen Holzgriff alles, was man sich denken kann.

Ein Langstock darf heutzutage auch schick, space-ig oder sonst wie gemacht sein. Über den Griff lässt sich ein Stock gut personalisieren. Jemand, der einen Stock mit sich führt muss nicht zwangsläufig vollblind sein.

Hat er einen Röhrenblick, dann kann die Person eventuell noch ohne Brille lesen, sich aber nicht mehr mit dem kleinen Gesichtsfeld orientieren.

Gesellschaftlich bedeutet Stock aber meistens Blindheit. Das macht den Start mit dem Langstock für Menschen mit einer schleichenden Erblindung oft schwer. Der Stock muss akzeptiert werden. Nur dann wird er seine Möglichkeiten voll entfalten. Er muss zum verlängerten Zeigefinger werden.

Blinde Menschen haben, wenn sie sich alleine im Verkehr bewegen, eine Kennzeichnungspflicht. Der Stock ist neben der Armbinde, Signalleibchen auch ein akzeptiertes Zeichen. Deshalb sollten Walking- Ski- oder andere Stöcke, die keine Kennzeichnungs- oder Langstöcke sind, eigentlich nie weiß sein. Das Führgeschirr eines Führhundes dient auch als Verkehrsschutzzeichen und kennzeichnet auch die Seheinschränkung.

Teil des O&M-Unterrichtes ist es auch, dass man sich ausreichend kennzeichnet, z. B. anhand der richtigen Stockhaltung in der richtigen Situation. So darf der Stock nicht in den Verkehr hinein ragen. Sehende sollten nie versuchen, dem pendelnden Stock durch einen Hochsprung auszuweichen. Stehen bleiben ist das beste. Dann stößt der Stock vielleicht mal an die Füße, was man aber kaum wahrnimmt.

Viele verfallen in eine Art Starre. Das beste, wie schon gesagt, stehen zu bleiben und sich akustisch bemerkbar zu machen. Sehende erden oft nervös, wenn sie sehen, dass jemand mit Langstock auf ein Hindernis zusteuert und wollen warnen. Das ist gut gemeint, aber nicht immer hilfreich. Scheinbare Hindernisse sind für blinde manchmal sogar wichtige Orientierungs-Marken. Ich empfehle an dieser Stelle, wenn es sich nicht wirklich um ein gefährliches Hindernis, z. B. eine offene Grube oder so handelt, etwas Gelassenheit. Sollte die blinde Person tatsächlich in Schwierigkeiten geraten, bekommen Sie das schon mit, oder sie werden um Hilfe gebeten etc.

Und wenn Sie rufen müssen, dann rufen Sie bitte auch den Grund ihrer Besorgnis dazu. „Achtung“ bringt nicht viel, weil für uns ein Hindernis erst dann existiert, wenn es mindestens in Reichweite des Langstockes ist.

Was der Stock nicht kann, ist die Erkennung von Hindernissen, die nicht direkt am Boden beginnen, wie Kanten von Laderampen bei LKWs, Schranken und ähnliche in der Luft schwebende Hindernisse. Hierfür gibt es Geräte zum Oberkörperschutz. Basierend auf Infrarot, Laser oder beidem warnen diese vor derartigen Hindernissen, indem beispielsweise der Griff des Stockes vibriert. Ein Beispiel hierfür ist der Ultra Cane, oder die Fledermaus von Synphon, deren Prototyp auch hier zu hören ist.

Wichtig ist an dieser Stelle, dass es sich hier lediglich nur um Zusatzgeräte handelt. Bisher ist es technisch nicht gelungen, den Stock zu ersetzen.

Neues Terrain-11 – 05.06.2019 – Mobilitätstraining – Wie blinde Menschen lernen sich die Welt zu erschließen

Gerhard Jaworek vom Studienzentrum für Sehgeschädigte (SZS) des Karlsruher Institutes für Technologie (KIT) traf sich mit Christoph Erbach Rehabilitationslehrer von Beruf und angestellt bei der Firma Sehwerk am SZS zum Thema Mobilitätstraining: Wie blinde Menschen lernen sich die Welt zu erschließen. Mobilitätstraining (57:43, 27MB)

Gleich bei der Vorstellung appelliert der Gast an alle, dass es am Rehabilitationslehrer-Nachwuchs mangelt, obwohl es ein sehr vielfältiger und abwechslungsreicher Beruf sei.

Ein Rehalehrer unterstützt Menschen mit einer Seheinschränkung oder Blindheit, um in ein selbstständiges Leben, um in die Welt zu finden. Angefangen vom selbstständigen Stellen eines Weckers, sich anzuziehen, Körperhygiene, Nahrungszubereitung, Essen bis hin zum Umgang mit dem Blindenstock, nutzen von Navigationshilfen und was sonst noch für ein eigenständiges Leben nötig ist, umfasst die Aufgaben eines Rehalehrers.

Mobilitätstraining und Unterricht in lebenspraktischen Fertigkeiten (LPF) ein lebenslanger Prozess sind, weil sich Lebensumstände ändern und daher andere Fähigkeiten und Fertigkeiten wichtig werden.

Ein Kind muss beispielsweise lernen, sich selbst die Schuhe zu binden. Später braucht es den Weg zur Schule, dann wird spätestens im Studium Kochen, Wäschepflege und Haushaltsführung wichtig. Der Weg zur Uni, vermutlich sogar in einer neuen Stadt, und vieles mehr muss erlernt werden. So muss im Laufe des Lebens immer mal wieder nachtrainiert werden.

Bei diesem Reha-Unterricht gibt es Basiseinheiten, wie der Umgang mit dem Langstock, aber ansonsten entsteht das Kolloquium individuell durch die Lebenssituation eines jeden einzelnen Individuums betont Christoph.

Wenn jemand etwas beispielsweise auch nicht lernen möchte, ist das OK. Es geht um Lebensglück und Lebensqualität in diesem Unterricht. Grundvoraussetzung muss immer sein, dass die betroffene Person sich in diesen Bereichen verändern möchte. Oft gibt es unangemessene Einflussnahme von Angehörigen Betroffener, die in bester Absicht meinen, so ein Training verordnen zu müssen.

Der Unterricht ist eine Sache. Der psychische Umgang und die Verarbeitung einer plötzlichen Erblindung eine andere. Hier ist höchste Sensibilität und Respekt gefordert.

Thema sind oft ganz einfache Wünsche, wie „Für mich wäre es ein Glück, wieder selbst in meinen Garten fahren zu können.“ Der Weg dahin kann steinig sein.

Zu Orientierung und Mobilität gehört weit mehr, als nur den Langstock angemessen einsetzen zu können. Training des räumlichen Vorstellungsvermögen, wo bin ich gerade im Raum, und was muss ich tun, um zu einem gewünschten anderen Ort zu gelangen, ist am Anfang manchmal gar nicht so einfach. Sicheres Gehen, wie auch die Überwindung von Stufen und Treppen stellen vor allem Menschen mit einer Altersblindheit vor große Herausforderungen. Pro Retina ist eine Selbsthilfevereinigung für Menschen mit Netzhautdegenartionen.

Schwierig ist oft am Anfang, dass die betroffene Person alles so erledigen möchte, wie sie es in der Vergangenheit als sehender Mensch tat.

Diagonal durch einen Raum zu laufen, geht ohne Sicht nicht mehr so ohne weiteres. Deshalb versuchen Blinde oft die Welt in einfache geometrische Strukturen zu bannen. Gerhard Jaworek hat viele Jahre in der Quadratestadt Mannheim gelebt und liebte die einfache Orientierung in den Quadraten. Der Karlsruher Fächer, ist dagegen im Vergleich eine größere Herausforderung, weil eine Vereinfachung deutlich schwieriger ist.

Ein höchstes Gut und Ziel eines Mobilitätstrainings, ist die Fähigkeit, sich zum einen eine innere Karte der Umgebung vorzustellen, und zum anderen, dass man dann auch noch weiß, wo man sich auf ihr befindet und was man tun kann, wenn eine geplante Route, beispielsweise wegen einer Baustelle, nicht gegangen werden kann. Und auch hier setzt das Projekt Terrain mit optimierten Routen an.

Mobilitätstraining ist auch Persönlichkeitsbildung: Man muss lernen zu fragen, um Hilfe zu bitten und die eigenen Grenzen zu akzeptieren.

In Deutschland haben wir eine sehr gute Situation, da Kinder meist durch die Frühförderung schon rechtzeitig mit O&M-Training und LPF beginnen.

Gerhard Jaworek hatte das große Glück in einen sehr fortschrittlichen Kindergarten für blinde Kinder nach Basel besuchen zu können. Ansonsten hätte ich in diesen Bereichen deutlich mehr Defizite nachzuholen gehabt.

Wie schon in Folge 2 dieses Podcasts angesprochen, werden in O&M noch viele Hilfsmittel über den klassischen Langstock hinaus eingesetzt.

Es ist gewissermaßen ein Glücksfall, das auch sehende Menschen „so faul sind“, selbst in bekannten Orten nicht auf Fußgängernavigation verzichten zu wollen. Davon profitieren blinde Menschen, die Navis und Smartphones als Hilfsmittel, sich zurecht zu finden, einsetzen.

Neben Stock, Navis, Kompass findet alles Einsatz, was die Vorstellungskraft fördert. Taktile 2D-Karten bis hin zu 3D-Modellen werden nach Bedarf verwendet. Der Touch-Mapper Service bietet die Erstellung von 3D-Modellen von Karten für den 3D-Druck.

Landmarks sind auch sehr wichtig, beispielsweise eine Hausecke mit Regenrinnen oder sonstige fest installierten unbeweglichen Dinge. Zur Einschätzung der Situation und auch zur Verortung in der Umgebung ist ein geschultes Gehör unverzichtbar. So findet heutzutage das Klicksonar mehr und mehr Einzug in den O&M-Unterricht.

Trotz aller Möglichkeiten steht die Einfachheit im Vordergrund. Auch wenn Technik versagt, muss es eventuell gehen.

Eines der am höchsten technisch entwickelte Hilfsmittel dürfte der Chip sein, der ins Auge implantiert wird, und Lichtreize an das Gehirn geben kann. Christoph Erbach hat schon Personen damit unterrichtet. Leider erfüllen die meisten blinden Menschen die Randbedingungen nicht, so dass er nur wenigen helfen kann. Die Wahrnehmung mit dem Chip ist aber eher nicht ein Sehen im klassischen Sinne. Dennoch kann diese geringe Auflösung und Lichtwahrnehmung hilfreich sein.

Aktuelle technische Entwicklungen in Richtung der Künstlichen Intelligenz, autonomem Fahren, Computersehen und vielem mehr werden in Zukunft auch für blinde Menschen das Leben erleichtern und verbessern.

Weitere Informationen

Hilfsmittel und Technologiefolgenabschätzung

Ein Beitrag von Gerhard Jaworek.

  • Wer ist Schuld, wenn ein autonom fahrendes Auto einen Unfall baut?
  • Welche Entscheidung soll ein Roboter treffen, wenn bei allen Möglichkeiten jemand in Gefahr geriete?
  • Wie soll eine Maschine aussehen, damit sie in der Pflege akzeptiert wird?
  • Wie viel Entscheidung soll mir ein Hilfsmittel abnehmen, ohne dass es  bevormundend wird?
  • Wie diskret soll eine Hilfstechnologie sein, dass sie nicht stigmatisierend wirkt?

All diesen Fragen ist gemeinsam, dass sie technisch mögliches in Frage stellen.

Mit zunehmenden technischen Errungenschaften, Atomkraft, Gentechnik, künstlicher Intelligenz bis hin zu autonomen fahren, ist es immer wichtiger, zu hinterfragen, ob eine Entwicklung eher segensreich oder Fluch für die Menschheit ist.

Aus der Disziplin, Technologie auf ihre Folgen hin zu überprüfen, ist mittlerweile eine Wissenschaft entstanden. Diese versucht mit systematischen Verfahren, wie beispielsweise Fragebögen, Interviews, Workshops und weiterem, Technologien auf ihre Folgen hin zu untersuchen und gegebenenfalls zu warnen, sollten die Folgen eher negativer Natur sein. Diese Wissenschaft nennt man Technikfolgen-Abschätzung. Abschätzung deshalb, weil man sich nie ganz sicher sein kann, ob die Prognosen und Folgen genau so eintreffen, wie man das abgeschätzt hat.

Diese Wissenschaft arbeitet in dem Bewusstsein, dass die Einführung neuer Technologie immer folgen hat und eventuell sogar gesellschaftliche Veränderungen mit sich bringt.

Die Forschungsinhalte der ITAS-Forschung werden häufig als ELSI-Fragen bezeichnet. ELSI steht für Ethical, Legal and Social Implications. (Ethische, rechtliche und soziale Implikationen oder Aspekte).

In unserem Terrain-Projekt wird viel mit neuer Technologie experimentiert. Aus diesem Grunde ist einer der Partner unseres Terrain-Projektes das Institut für Technikfolge-Abschätzung (ITAS).

Es versucht mit Experten, Betroffenen und außenstehenden Technikfolgen abzuschätzen, die beispielsweise dadurch entstehen, dass man eine Kamera an der Brust trägt, dass Eigenverantwortung an neuronale Netze abgegeben wird und vieles mehr.

Zu diesem sehr spannenden und breiten Themenfeld sind im Podcast des Projektes zwei Folgen erschienen: Die aktuelle Folge behandelt die Erfahrungen und die verschiedenen Gespräche, die Markus Winkelmann und Sebastian Ritterbusch beim zweiten Vernetzungstreffen der Projekte in der Förderlinie „Verlässliche Technik für den mobilen Menschen“ führen konnten. Das Treffen fand am 18. April 2018 in Frankfurt statt: Neues Terrain 10 – Vernetzungstreffen Intelligente Mobilität

Eine weitere Folge befasst sich grundsätzlich mit den Aufgaben die das Institut für Technikfolgeabschätzung des KIT ITAS hat: Neues-Terrain-03 – Innovationsforschung

Der sehr zu empfehlende Wissenschaftspodcast @omegataupodcast  brachte eine Folge mit Prof. Grunwald, dem Leiter des ITAS heraus: Omega Tau 275 – Technikfolgenabschätzung

Technik zeigte in der Geschichte schon immer Folgen. Und Folgen steht hier wertfrei für das Wort Veränderung. Besonders in unserer schnelllebigen Zeit ist es wichtig, sich professionell mit den Folgen zu beschäftigen, welche die rasanten technischen Entwicklungen der Neuzeit für uns bereit halten.

Dieser Beitrag wurde zuvor durch das SZS auf Facebook veröffentlicht.

Neues Terrain 10 – Vernetzungstreffen Intelligente Mobilität

Am 18. April 2018 fand in Frankfurt das zweite Vernetzungstreffen der Projekte in der Förderline „Verlässliche Technik für den mobilen Menschen“ statt. Markus Winkelmann vom ITAS am Karlsruher Institut für Technologie (KIT) und Sebastian Ritterbusch von der iXpoint Informationssysteme GmbH konnten an dem Treffen teilnehmen, und unterhalten sich hier über die Erfahrungen und die verschiedenen Gespräche, die sie dort führen konnten: Vernetzungstreffen Intelligente Mobilität (2:00:06, 61MB)

Die Vernetzungstreffen ermöglichen den Projekten einen Austausch sowohl über ihre Projekte, als auch über Querschnittsthemen, die alle Projekte in der Förderlinie vereint. Verglichen zum ersten Vernetzungstreffen im Rahmen der Fachtagung Mobilität im Wandel in 2017 konnte hier noch stärker den einzelnen Projekten als auch den begleitenden ELSI Themen (Ethische, rechtliche und soziale Aspekte) Rechnung getragen werden.

In der Einführung durch Frau Albrecht-Lohmar für das BMBF-Referat „Mensch-Technik-Interaktion; Demografischer Wandel“ wurde großer Wert darauf gelegt, dass Forschung und Förderung kein Selbstzweck sein dürfen, sondern sie zu Innovationen führen sollen, die auch bei den Menschen ankommen. In der Begrüßung durch Dr. Marcel Kappel für den Projektträger und Organisator VDI/VDE-IT im Bereich Mensch-Technik Interaktion wurde die Einbettung der Förderlinie in das Forschungsprogramm dargestellt.

KoFFI

Das Projekt KoFFI zur kooperativen Fahrer-Fahrzeug Interaktion startete die Projektvorträge. Es ging dabei um Fragen wie man mit Konfliktsituationen zwischen Fahrer und Fahrzeug umgehen kann, oder wie eine Vertrauenssituation hergestellt wird. Eine kritische Frage war auch, in welchen Situationen sich ein Fahrzeug über die Entscheidungen des Fahrers hinwegsetzen sollte. So verhindert beispielsweise ein ausgelöster Airbag sehr deutlich die Aktionsfreiheit des Fahrers, es ist jedoch weithin akzeptiert, dass hier die unaufgeforderte Einschränkung des Menschen weit schlimmeres verhindern kann. Wann hingegen Überholvorgänge noch abgebrochen werden dürfen, sind hingegen deutlich kompliziertere Fragestellungen, die im Projekt untersucht werden. Dabei muss auch grundsätzlich berücksichtigt werden, dass ein Einverständnis auch ein Verständnis voraussetzt. Hier ergaben sich im Projekt überraschende Ergebnisse, über die uns Susanne Kuhnert vom Institut für Digitalethik der Hochschule für Medien (HDM) Stuttgart erzählte.

In der ethischen und rechtlichen Begleitung des sonst technisch ausgelegten Projekts KoFFI ging es weit über eine Literaturarbeit hinaus, und es wurde das Gespräch mit Probanden im Sinne einer experimentellen Philosophie gesucht, wo mit empirischen Ergebnissen und Experimenten gearbeitet wurde. Im der Forschung um autonomes Fahren zur Erarbeitung von ethischen Leitlinien (vgl. medizinische Leitlinien) stellte sich dabei früh die Frage, ob die Nutzergruppe überhaupt den Begriff der Autonomie versteht.

Das Projekt KoFFI untersucht grundsätzlich die Nutzbarkeit von Gesten und natürlicher Sprache zur Interaktion von Fahrzeug und Mensch, damit nicht mehr feste Befehle auswendig gelernt werden müssen, sondern der Wagen aus der Situation heraus den Menschen so gut wie möglich mit natürlicher Sprache verstehen kann. Eine überraschende Erkenntnis war hier, dass selbst bei technik-affinen Probanden eine grundsätzliche Technikskepsis zu beobachten war, die auf zweiten Blick durch den alltäglichen Umgang mit niemals perfekter Technik verständlich wird. Gleichzeitig wünscht sich natürlich niemand einen Technikausfall bei einer Fahrt mit hoher Geschwindigkeit auf der Autobahn. Diese Frage kann nicht alleine technisch behandelt werden, sondern benötigt einer ethischen Betrachtung, wie hier der Umgang der Technik mit dem Menschen und die Technikentwicklung von Menschen auf sehr elementare Fragen eingehen kann.

Im Vortrag wurden auch die Begriffe Technikzukünfte, wie die Nutzenden sich die Technik in Zukunft erwünschen, den Zukunftstechniken, den real in Zukunft existierenden Techniken, gegenüber gestellt. Um diese Begriffe der ungewissen Zukunft besser in den Griff zu bekommen, werden Szenarien erarbeitet, um wahrscheinliche Zukünfte als Entscheidungsgrundlage entwickeln zu können.

Vorreiter

Das Projekt Vorreiter will durch neuartige Kommunikationsmethoden auch Menschen mit Einschränkungen den Zugang zu teil- oder vollautomatisierten Fahrzeugen erleichtern. Ein Aspekt war hier, wie beispielsweise eine Lenkradsteuerung auch Menschen theoretisch und praktisch ermöglicht werden kann, die für eine traditionelle Kontrolle des Lenkrads körperlich nur eingeschränkt fähig sind. Hier wurden unter anderem Tests mit einem Altersanzug durchgeführt, die auch darstellten, dass die Einschränkungen auch einige in Erwägung gezogene Gesten betrafen.

Die anschließende Podiumsdiskussion zu den beiden Projekten startete mit der Frage „Mein Fahrzeug soll sein wie…“, wo sich das Publikum für den „Partner“ aussprach.

KOLA

Das Projekt KOLA befasst sich mit kooperativen Laserscheinwerfern und im Treffen wurden die Schwerpunkte Psychologie und Technik dargestellt. Welche Signale und Hinweise können über Lichtbilder auf der Straße verwendet werden, um über eine neue Kommunikationsform ein sozialeres und sicheres Straßenumfeld zu schaffen. Auf der einen Seite erscheinen Emoticons und Smileys als eine moderne und eingängige Kommunikationsform, jedoch sind sie weit weniger eindeutig als bekannte Verkehrsymbole, dessen Verwendung aber aus guten Gründen hier durch die StVO stark reglementiert ist. Auch der Stand der technischen Realisierung wurde im Vortrag sehr beeindruckend geschildert.

PAKoS

Zum Projekt PAKoS ging es insbesondere um die sichere Übergabe der Fahrzeugkontrolle vom Fahrer an die Automation und umgekehrt. An diesem Projekt ist mit dem cv:hci am Karlsruher Institut für Technologie (KIT) auch ein Partner vom TERRAIN-Projekt beteiligt.

Dr.-Ing. Michael Flad vom Institut für Regelungs- und Steuerungssysteme (IRS) am KIT war bereit, uns PAKoS vorzustellen, und uns die unterschiedlichen Kommunikationsmodalitäten, die in der Kommunikation mit dem Fahrzeug zum Einsatz kommen, zu erklären. Neben der visuellen Darstellung im Display oder als Projektion auf der Windschutzscheibe, wird auch eine akustische Sprachausgabe verwendet. Ergänzt werden diese Darstellungsformen durch haptische Signale durch einen mit Vibrationsmotoren ausgestatteten Sitz, der Interaktion mit dem Lenkrad und Pedalen an den Füßen. In einer ersten Studie hat sich ergeben, dass visuelle Signale am leichtesten übersehen werden, im Vergleich beispielsweise zu akustischen Hinweisen. Am deutlichsten wurden hier die Vibrationssignale im Sitz wahrgenommen. Dies ist genau gegenläufig zur möglichen Informationsdichte und entsprechenden Ablenkungspotential der Kanäle. Besondere Ablenkungen können hier die aktuell nicht erlaubten Nebentätigkeiten während des Fahrens sein, die beim autonomen Fahren teilweise akzeptiert werden können.

In der Zeit der nur teilautonomen Systeme müssen hier Verfahren untersucht werden, wie die Übergabe der Verantwortung in Abhängigkeit von den Tätigkeiten, dem Fahrer und der Situation ablaufen kann. Ein mathematisches Modell ist hier die Abbildung der Regelkonzepte als gekoppeltes Differenzialgleichungssystem zu betrachten. Mit Hilfe eines Differenzialspiels kann die Vorhersage über die erwartete Übernahme in die Fahrzeugautomation aufgenommen werden.

Der im Gespräch erwähnte Unfall mit einem teilautonomen Uber-Auto zeigte sehr deutlich, welche schlimmen Auswirkungen die Ablenkung der fahrenden Person haben kann.

Im Gespräch mit Luis Kalb vom Lehrstuhl für Ergonomie an der TU München ging es dann um Details der Verwendung des von Bastiaan Petermijer entwickelten vibrotaktilen Autositzes. Hier sitzt man auf einer Art Vibrationsmatte, die Vibrationsmuster in unterschiedlichen Intensitäten von der Sitzfläche bis zum Rückenbereich darstellen kann. Typische Muster sind Linien, die komplett von einer Seite zur anderen durchlaufen, und sie werden oft zusätzlich durch Sprachausgaben ergänzt. Gerade bei Ablenkungen des Fahrers kann mit Hilfe dieses Kommunikationskanals sehr deutlich auf gefährliche Situationen oder gefährliches Handeln hingewiesen werden.

Die zusätzlichen Kommunikations- und Detektionsmethoden für teilautonomen Automobilen ermöglichen deutlich sicherere Betriebsmodi, wenn beispielsweise bei einem abgelenkten Fahrer automatisch die Fahrgeschwindigkeit reduziert wird, da der Mensch nicht mehr so schnell eingreifen kann. Eine unmittelbar verständliche Reaktion kann auch sehr zur Akzeptanz eines Systems beitragen, wenn sie nicht womöglich als Rechtweisung oder Bestrafung aufgefasst wird. Ganz abgesehen davon nimmt die rechtliche Fragestellung zusätzlich einen großen Raum ein, wie die Verantwortung in solchen Situationen zu bewerten ist. Ein anderes Beispiel sind künstlich erzeugte Geräusche für langsam fahrende Elektroautos, ohne die blinde Menschen das Fahrzeug kaum noch akustisch orten können. Es gibt eine Vielzahl von technischen Lösungen, die sowohl im sozialen, psychologischen und rechtlichen Kontext bewertet werden müssen. Ab 2021 wird jedes neu zugelassene E-Auto entsprechende Geräusche machen müssen.

Bei der Frage in das Plenum, wie die Kommunikation zwischen Fahrzeug und Fahrende stattfinden sollte, lief es auf die Punkte intiutiv, sicher und verständlich hinaus, und führte in eine rege Diskussion zu den beiden Projekten.

Safety4Bikes

Der nächste Block startete mit dem Projekt Safety4Bikes für ein Assistenzsystem für mehr Sicherheit von fahrradfahrenden Kindern. Jochen Meis von GeoMobile und Dr. Florian Klingler der CCS Labs des Heinz Nixdorf Instituts der Uni Paderborn gaben uns in einem Gespräch einen tiefen Einblick in den Stand und die Erfahrungen aus ihrem Projekt. Sehr interessant ist beispielsweise das Ergebnis, dass der Fahrradhelm inzwischen bei Kindern fast durchweg genutzt wird, hingegen die Eltern ihn seltener und besonders die Großeltern fast überhaupt nicht verwenden. Ein anderes Ergebnis ist, dass der Unfallschwerpunkt für fahrradfahrende Kinder Kreuzungsbereiche sind, gefolgt von Ein- und Ausfahrten.

Eine Möglichkeit die Sicherheit zu erhöhen bietet die Car2X Kommunikation, wo im Projekt untersucht wird, wie Fahrräder in dieses Kommunikationsnetz integriert werden können, um im Vorfeld auf Gefahrensituationen hinweisen zu können. Die technische Grundlage ist das IEEE 802.11p Protokoll, das eine ad-hoc Kommunikation im Straßenverkehr ermöglicht. Die ersten Tests im Safety4Bikes Projekt wurden auf Trikes umgesetzt, um den jungen Probanden keiner zusätzlichen Gefahr auszusetzen. In Zukunft ist die fortschreitende Elektrifizierung auch im Fahrradbereich für das Projekt eine zusätzlich vorteilhafte Entwicklung, da sie die Frage der Stromversorgung erleichtert.

TERRAIN

Den Ansatz weitere Methoden im Forschungsprojekt zunächst auf einem tragbaren Computer statt auf dem Smartphone umzusetzen, verfolgen wir im TERRAIN-Projekt genauso wie bei Safety4Bikes: Die ersten Tests der Bilderkennung wurden auf einem Laptop durchgeführt, den die Probanden auf dem Rücken trugen, und im weiteren Verlauf befassen wir uns nun damit, wie und ob und wann wir Teile davon auch auf Smartphones bringen können.

Nach der Vorstellung des Fortschritts im TERRAIN Projekt gab es eine Podiumsdiskussion zu Gefährdeten und Gefahren im Straßenverkehr- nach Meinung des Plenums sind Fahrradfahrende besonders den Gefahren ausgeliefert.

ELSI-Themen

Das Treffen endete mit einer Diskussion zu ELSI-Themen, angeleitet durch Prof. Dr. Tobias Keber (@datenreiserecht), der unter anderem von den Ergebnissen einer Umfrage zu ELSI-Themen bei Forschungsprojekten berichtete: Ein Ergebnis war hier der Ratschlag, ELSI-Aspekte als kreative ‚Störfaktoren‘ zu nutzen. Auf jeden Fall müsse die Begleitforschung auch zu gemeinsamen Aktivitäten führen, um eine Integration zu ermöglichen. Das Zusammenspiel der technischen Entwicklung mit der Reflektion in der ELSI-Begleitforschung ist ein guter Weg, auf eine Entwicklung für die Menschen hinzuarbeiten, also zur Technik für die Menschen hinzuwirken.

Fußgängerrouting auf Basis der OSM

Auf welcher Straßenseite man sich befindet hat großen Einfluss auf einen sinnvollen Fußweg im Stadtgebiet. Besonders für Menschen mit Blindheit oder anderen Sinneseinschränkungen spielt es eine große Rolle, wo man Straßen sinnvoll überqueren kann. Bisher allgemein verfügbare Lösungen für Fußgängerrouting bzw. Pedestrian Routing berücksichtigen jedoch i.A. keine Straßenseiten. Im Rahmen eines Pedestrian-Routing-Testinterfaces stellt die iXpoint Informationssysteme GmbH den Entwicklungsstand des im Terrain-Projekt entwickelte Fußgängerrouting zur Verfügung: Hier werden möglichst sinnvolle Fußwege für Menschen mit Blindheit in Deutschland, Österreich oder der Schweiz gesucht und auf einer Karte dargestellt.

Bild eines Fußgängerroutings auf der OpenStreetMap (OSM) - Pedestrian Routing - Eine rote Linie läuft auf Bürgersteigen mit genau dargestellten Überkreuzungen vom Start zum Ziel
Fußgängerrouting auf der OpenStreetMap (OSM)

Das Testinterface stellt die Wegfindung visuell in einer Kartendarstellung zur Verfügung und steht daher aktuell nur sehenden Personen zur Verfügung, und ermöglicht insbesondere die Evaluation der Datenbasis für die OSM-Community. Die Nutzung im Projekt erfolgt barrierefrei auf Smartphones mit Sprachansagen und optionalen weiteren Signalen wie Vibration und Tönen.

„Nicht mitten auf der Straße“

Im Rahmen der Gulaschprogrammiernacht 2018 wurden im Vortrag „Nicht mitten auf der Straße“ technische Hintergründe zum Fußgängerrouting auf Basis von Daten in der OpenStreetMap (OSM) präsentiert.

Bild aus Vortrag "Nicht mitten auf der Straße" zum Fußgänger-Routing im Terrain-Projekt auf der GPN18 im ZKM Karlsruhe
Nicht mitten auf der Straße: Vortrag zum Fußgänger-Routing im Terrain-Projekt auf der GPN18 im ZKM Karlsruhe

In der Presentation werden die besondere Herausforderungen für Fußgängerrouting, die aktuell verfügbaren Lösungen und bisherigen Ansätze im Vergleich zur neuen Methodik vorgestellt und illustriert.

Daten in der OpenStreetMap

Die OpenStreetMap (OSM) beinhaltet das wahrscheinlich weltgrößte digitale Wegenetz für Fußgänger, doch wie können wir sie bei der Wegfindung für Fußgänger sinnvoll nutzen? Im Forum der Community werden die vorhandenen Daten und der neue Service lebhaft diskutiert:

Bild eines Beitrags zum Fußgängerrouting im OSM-Forum
Diskussion zum Fußgängerrouting im OSM-Forum

OpenStreetMap Forum >> Germany >>  Fußgängerrouting auf der OSM

Literatur

Auf der International Conference on Computers Helping People with Special Needs – ICCHP 2018 wurde das neue Verfahren im wissenschaftlichen Kontext vorgestellt:

S. Ritterbusch, H. Kucharek. Robust and Incremental Pedestrian Path Network Generation on OpenStreetMap for Safe Route Finding. In: Miesenberger K., Kouroupetroglou G. (eds) Computers Helping People with Special Needs. ICCHP 2018. Lecture Notes in Computer Science, vol 10897. Springer, Cham, 2018.

Eine frei verfügbare Preprint Fassung wird in Kürze zur Verfügung stehen.

Encoding Cultures: Rainer Stiefelhagen

Computer Vision zur Unterstützung von Menschen mit Sehschädigung

Vom 27.-28. April fand am ZKM-Zentrum für Kunst und Medien das Symposium „Encoding Cultures. Leben mit intelligenten Maschinen“ statt. In den Vorträgen und Diskussionen zur Auswirkung der künstlichen Intelligenz sprach Prof. Dr. Rainer Stiefelhagen über den Einsatz von Maschinensehen für die Mensch-Maschine-Interaktion und der Unterstützung  für Menschen mit Blindheit oder Sehbehinderung.

ICCHP18 Poster

Image of poster: The TERRAIN Project  Independent urban mobility for pedestrians with blindness and low vision through audio-tactile navigation

The TERRAIN Project

Independent urban mobility for pedestrians with blindness and low vision through audio-tactile navigation

A. Constantinescu, B. Behrendt, D. Kochanek, D. Koester, G. Jaworek, H. Kucharek, K. Müller, M. Awizus, M. Haurilet, M. Winkelmann, N. Weinberger, P. Frank, R. Stiefelhagen, S. Helfer, S. Kliesch, S. Ritterbusch, S. Siebert, V. Petrausch

Motiviation

In urban, unknown spaces it is often difficult for people with blindness or visual impairment to find their way around. The different environments such as city centres, parks or forest paths place diverse demands on orientation and mobility. A lack of local knowledge and orientation problems can lead to blind people not using some areas of the city, such as local recreation areas. This results in a limited range of movement and social isolation. Assistance systems – which help to identify obstacles and points of orientation when navigating in public space – can noticeably improve the quality of life.

Goals

The aim of TERRAIN is to develop a portable assistance system to support the mobility of blind and visually impaired people in urban areas. The system combines navigation based on digital map data with camera-based image processing methods. Paths, obstacles, traffic lights, road crossings as well as interesting landmarks, buildings and objects are detected. To this end, an accessible, acoustic and haptic user interface is being developed that can be adapted to the needs and preferences of users. A new type of mobile, wirelessly connected Braille display will also be integrated.

Project

With TERRAIN, decisive hurdles in mobility and navigation are overcome and confidence in the users‘ own movement and mobility abilities is strengthened. Everyday paths can be done independently; activity and social contacts ensure physical and mental well-being.

The project receives up to 1.7 M€ funding by the Federal Ministry of Education and Research of Germany from July 2016 to June 2019. Further information is available on the project website: https://www.terrain-projekt.de/

Topics

Scene Analysis by Computer Vision

A portable Computer Vision system aims at detecting landmarks, obstacles and free surface, as well as traffic lights, buttons and crossings in front of the user. The goal is to use this information to help crossing streets more safely.

Multi-Modal Human-Computer Interaction

The system provides information using acoustic and haptic devices, such as narration or sounds, as well as Braille, vibrating belts or armbands. Various interaction modes aim at offering a system that is adaptable to the users capabilities.

Roadside-aware Safe Routing

As finding suitable crossings is most important for blind and visually impaired users, the project introduced a roadside-aware safe routing that prefers safe crossings and paths to shorter alternatives and gives instructions accordingly.

Experts and Citizens Involvement

The use of new technology in an urban environment may lead to unexpected responses by citizens. Therefore citizens and experts of various fields are included in workshops and meetings, to improve the reception and results of the project.

Innovative Braille Integration

The development of a new Braille Interface aims at the specific needs in urban mobility in terms of weight, usability and improved concepts for information display using the well proven Braille representation.

System Evaluation and Mobility Training

Close collaboration with Mobility Trainers is an integral part in the development and evaluation phase. The feedback of test users with blindness and low vision has a major impact on the final result and the training material that is provided.

User Centered Smartphone Solution

A fully accessible smartphone app offers the user centered access to all supporting features of the project. The user decides what information is given, and how devices should present the information about the environment.

Consortium

Karlsruhe Institute for Technology (KIT)

Studienzentrum für Sehgeschädigte (SZS)

Computer Vision for Human-Computer Interaction (cv:hci)

Institute for Technology Assessment and Systems Analysis (ITAS)

F. H. Papenmeier GmbH & Co. KG

iXpoint Informationssysteme GmbH

Funding

The TERRAIN project is sponsored by the Federal Ministry of Education and Research, Germany.

SightCity 2018

Wie seit vielen Jahren, fand auch in diesem Jahr im Mai die größte internationale Messe für Hilfsmittel für Menschen mit Blindheit oder Sehbehinderung SightCity im Sheraton-Hotel am Frankfurter Flughafen statt.

Vom einfachen Haushaltshelfer, dem Nadeleinfädler, über taktile Spiele, Punktschrift- und Hörbücher, über die Selbsthilfeorganisationen, bis hin zu komplexen Arbeitsplatzausstattungen mit Computer, Vergrößerungssoftware, Bildschirmkamera, Braillezeile, Sprachausgabe, Punktschriftdrucker und vieles mehr, war alles zu finden.

In diesem Jahr waren aber ganz deutlich einige neue Trends zu erkennen. Es gab vielfältige Anpassungen zu kommerziellen Organisern, PDA’s und Smartphones. Das betraf sowohl die Software für die Vergrößerung und die Sprachausgabe, als auch die Punktschriftausgabe mit Touch-Funktion.

Mindestens drei Ansätze – teilweise noch als Prototyp oder gar nur als Modell – zur Entwicklung zweidimensionaler taktiler Displays konnten bestaunt werden. Für Menschen mit Restsehvermögen halten langsam Virtual Reality und Augmented Reality mit Brillen zur Verbesserung des Sehrestes Einzug.

Es gab auch wieder Geräte, die auf Ultraschall und Laser basiert Hindernisse akustisch oder per Vibration anzeigen. Ein Ansatz war sogar in einem Schuh integriert. Außerdem wurde auch ein Vibrationsgürtel zum Halten der Richtung präsentiert. Was bleibt ist, dass sich die Reise zur diesjährigen SightCity gelohnt hat. Erstmals konnten wir die Sightcity und die damit verbundenen Netzwerke nutzen, um Interessenten für die anstehenden Benutzertests für Terrain zu finden und zu begeistern.

Gerhard Jaworek, SZS, KIT

Neues Terrain 09 – Vibrationsbänder

Richtungsinformationen lassen sich sehr gut über Vibrationen vermitteln. Dafür hat Patryk Dzierzawski im Rahmen seiner Abschlussarbeit Vibrationsbänder entwickelt, aufgebaut und evaluiert: Vibrationsbänder (46:30, 21MB)

Am Lehrstuhl vom Computer Vision for Human-Computer Interaction Lab (cv:hci) und dem Studienzentrum für Sehgeschädigte (SZS) werden nicht nur Assistive Technologien für Menschen mit Sehbehinderungen evaluiert und angeboten, sondern auch dazu unterrichtet. Weiterhin werden Studierenden Möglichkeiten geboten unter anderem mit Abschlussarbeiten in diesem Bereich sich direkt an der Forschung zu beteiligen. Patryk Dzierzawski stellt dazu hier im Gespräch mit Gerhard Jaworek seine Abschlussarbeit zu Vibrationsbändern zur Navigationsunterstützung an Arm oder Fuß vor.

Die Arbeit bestand aus dem Design, der prototypischen Herstellung, einer Ansteuerung durch Smartphone und der Evaluation des vibrotaktilen Interfaces. Die Vibrationsbänder selbst bestehen aus mit 3D-Druck erstellten Band und Gehäuse, einem Mikrocontroller mit Batterie und Vibrationsmotoren. Bei der Erstellung war das Vorwissen um Wearable Computing und Robotik sehr hilfreich.

Schon in der Folge 2 „Blind Orientieren“ dieses Podcasts wurden vorgestellt, wie vibrotaktile Interfaces zum Einsatz kommen können. Meisst gab es hier nur einfache Vibrationen, wo hingegen die Vibrationsbänder drei von einander unabhängig ansteuerbare Vibrationsaktoren eingesetzt werden. Damit können elementare und wichtigste Navigationsanweisungen zur Richtung und Warnmeldungen zum Anhalten sehr direkt vermittelt werden. Der große Vorteil der vibrotaktilen Vermittlung liegt dabei darin, dass der Hörsinn nicht wie bei Narration und Sonifikation eingeschränkt wird.

Im Gegensatz zu kommerziellen Lösungen wie dem VibroTac System lag in der Arbeit der Fokus auf einer leichten und preiswerten selbstätigen Herstell- und Reparierbarkeit durch Rapid Prototyping Technologien mit der damit einhergehenden Reduzierung auf eine minimale Lösung, die noch die volle Navigationsunterstützung liefern kann. Die Literaturrecherche führte unter anderem zum „Gentle Guide“, wo an jedem Arm ein Vibrationsmotor eingesetzt wurde, wo durch die Nutzenden gerade die Nutzung zweier Bänder kritisch gesehen wurde, so wurde hier eine Lösung mit nur einem Band angestrebt. Interessanterweise hat sich diese reduzierte Lösung als sehr effektiv in einem Navigationstest erwiesen, wenn auch die Interpretation der Signale im Vergleich zur akustischen Ausgabe durch den Menschen etwas länger dauerte.

Im FDM 3D-Druck kamen für das Armband ein flexibles TPU Filament und für den Gehäuseschutz für Platine und Batterie ein hartes Filament zum Einsatz. Für den Microcontroller Adafruit Feather 32u4 Bluefruit LE mit eingebautem Bluetooth Low Energy (BLE)-Modul musste auch die Ansteuerelektronik für die Motoren ausgelegt werden. Die Programmierung erfolgte mit der Arduino-Entwicklungsumgebung und ermöglichte die Ansteuerung durch Smartphones über Bluetooth LE.

Für die technische Ansteuerung der Vibrationsbänder wurde auch eine App für Android Smartphones entwickelt. Dabei wurde auch auf die Barrierefreiheit geachtet, damit auch blinde Menschen die technischen Tests durchführen können. In den damit ermöglichten Praxistests wurde geprüft, in wie weit die gewünschte Funktion erfüllt wird, welche Vibrationsstärken und -dauer als sinnvoll und angenehm bewertet wurden. Dabei wurden die Tests sowohl in Ruhe als auch in Bewegung durchgeführt. Interessanterweise wurden am Armband zur sichereren Unterscheidbarkeit typischerweise länger und stärker gewünscht, am Fußband wurden die angesetzten Standardwerte gut akzeptiert. Die Tests beschränkten sich aber auf die reine Identifikation der Vibrationen, erweiterte Wizard-of-Oz Tests bei dem ein Mensch die Funktion einer erweiterten Software simuliert und die Hardware direkt ansteuert, sollen eine Navigation simulieren und sind Teil eines späteren Tests im Terrain-Projekt.

Literatur und weiterführende Informationen

Neues Terrain 08 – Raumklang

Mit unserem Gehör können wir Geräusche unmittelbar orten und identifizieren. Um diese Fähigkeit sinnvoll im Projekt nutzen zu können, gibt uns Dr. Paul Modler einen Einblick in Raumklang (2:43:10, 130MB).


Die Abteilung Medienkunst Akustik (MK Akustik) der Staatlichen Hochschule für Gestaltung (HfG) in Karlsruhe befasst sich mit elektronischer und elektroakustischer Musik, Klanginstallation und Sonifikation. Sie wird von Dr. Paul Modler geleitet, der uns in diesem Gespräch einen Einblick in Raumakustik und Techniken für räumliches Hörempfinden über Kopfhörer geben konnte.

Paul Modler ist gerade von einem Besuch der Ars Electronica in Linz zurückgekehrt. Ein hervorgehobenes Event des Festivals der elektronischen Künsten war die Klangwolke einer Story mit Feuerwerk, Maschinen, Jets und Booten auf der Donau. Der Wettbewerb Prix Ars Electronica gab einen Einblick, welche aktuellen Richtungen die durchaus diskutierte Medienkunst darbietet.

Nach seinem Diplom in den Ingenieurwissenschaften an der ehemaligen Universität Karlsruhe (jetzt Karlsruher Institut für Technologie (KIT)) zur Signalverarbeitung und Filterentwurf des Waveterm Synthesizer der Palm Products GmbH (PPG), gelangte Paul Modler an die University of York, wo er im Bereich der Music Technology promovierte und von dort an die Hochschule für Gestaltung in die Medienkunst geworben wurde. Seine Forschungsinteressen gehen auch in Richtung des Mehrkanaltons, insbesondere im Verfahren der Ambisonics, das nach langer Durststrecke inzwischen sogar als Raumklangformat bei YouTube Einzug gehalten hat.

Die MK Sound setzt sich mit der Frage der Musikerstellung, der Definition und möglichen Instrumenten sowie der Technik, Installation und Performance in einem sehr breiten Spektrum interdisziplinär auseinander. Es gibt Lehrveranstaltungen zur analogen Tonerzeugung, wie auch die Auseinandersetzung mit neuen digitalen Einflüssen und die Abbildung analoger Synthesizern auf mobilen Geräten wie bei Korg. Die Gruppe wird auch von besuchenden Künstlern wie John Richards in Richtung Circuit Bending inspiriert. Dies führt zu faszinierenden Abschlussarbeiten wie den Atmospheric Disturbances von Lorenz Schwarz, wo Raumklang mit Plasmalautprechern künstlerisch umgesetzt wurde. Interessante Impulse entstehen auch aus der Zusammenarbeit mit weiteren Instituten und Hochschulen: So beteiligen sich auch oft Studierende des KIT an Projekten.

Die Aufnahme fand im Studio 311 der MK Sound statt, wo die Gruppe einen mobilen Klangdom installiert hat, um an ambisonischen Verfahren zu arbeiten und ihn musikalisch zu nutzen. Zur Ansteuerung kommt hier die Software Zirkonium wie auch die Software des Institut de Recherche et Coordination Acoustique/Musique (IRCAM) „Spat“ zum Einsatz, sowie andere verfügbare Verräumlichungstools. Ein Aspekt ist dabei auch der Wandel der Sicht auf den Lautsprecher vom Mittel zum Zweck hin zu einem eigenständigen Musikinstrument.

Die Hochschule für Gestaltung in Karlsruhe ist eingerahmt und im gleichen Haus wie das Museum für neue Kunst und das ZKM – Zentrum für Kunst und Medien und  Medienmuseum. So arbeitet die MK Sound natürlich eng mit dem von Prof. Ludger Brümmer geleiteten Institut für Musik und Akustik am ZKM zusammen. Das Institut bietet insbesondere auch der Diskussion musikalisch digitalen elektroakustischen Bereich eine Plattform und hat mit dem Klangdom im ZKM Kubus eine etablierte Referenzplattform für Raumklang. Zusammen mit der HfG wurde dazu auch 2015 das inSonic Festival zu Raumklang ausgerichtet, das sich im inSonic Festival Dezember 2017 wiederholt. Die große Bandbreite des Instituts zeigt sich auch in häufigen Kraftwerk-Konzerten bis hin zu häufigen Linux Audio Konferenzen. Der ehemalige Kraftwerk-Musiker Florian Schneider-Esleben war auch 1998 als Professor für Medienkunst und Performance an die HfG berufen. Ende letzten Jahres fand am Institut auch das Strömungen Symposium zu künstlerischer Sonifikation statt.

Durch unser Gehör und Körper nehmen wir Schallwellen wahr, soweit sich diese etwa im Hörbereich von etwa 20-20kHz und einem davon abhängigen Pegel befindet.  Assoziieren wir einen Sinn oder gewisse Ästhetik in ein Geräusch, so mögen wir es als Klang bezeichnen, der Teil einer Musik sein kann. Ein Teil der Akustikempfindung wird in der Psychoakustik beschrieben, die auch sehr exakt mit der Hörbarkeit von Geräuschen und Auswirkung von Wahrnehmungen auf den Menschen analysiert. Diese Analyse hat erst den Erfolgszug der verlustbehafteten Audiokompression möglich gemacht.

Für die Aufnahme von Raumklang spielt die Positionierung der Mikrofone eine besondere Rolle: Da eine Aufnahme aus allen Richtungen an einem Punkt nicht möglich ist, müssen Mikrofone mit gewissen Abstand von einander positioniert werden, wodurch der Raum diskretisiert wird. Besonders beispielhaft für die Auswirkung der Diskretisierung sind Werke von John Chowning, der die Frequenzmodulations-Synthese aus der Raumklangforschung heraus für Synthesizer patentierte. Hier erhält man an leicht unterschiedlichen Positionen mit klassischem Soundfeld Mikrofon oder mit Ambeo VR Mikrofon ein völlig anderes Konzerterlebnis.

Im Rahmen einer Stereoaufnahme und -reproduktion durch Lautsprecher entstehen Phantomschallquellen um die Lautsprecher, soweit man sich exakt im Sweet Spot des Stereodreiecks befindet. Empirisch zeigt sich, dass die Verwendung von zusätzlich an die Wand gedrehten Treibern, wie beim Acoustimass-System ein immersiveres Stereoempfinden erzeugt wird. Das räumliche Empfinden im Kopf entsteht zunächst durch Intensitäts- oder Pegelunterschiede und Laufzeitunterschieden zwischen den Ohren, die vom Gehirn rekonstruiert und die virtuelle Position der Schallquellen rekonstruiert wird. Sehr individuell spielt aber auch die Kopf- und Körperform eine große Rolle, denn je nach Kopfgröße sind die Ohren unterschiedlich weit voneinander entfernt, die Ohrmuschel unterschiedlich geformt und die Schultern unterschiedlich weit entfernt. Dadurch ergeben sich eine durch frequenzabhängige Intensitäts- und Laufzeitsunterschiede resultierende Filterung, die als Head-Related Transfer Function (HRTF) bzw. Kopfübertragungsfunktion bezeichnet wird. Die Berücksichtigung dieser Abbildung führt zur binauralen Aufnahme und Reproduktion. Eine weitere Wahrnehmungsmöglichkeit ist der Raumschall, wo eine räumliche Wahrnehmung durch die Beziehung zum Raum ermöglicht wird. Daher muss man in der Stereofonie deutlich zwischen Lautsprecheraufnahmen und Kopfhöreraufnahmen unterscheiden, da die Reproduktion über Kopfhörer die Berücksichtigung der Kopfübertragungsfunktion erforderlich ist.

Der Weg zu Mehrkanal-Tonsystemen führte von der Stereofonie zunächst zur Quadrofonie für Systeme mit vier Lautsprechern, die im Vergleich zum Aufwand einen begrenzten Gewinn des Raumklangs unter Einführung weiterer unerwünschter Effekte bewirkte. Da sich keine Aufzeichnungssysteme für dieses Tonsystem wirklich kommerziell durchsetzen konnten, war das System wenig verbreitet. Die sehr verwandten Dolby Surround oder 5.1-Systeme haben sich durch leichte Veränderung des Systems im Film- und Kinobereich dagegen sehr durchgesetzt. Für den Film war es sehr wichtig, dass Einführung des zentralen Center-Lautsprechers die räumliche Positionierung der Schauspieler deutlich verbessert hat, und die Verwendung von Subwoofer bzw. des LFE-Kanals auch preiswertere immersive Installationen durch Satelliten-Lautsprecher ermöglicht hat.

Als großer Kritiker der Quadrofonie entwickelte Michael Gerzon 1973 mathematisch-physikalisch fundierte Ambisonics-Verfahren, um auf einer beliebigen Anzahl von Lautsprechern einen Raumklang aufnehmen, aufzeichnen und wiedergeben zu können. Während ein System nullter Ordnung mit einem einzigen Kugelmikrofon und Kugellautsprecher realisiert werden kann, sind ab erster Ordnung schon mindestens acht Lautsprecher für eine sinnvolle Reproduktion erforderlich. Leider müssten sehr viele Mikrofone für das Verfahren alle koinzident in einem Punkt positioniert werden, was mit herkömmlicher Aufnahmetechnik nicht optimal realisierbar ist, und dafür von Gerzon besondere Mikrofonkonfigurationen entwickelt wurden, die das koinzidente Signal rekonstruieren können. Im Bereich der Meteorologie gibt es Ultraschallanemometer, die tatsächlich die Luftbewegung im Raum in einem einzelnen Messraum bestimmen können, nur ist dies aktuell nur im Aufnahmebereich räumlich gemittelt bis zu 200mal pro Sekunde bis maximal in den Infraschallbereich möglich.

Eine frühe berühmte und umstrittene Raumklang-Installation war der Philips Pavilion bzw. Poème électronique auf der Weltausstellung Expo 58 in Brüssel, wo die an hyperbolischen Trajektorien aufgestellten Lautsprecher als diskrete wandernde Tonquellen benutzt wurden. Zur Weltausstellung Expo 70 in Osaka entwarf Karlheinz Stockhausen für den deutschen Pavillon das Kugelauditorium, in dem die Ansteuerung der Lautsprecher durch einen Drehhebel erreicht werden konnte. Ein ähnliches Verfahren ist das Vector Based Amplitude Panning (VBAP)-Prinzip, das von Ville Pulkii 1997 wissenschaftlich ausgearbeitet wurde.

Im Gegensatz zu den früheren Installationen verlangen ambisonische Verfahren sehr regelmäßige Lautsprecherpositionen, da das Verfahren ideal als Fourier-Synthese auf einer Sphäre interpretiert werden kann. Praktisch gibt es auf einer Kugeloberfläche nur wenige exakt equidistante Punktmengen auf Basis der platonischen Körper, dazu sind volle Sphären eine architektonische Herausforderung und aufgrund unseres geringen Lokalisationsfähigkeit im Vertikalen nur von begrenztem Nutzen. Daher werden die Lautsprecher nur in einer oberen Halbsphäre mit nach oben abnehmender Anzahl pro Lautsprechern im Radius installiert.

Die ambisonische Raumklang-Demonstration ist ein Teil aus dem Stück „Parallel“ von Paul Modler, das bei einer Aufführung zusätzlich bewegliche Hörner und ein Wellenfeld-Array anspricht.

Im Gegensatz zu Mehrkanal-Tonsystemen berücksichtigt der binaurale Raumklang die Kopfübertragungsfunktion und ist nur für die Erfahrung über Kopfhörer gedacht. Zur Erzeugung von binauralen Signalen kann man auf Kunstkopf– oder In-Ear oder Orginal-Kopf-Mikrofone (OKM) zurückgreifen. Alternativ kann man Schallquellen synthetisch über die HRTF auf die Wirkung auf die Ohren berechnen.

Zur Erfassung der individuellen HRTF werden Mikrofone in die Ohren installiert und robotergesteuert Lautsprecher an verschiedene Positionen um die Versuchsperson gefahren. Die Lautsprecher spielen dann jeweils Klicks oder Chirps, um die Impulsantwort des Signals, die Head-Related Impulse Response zu bestimmen. Die HRTF ergibt sich dann als Fourier-Transformite der Impulsantwort. Alternativ können auf niedrigerem Niveau auch halbsphärische Lautsprecher wie im Klangdrom statt einer langsamen Robotersteuerung verwendet werden. Impulsantworten existieren grundsätzlich nur auf einer begrenzten Anzahl von Filterpunkten, zwischen denen nach VBAP-Prinzip auch Zwischenpunkte berechnet werden und Klänge aus beliebigen Richtungen im zwischen Punkten im Diskretisierungsgitter abgebildet werden. Eine Herausforderung bleibt die Kopfbewegung, die mit Head-Trackern für einen immersiven Eindruck berücksichtigt werden muss, man sich also zum Klang hindrehen können muss. Das ist eine entsprechende Herausforderung der Virtual Reality, wo die Bewegung des Kopfes auch unmittelbar in die Darstellung berücksichtigt werden muss.

Die räumliche Abbildung von Tönen ergibt auch neue Möglichkeiten in der Sonifikation, um Informationen nicht nur klanglich unterscheidbar sondern auch räumlich lokalisiert abgebildet werden kann. Dabei ist zu berücksichtigen, dass visuelle Eindrücke akustische Ereignisse verfälschen können. Bei steigender Komplexität der verwendeten Modelle, muss das Verständnis für Sonifikation auch erlernt werden.

Literatur und weiterführende Informationen

Podcasts