Hilfsmittel und Technologiefolgenabschätzung

Ein Beitrag von Gerhard Jaworek.

  • Wer ist Schuld, wenn ein autonom fahrendes Auto einen Unfall baut?
  • Welche Entscheidung soll ein Roboter treffen, wenn bei allen Möglichkeiten jemand in Gefahr geriete?
  • Wie soll eine Maschine aussehen, damit sie in der Pflege akzeptiert wird?
  • Wie viel Entscheidung soll mir ein Hilfsmittel abnehmen, ohne dass es  bevormundend wird?
  • Wie diskret soll eine Hilfstechnologie sein, dass sie nicht stigmatisierend wirkt?

All diesen Fragen ist gemeinsam, dass sie technisch mögliches in Frage stellen.

Mit zunehmenden technischen Errungenschaften, Atomkraft, Gentechnik, künstlicher Intelligenz bis hin zu autonomen fahren, ist es immer wichtiger, zu hinterfragen, ob eine Entwicklung eher segensreich oder Fluch für die Menschheit ist.

Aus der Disziplin, Technologie auf ihre Folgen hin zu überprüfen, ist mittlerweile eine Wissenschaft entstanden. Diese versucht mit systematischen Verfahren, wie beispielsweise Fragebögen, Interviews, Workshops und weiterem, Technologien auf ihre Folgen hin zu untersuchen und gegebenenfalls zu warnen, sollten die Folgen eher negativer Natur sein. Diese Wissenschaft nennt man Technikfolgen-Abschätzung. Abschätzung deshalb, weil man sich nie ganz sicher sein kann, ob die Prognosen und Folgen genau so eintreffen, wie man das abgeschätzt hat.

Diese Wissenschaft arbeitet in dem Bewusstsein, dass die Einführung neuer Technologie immer folgen hat und eventuell sogar gesellschaftliche Veränderungen mit sich bringt.

Die Forschungsinhalte der ITAS-Forschung werden häufig als ELSI-Fragen bezeichnet. ELSI steht für Ethical, Legal and Social Implications. (Ethische, rechtliche und soziale Implikationen oder Aspekte).

In unserem Terrain-Projekt wird viel mit neuer Technologie experimentiert. Aus diesem Grunde ist einer der Partner unseres Terrain-Projektes das Institut für Technikfolge-Abschätzung (ITAS).

Es versucht mit Experten, Betroffenen und außenstehenden Technikfolgen abzuschätzen, die beispielsweise dadurch entstehen, dass man eine Kamera an der Brust trägt, dass Eigenverantwortung an neuronale Netze abgegeben wird und vieles mehr.

Zu diesem sehr spannenden und breiten Themenfeld sind im Podcast des Projektes zwei Folgen erschienen: Die aktuelle Folge behandelt die Erfahrungen und die verschiedenen Gespräche, die Markus Winkelmann und Sebastian Ritterbusch beim zweiten Vernetzungstreffen der Projekte in der Förderlinie „Verlässliche Technik für den mobilen Menschen“ führen konnten. Das Treffen fand am 18. April 2018 in Frankfurt statt: Neues Terrain 10 – Vernetzungstreffen Intelligente Mobilität

Eine weitere Folge befasst sich grundsätzlich mit den Aufgaben die das Institut für Technikfolgeabschätzung des KIT ITAS hat: Neues-Terrain-03 – Innovationsforschung

Der sehr zu empfehlende Wissenschaftspodcast @omegataupodcast  brachte eine Folge mit Prof. Grunwald, dem Leiter des ITAS heraus: Omega Tau 275 – Technikfolgenabschätzung

Technik zeigte in der Geschichte schon immer Folgen. Und Folgen steht hier wertfrei für das Wort Veränderung. Besonders in unserer schnelllebigen Zeit ist es wichtig, sich professionell mit den Folgen zu beschäftigen, welche die rasanten technischen Entwicklungen der Neuzeit für uns bereit halten.

Dieser Beitrag wurde zuvor durch das SZS auf Facebook veröffentlicht.

Neues Terrain 10 – Vernetzungstreffen Intelligente Mobilität

Am 18. April 2018 fand in Frankfurt das zweite Vernetzungstreffen der Projekte in der Förderline „Verlässliche Technik für den mobilen Menschen“ statt. Markus Winkelmann vom ITAS am Karlsruher Institut für Technologie (KIT) und Sebastian Ritterbusch von der iXpoint Informationssysteme GmbH konnten an dem Treffen teilnehmen, und unterhalten sich hier über die Erfahrungen und die verschiedenen Gespräche, die sie dort führen konnten: Vernetzungstreffen Intelligente Mobilität (2:00:06, 61MB)

Die Vernetzungstreffen ermöglichen den Projekten einen Austausch sowohl über ihre Projekte, als auch über Querschnittsthemen, die alle Projekte in der Förderlinie vereint. Verglichen zum ersten Vernetzungstreffen im Rahmen der Fachtagung Mobilität im Wandel in 2017 konnte hier noch stärker den einzelnen Projekten als auch den begleitenden ELSI Themen (Ethische, rechtliche und soziale Aspekte) Rechnung getragen werden.

In der Einführung durch Frau Albrecht-Lohmar für das BMBF-Referat „Mensch-Technik-Interaktion; Demografischer Wandel“ wurde großer Wert darauf gelegt, dass Forschung und Förderung kein Selbstzweck sein dürfen, sondern sie zu Innovationen führen sollen, die auch bei den Menschen ankommen. In der Begrüßung durch Dr. Marcel Kappel für den Projektträger und Organisator VDI/VDE-IT im Bereich Mensch-Technik Interaktion wurde die Einbettung der Förderlinie in das Forschungsprogramm dargestellt.

KoFFI

Das Projekt KoFFI zur kooperativen Fahrer-Fahrzeug Interaktion startete die Projektvorträge. Es ging dabei um Fragen wie man mit Konfliktsituationen zwischen Fahrer und Fahrzeug umgehen kann, oder wie eine Vertrauenssituation hergestellt wird. Eine kritische Frage war auch, in welchen Situationen sich ein Fahrzeug über die Entscheidungen des Fahrers hinwegsetzen sollte. So verhindert beispielsweise ein ausgelöster Airbag sehr deutlich die Aktionsfreiheit des Fahrers, es ist jedoch weithin akzeptiert, dass hier die unaufgeforderte Einschränkung des Menschen weit schlimmeres verhindern kann. Wann hingegen Überholvorgänge noch abgebrochen werden dürfen, sind hingegen deutlich kompliziertere Fragestellungen, die im Projekt untersucht werden. Dabei muss auch grundsätzlich berücksichtigt werden, dass ein Einverständnis auch ein Verständnis voraussetzt. Hier ergaben sich im Projekt überraschende Ergebnisse, über die uns Susanne Kuhnert vom Institut für Digitalethik der Hochschule für Medien (HDM) Stuttgart erzählte.

In der ethischen und rechtlichen Begleitung des sonst technisch ausgelegten Projekts KoFFI ging es weit über eine Literaturarbeit hinaus, und es wurde das Gespräch mit Probanden im Sinne einer experimentellen Philosophie gesucht, wo mit empirischen Ergebnissen und Experimenten gearbeitet wurde. Im der Forschung um autonomes Fahren zur Erarbeitung von ethischen Leitlinien (vgl. medizinische Leitlinien) stellte sich dabei früh die Frage, ob die Nutzergruppe überhaupt den Begriff der Autonomie versteht.

Das Projekt KoFFI untersucht grundsätzlich die Nutzbarkeit von Gesten und natürlicher Sprache zur Interaktion von Fahrzeug und Mensch, damit nicht mehr feste Befehle auswendig gelernt werden müssen, sondern der Wagen aus der Situation heraus den Menschen so gut wie möglich mit natürlicher Sprache verstehen kann. Eine überraschende Erkenntnis war hier, dass selbst bei technik-affinen Probanden eine grundsätzliche Technikskepsis zu beobachten war, die auf zweiten Blick durch den alltäglichen Umgang mit niemals perfekter Technik verständlich wird. Gleichzeitig wünscht sich natürlich niemand einen Technikausfall bei einer Fahrt mit hoher Geschwindigkeit auf der Autobahn. Diese Frage kann nicht alleine technisch behandelt werden, sondern benötigt einer ethischen Betrachtung, wie hier der Umgang der Technik mit dem Menschen und die Technikentwicklung von Menschen auf sehr elementare Fragen eingehen kann.

Im Vortrag wurden auch die Begriffe Technikzukünfte, wie die Nutzenden sich die Technik in Zukunft erwünschen, den Zukunftstechniken, den real in Zukunft existierenden Techniken, gegenüber gestellt. Um diese Begriffe der ungewissen Zukunft besser in den Griff zu bekommen, werden Szenarien erarbeitet, um wahrscheinliche Zukünfte als Entscheidungsgrundlage entwickeln zu können.

Vorreiter

Das Projekt Vorreiter will durch neuartige Kommunikationsmethoden auch Menschen mit Einschränkungen den Zugang zu teil- oder vollautomatisierten Fahrzeugen erleichtern. Ein Aspekt war hier, wie beispielsweise eine Lenkradsteuerung auch Menschen theoretisch und praktisch ermöglicht werden kann, die für eine traditionelle Kontrolle des Lenkrads körperlich nur eingeschränkt fähig sind. Hier wurden unter anderem Tests mit einem Altersanzug durchgeführt, die auch darstellten, dass die Einschränkungen auch einige in Erwägung gezogene Gesten betrafen.

Die anschließende Podiumsdiskussion zu den beiden Projekten startete mit der Frage „Mein Fahrzeug soll sein wie…“, wo sich das Publikum für den „Partner“ aussprach.

KOLA

Das Projekt KOLA befasst sich mit kooperativen Laserscheinwerfern und im Treffen wurden die Schwerpunkte Psychologie und Technik dargestellt. Welche Signale und Hinweise können über Lichtbilder auf der Straße verwendet werden, um über eine neue Kommunikationsform ein sozialeres und sicheres Straßenumfeld zu schaffen. Auf der einen Seite erscheinen Emoticons und Smileys als eine moderne und eingängige Kommunikationsform, jedoch sind sie weit weniger eindeutig als bekannte Verkehrsymbole, dessen Verwendung aber aus guten Gründen hier durch die StVO stark reglementiert ist. Auch der Stand der technischen Realisierung wurde im Vortrag sehr beeindruckend geschildert.

PAKoS

Zum Projekt PAKoS ging es insbesondere um die sichere Übergabe der Fahrzeugkontrolle vom Fahrer an die Automation und umgekehrt. An diesem Projekt ist mit dem cv:hci am Karlsruher Institut für Technologie (KIT) auch ein Partner vom TERRAIN-Projekt beteiligt.

Dr.-Ing. Michael Flad vom Institut für Regelungs- und Steuerungssysteme (IRS) am KIT war bereit, uns PAKoS vorzustellen, und uns die unterschiedlichen Kommunikationsmodalitäten, die in der Kommunikation mit dem Fahrzeug zum Einsatz kommen, zu erklären. Neben der visuellen Darstellung im Display oder als Projektion auf der Windschutzscheibe, wird auch eine akustische Sprachausgabe verwendet. Ergänzt werden diese Darstellungsformen durch haptische Signale durch einen mit Vibrationsmotoren ausgestatteten Sitz, der Interaktion mit dem Lenkrad und Pedalen an den Füßen. In einer ersten Studie hat sich ergeben, dass visuelle Signale am leichtesten übersehen werden, im Vergleich beispielsweise zu akustischen Hinweisen. Am deutlichsten wurden hier die Vibrationssignale im Sitz wahrgenommen. Dies ist genau gegenläufig zur möglichen Informationsdichte und entsprechenden Ablenkungspotential der Kanäle. Besondere Ablenkungen können hier die aktuell nicht erlaubten Nebentätigkeiten während des Fahrens sein, die beim autonomen Fahren teilweise akzeptiert werden können.

In der Zeit der nur teilautonomen Systeme müssen hier Verfahren untersucht werden, wie die Übergabe der Verantwortung in Abhängigkeit von den Tätigkeiten, dem Fahrer und der Situation ablaufen kann. Ein mathematisches Modell ist hier die Abbildung der Regelkonzepte als gekoppeltes Differenzialgleichungssystem zu betrachten. Mit Hilfe eines Differenzialspiels kann die Vorhersage über die erwartete Übernahme in die Fahrzeugautomation aufgenommen werden.

Der im Gespräch erwähnte Unfall mit einem teilautonomen Uber-Auto zeigte sehr deutlich, welche schlimmen Auswirkungen die Ablenkung der fahrenden Person haben kann.

Im Gespräch mit Luis Kalb vom Lehrstuhl für Ergonomie an der TU München ging es dann um Details der Verwendung des von Bastiaan Petermijer entwickelten vibrotaktilen Autositzes. Hier sitzt man auf einer Art Vibrationsmatte, die Vibrationsmuster in unterschiedlichen Intensitäten von der Sitzfläche bis zum Rückenbereich darstellen kann. Typische Muster sind Linien, die komplett von einer Seite zur anderen durchlaufen, und sie werden oft zusätzlich durch Sprachausgaben ergänzt. Gerade bei Ablenkungen des Fahrers kann mit Hilfe dieses Kommunikationskanals sehr deutlich auf gefährliche Situationen oder gefährliches Handeln hingewiesen werden.

Die zusätzlichen Kommunikations- und Detektionsmethoden für teilautonomen Automobilen ermöglichen deutlich sicherere Betriebsmodi, wenn beispielsweise bei einem abgelenkten Fahrer automatisch die Fahrgeschwindigkeit reduziert wird, da der Mensch nicht mehr so schnell eingreifen kann. Eine unmittelbar verständliche Reaktion kann auch sehr zur Akzeptanz eines Systems beitragen, wenn sie nicht womöglich als Rechtweisung oder Bestrafung aufgefasst wird. Ganz abgesehen davon nimmt die rechtliche Fragestellung zusätzlich einen großen Raum ein, wie die Verantwortung in solchen Situationen zu bewerten ist. Ein anderes Beispiel sind künstlich erzeugte Geräusche für langsam fahrende Elektroautos, ohne die blinde Menschen das Fahrzeug kaum noch akustisch orten können. Es gibt eine Vielzahl von technischen Lösungen, die sowohl im sozialen, psychologischen und rechtlichen Kontext bewertet werden müssen. Ab 2021 wird jedes neu zugelassene E-Auto entsprechende Geräusche machen müssen.

Bei der Frage in das Plenum, wie die Kommunikation zwischen Fahrzeug und Fahrende stattfinden sollte, lief es auf die Punkte intiutiv, sicher und verständlich hinaus, und führte in eine rege Diskussion zu den beiden Projekten.

Safety4Bikes

Der nächste Block startete mit dem Projekt Safety4Bikes für ein Assistenzsystem für mehr Sicherheit von fahrradfahrenden Kindern. Jochen Meis von GeoMobile und Dr. Florian Klingler der CCS Labs des Heinz Nixdorf Instituts der Uni Paderborn gaben uns in einem Gespräch einen tiefen Einblick in den Stand und die Erfahrungen aus ihrem Projekt. Sehr interessant ist beispielsweise das Ergebnis, dass der Fahrradhelm inzwischen bei Kindern fast durchweg genutzt wird, hingegen die Eltern ihn seltener und besonders die Großeltern fast überhaupt nicht verwenden. Ein anderes Ergebnis ist, dass der Unfallschwerpunkt für fahrradfahrende Kinder Kreuzungsbereiche sind, gefolgt von Ein- und Ausfahrten.

Eine Möglichkeit die Sicherheit zu erhöhen bietet die Car2X Kommunikation, wo im Projekt untersucht wird, wie Fahrräder in dieses Kommunikationsnetz integriert werden können, um im Vorfeld auf Gefahrensituationen hinweisen zu können. Die technische Grundlage ist das IEEE 802.11p Protokoll, das eine ad-hoc Kommunikation im Straßenverkehr ermöglicht. Die ersten Tests im Safety4Bikes Projekt wurden auf Trikes umgesetzt, um den jungen Probanden keiner zusätzlichen Gefahr auszusetzen. In Zukunft ist die fortschreitende Elektrifizierung auch im Fahrradbereich für das Projekt eine zusätzlich vorteilhafte Entwicklung, da sie die Frage der Stromversorgung erleichtert.

TERRAIN

Den Ansatz weitere Methoden im Forschungsprojekt zunächst auf einem tragbaren Computer statt auf dem Smartphone umzusetzen, verfolgen wir im TERRAIN-Projekt genauso wie bei Safety4Bikes: Die ersten Tests der Bilderkennung wurden auf einem Laptop durchgeführt, den die Probanden auf dem Rücken trugen, und im weiteren Verlauf befassen wir uns nun damit, wie und ob und wann wir Teile davon auch auf Smartphones bringen können.

Nach der Vorstellung des Fortschritts im TERRAIN Projekt gab es eine Podiumsdiskussion zu Gefährdeten und Gefahren im Straßenverkehr- nach Meinung des Plenums sind Fahrradfahrende besonders den Gefahren ausgeliefert.

ELSI-Themen

Das Treffen endete mit einer Diskussion zu ELSI-Themen, angeleitet durch Prof. Dr. Tobias Keber (@datenreiserecht), der unter anderem von den Ergebnissen einer Umfrage zu ELSI-Themen bei Forschungsprojekten berichtete: Ein Ergebnis war hier der Ratschlag, ELSI-Aspekte als kreative ‚Störfaktoren‘ zu nutzen. Auf jeden Fall müsse die Begleitforschung auch zu gemeinsamen Aktivitäten führen, um eine Integration zu ermöglichen. Das Zusammenspiel der technischen Entwicklung mit der Reflektion in der ELSI-Begleitforschung ist ein guter Weg, auf eine Entwicklung für die Menschen hinzuarbeiten, also zur Technik für die Menschen hinzuwirken.

Fußgängerrouting auf Basis der OSM

Auf welcher Straßenseite man sich befindet hat großen Einfluss auf einen sinnvollen Fußweg im Stadtgebiet. Besonders für Menschen mit Blindheit oder anderen Sinneseinschränkungen spielt es eine große Rolle, wo man Straßen sinnvoll überqueren kann. Bisher allgemein verfügbare Lösungen für Fußgängerrouting bzw. Pedestrian Routing berücksichtigen jedoch i.A. keine Straßenseiten. Im Rahmen eines Pedestrian-Routing-Testinterfaces stellt die iXpoint Informationssysteme GmbH den Entwicklungsstand des im Terrain-Projekt entwickelte Fußgängerrouting zur Verfügung: Hier werden möglichst sinnvolle Fußwege für Menschen mit Blindheit in Deutschland, Österreich oder der Schweiz gesucht und auf einer Karte dargestellt.

Bild eines Fußgängerroutings auf der OpenStreetMap (OSM) - Pedestrian Routing - Eine rote Linie läuft auf Bürgersteigen mit genau dargestellten Überkreuzungen vom Start zum Ziel
Fußgängerrouting auf der OpenStreetMap (OSM)

Das Testinterface stellt die Wegfindung visuell in einer Kartendarstellung zur Verfügung und steht daher aktuell nur sehenden Personen zur Verfügung, und ermöglicht insbesondere die Evaluation der Datenbasis für die OSM-Community. Die Nutzung im Projekt erfolgt barrierefrei auf Smartphones mit Sprachansagen und optionalen weiteren Signalen wie Vibration und Tönen.

„Nicht mitten auf der Straße“

Im Rahmen der Gulaschprogrammiernacht 2018 wurden im Vortrag „Nicht mitten auf der Straße“ technische Hintergründe zum Fußgängerrouting auf Basis von Daten in der OpenStreetMap (OSM) präsentiert.

Bild aus Vortrag "Nicht mitten auf der Straße" zum Fußgänger-Routing im Terrain-Projekt auf der GPN18 im ZKM Karlsruhe
Nicht mitten auf der Straße: Vortrag zum Fußgänger-Routing im Terrain-Projekt auf der GPN18 im ZKM Karlsruhe

In der Presentation werden die besondere Herausforderungen für Fußgängerrouting, die aktuell verfügbaren Lösungen und bisherigen Ansätze im Vergleich zur neuen Methodik vorgestellt und illustriert.

Daten in der OpenStreetMap

Die OpenStreetMap (OSM) beinhaltet das wahrscheinlich weltgrößte digitale Wegenetz für Fußgänger, doch wie können wir sie bei der Wegfindung für Fußgänger sinnvoll nutzen? Im Forum der Community werden die vorhandenen Daten und der neue Service lebhaft diskutiert:

Bild eines Beitrags zum Fußgängerrouting im OSM-Forum
Diskussion zum Fußgängerrouting im OSM-Forum

OpenStreetMap Forum >> Germany >>  Fußgängerrouting auf der OSM

Literatur

Auf der International Conference on Computers Helping People with Special Needs – ICCHP 2018 wurde das neue Verfahren im wissenschaftlichen Kontext vorgestellt:

S. Ritterbusch, H. Kucharek. Robust and Incremental Pedestrian Path Network Generation on OpenStreetMap for Safe Route Finding. In: Miesenberger K., Kouroupetroglou G. (eds) Computers Helping People with Special Needs. ICCHP 2018. Lecture Notes in Computer Science, vol 10897. Springer, Cham, 2018.

Eine frei verfügbare Preprint Fassung wird in Kürze zur Verfügung stehen.

Encoding Cultures: Rainer Stiefelhagen

Computer Vision zur Unterstützung von Menschen mit Sehschädigung

Vom 27.-28. April fand am ZKM-Zentrum für Kunst und Medien das Symposium „Encoding Cultures. Leben mit intelligenten Maschinen“ statt. In den Vorträgen und Diskussionen zur Auswirkung der künstlichen Intelligenz sprach Prof. Dr. Rainer Stiefelhagen über den Einsatz von Maschinensehen für die Mensch-Maschine-Interaktion und der Unterstützung  für Menschen mit Blindheit oder Sehbehinderung.

ICCHP18 Poster

Image of poster: The TERRAIN Project  Independent urban mobility for pedestrians with blindness and low vision through audio-tactile navigation

The TERRAIN Project

Independent urban mobility for pedestrians with blindness and low vision through audio-tactile navigation

A. Constantinescu, B. Behrendt, D. Kochanek, D. Koester, G. Jaworek, H. Kucharek, K. Müller, M. Awizus, M. Haurilet, M. Winkelmann, N. Weinberger, P. Frank, R. Stiefelhagen, S. Helfer, S. Kliesch, S. Ritterbusch, S. Siebert, V. Petrausch

Motiviation

In urban, unknown spaces it is often difficult for people with blindness or visual impairment to find their way around. The different environments such as city centres, parks or forest paths place diverse demands on orientation and mobility. A lack of local knowledge and orientation problems can lead to blind people not using some areas of the city, such as local recreation areas. This results in a limited range of movement and social isolation. Assistance systems – which help to identify obstacles and points of orientation when navigating in public space – can noticeably improve the quality of life.

Goals

The aim of TERRAIN is to develop a portable assistance system to support the mobility of blind and visually impaired people in urban areas. The system combines navigation based on digital map data with camera-based image processing methods. Paths, obstacles, traffic lights, road crossings as well as interesting landmarks, buildings and objects are detected. To this end, an accessible, acoustic and haptic user interface is being developed that can be adapted to the needs and preferences of users. A new type of mobile, wirelessly connected Braille display will also be integrated.

Project

With TERRAIN, decisive hurdles in mobility and navigation are overcome and confidence in the users‘ own movement and mobility abilities is strengthened. Everyday paths can be done independently; activity and social contacts ensure physical and mental well-being.

The project receives up to 1.7 M€ funding by the Federal Ministry of Education and Research of Germany from July 2016 to June 2019. Further information is available on the project website: https://www.terrain-projekt.de/

Topics

Scene Analysis by Computer Vision

A portable Computer Vision system aims at detecting landmarks, obstacles and free surface, as well as traffic lights, buttons and crossings in front of the user. The goal is to use this information to help crossing streets more safely.

Multi-Modal Human-Computer Interaction

The system provides information using acoustic and haptic devices, such as narration or sounds, as well as Braille, vibrating belts or armbands. Various interaction modes aim at offering a system that is adaptable to the users capabilities.

Roadside-aware Safe Routing

As finding suitable crossings is most important for blind and visually impaired users, the project introduced a roadside-aware safe routing that prefers safe crossings and paths to shorter alternatives and gives instructions accordingly.

Experts and Citizens Involvement

The use of new technology in an urban environment may lead to unexpected responses by citizens. Therefore citizens and experts of various fields are included in workshops and meetings, to improve the reception and results of the project.

Innovative Braille Integration

The development of a new Braille Interface aims at the specific needs in urban mobility in terms of weight, usability and improved concepts for information display using the well proven Braille representation.

System Evaluation and Mobility Training

Close collaboration with Mobility Trainers is an integral part in the development and evaluation phase. The feedback of test users with blindness and low vision has a major impact on the final result and the training material that is provided.

User Centered Smartphone Solution

A fully accessible smartphone app offers the user centered access to all supporting features of the project. The user decides what information is given, and how devices should present the information about the environment.

Consortium

Karlsruhe Institute for Technology (KIT)

Studienzentrum für Sehgeschädigte (SZS)

Computer Vision for Human-Computer Interaction (cv:hci)

Institute for Technology Assessment and Systems Analysis (ITAS)

F. H. Papenmeier GmbH & Co. KG

iXpoint Informationssysteme GmbH

Funding

The TERRAIN project is sponsored by the Federal Ministry of Education and Research, Germany.

SightCity 2018

Wie seit vielen Jahren, fand auch in diesem Jahr im Mai die größte internationale Messe für Hilfsmittel für Menschen mit Blindheit oder Sehbehinderung SightCity im Sheraton-Hotel am Frankfurter Flughafen statt.

Vom einfachen Haushaltshelfer, dem Nadeleinfädler, über taktile Spiele, Punktschrift- und Hörbücher, über die Selbsthilfeorganisationen, bis hin zu komplexen Arbeitsplatzausstattungen mit Computer, Vergrößerungssoftware, Bildschirmkamera, Braillezeile, Sprachausgabe, Punktschriftdrucker und vieles mehr, war alles zu finden.

In diesem Jahr waren aber ganz deutlich einige neue Trends zu erkennen. Es gab vielfältige Anpassungen zu kommerziellen Organisern, PDA’s und Smartphones. Das betraf sowohl die Software für die Vergrößerung und die Sprachausgabe, als auch die Punktschriftausgabe mit Touch-Funktion.

Mindestens drei Ansätze – teilweise noch als Prototyp oder gar nur als Modell – zur Entwicklung zweidimensionaler taktiler Displays konnten bestaunt werden. Für Menschen mit Restsehvermögen halten langsam Virtual Reality und Augmented Reality mit Brillen zur Verbesserung des Sehrestes Einzug.

Es gab auch wieder Geräte, die auf Ultraschall und Laser basiert Hindernisse akustisch oder per Vibration anzeigen. Ein Ansatz war sogar in einem Schuh integriert. Außerdem wurde auch ein Vibrationsgürtel zum Halten der Richtung präsentiert. Was bleibt ist, dass sich die Reise zur diesjährigen SightCity gelohnt hat. Erstmals konnten wir die Sightcity und die damit verbundenen Netzwerke nutzen, um Interessenten für die anstehenden Benutzertests für Terrain zu finden und zu begeistern.

Gerhard Jaworek, SZS, KIT

Neues Terrain 09 – Vibrationsbänder

Richtungsinformationen lassen sich sehr gut über Vibrationen vermitteln. Dafür hat Patryk Dzierzawski im Rahmen seiner Abschlussarbeit Vibrationsbänder entwickelt, aufgebaut und evaluiert: Vibrationsbänder (46:30, 21MB)

Am Lehrstuhl vom Computer Vision for Human-Computer Interaction Lab (cv:hci) und dem Studienzentrum für Sehgeschädigte (SZS) werden nicht nur Assistive Technologien für Menschen mit Sehbehinderungen evaluiert und angeboten, sondern auch dazu unterrichtet. Weiterhin werden Studierenden Möglichkeiten geboten unter anderem mit Abschlussarbeiten in diesem Bereich sich direkt an der Forschung zu beteiligen. Patryk Dzierzawski stellt dazu hier im Gespräch mit Gerhard Jaworek seine Abschlussarbeit zu Vibrationsbändern zur Navigationsunterstützung an Arm oder Fuß vor.

Die Arbeit bestand aus dem Design, der prototypischen Herstellung, einer Ansteuerung durch Smartphone und der Evaluation des vibrotaktilen Interfaces. Die Vibrationsbänder selbst bestehen aus mit 3D-Druck erstellten Band und Gehäuse, einem Mikrocontroller mit Batterie und Vibrationsmotoren. Bei der Erstellung war das Vorwissen um Wearable Computing und Robotik sehr hilfreich.

Schon in der Folge 2 „Blind Orientieren“ dieses Podcasts wurden vorgestellt, wie vibrotaktile Interfaces zum Einsatz kommen können. Meisst gab es hier nur einfache Vibrationen, wo hingegen die Vibrationsbänder drei von einander unabhängig ansteuerbare Vibrationsaktoren eingesetzt werden. Damit können elementare und wichtigste Navigationsanweisungen zur Richtung und Warnmeldungen zum Anhalten sehr direkt vermittelt werden. Der große Vorteil der vibrotaktilen Vermittlung liegt dabei darin, dass der Hörsinn nicht wie bei Narration und Sonifikation eingeschränkt wird.

Im Gegensatz zu kommerziellen Lösungen wie dem VibroTac System lag in der Arbeit der Fokus auf einer leichten und preiswerten selbstätigen Herstell- und Reparierbarkeit durch Rapid Prototyping Technologien mit der damit einhergehenden Reduzierung auf eine minimale Lösung, die noch die volle Navigationsunterstützung liefern kann. Die Literaturrecherche führte unter anderem zum „Gentle Guide“, wo an jedem Arm ein Vibrationsmotor eingesetzt wurde, wo durch die Nutzenden gerade die Nutzung zweier Bänder kritisch gesehen wurde, so wurde hier eine Lösung mit nur einem Band angestrebt. Interessanterweise hat sich diese reduzierte Lösung als sehr effektiv in einem Navigationstest erwiesen, wenn auch die Interpretation der Signale im Vergleich zur akustischen Ausgabe durch den Menschen etwas länger dauerte.

Im FDM 3D-Druck kamen für das Armband ein flexibles TPU Filament und für den Gehäuseschutz für Platine und Batterie ein hartes Filament zum Einsatz. Für den Microcontroller Adafruit Feather 32u4 Bluefruit LE mit eingebautem Bluetooth Low Energy (BLE)-Modul musste auch die Ansteuerelektronik für die Motoren ausgelegt werden. Die Programmierung erfolgte mit der Arduino-Entwicklungsumgebung und ermöglichte die Ansteuerung durch Smartphones über Bluetooth LE.

Für die technische Ansteuerung der Vibrationsbänder wurde auch eine App für Android Smartphones entwickelt. Dabei wurde auch auf die Barrierefreiheit geachtet, damit auch blinde Menschen die technischen Tests durchführen können. In den damit ermöglichten Praxistests wurde geprüft, in wie weit die gewünschte Funktion erfüllt wird, welche Vibrationsstärken und -dauer als sinnvoll und angenehm bewertet wurden. Dabei wurden die Tests sowohl in Ruhe als auch in Bewegung durchgeführt. Interessanterweise wurden am Armband zur sichereren Unterscheidbarkeit typischerweise länger und stärker gewünscht, am Fußband wurden die angesetzten Standardwerte gut akzeptiert. Die Tests beschränkten sich aber auf die reine Identifikation der Vibrationen, erweiterte Wizard-of-Oz Tests bei dem ein Mensch die Funktion einer erweiterten Software simuliert und die Hardware direkt ansteuert, sollen eine Navigation simulieren und sind Teil eines späteren Tests im Terrain-Projekt.

Literatur und weiterführende Informationen

Neues Terrain 08 – Raumklang

Mit unserem Gehör können wir Geräusche unmittelbar orten und identifizieren. Um diese Fähigkeit sinnvoll im Projekt nutzen zu können, gibt uns Dr. Paul Modler einen Einblick in Raumklang (2:43:10, 130MB).


Die Abteilung Medienkunst Akustik (MK Akustik) der Staatlichen Hochschule für Gestaltung (HfG) in Karlsruhe befasst sich mit elektronischer und elektroakustischer Musik, Klanginstallation und Sonifikation. Sie wird von Dr. Paul Modler geleitet, der uns in diesem Gespräch einen Einblick in Raumakustik und Techniken für räumliches Hörempfinden über Kopfhörer geben konnte.

Paul Modler ist gerade von einem Besuch der Ars Electronica in Linz zurückgekehrt. Ein hervorgehobenes Event des Festivals der elektronischen Künsten war die Klangwolke einer Story mit Feuerwerk, Maschinen, Jets und Booten auf der Donau. Der Wettbewerb Prix Ars Electronica gab einen Einblick, welche aktuellen Richtungen die durchaus diskutierte Medienkunst darbietet.

Nach seinem Diplom in den Ingenieurwissenschaften an der ehemaligen Universität Karlsruhe (jetzt Karlsruher Institut für Technologie (KIT)) zur Signalverarbeitung und Filterentwurf des Waveterm Synthesizer der Palm Products GmbH (PPG), gelangte Paul Modler an die University of York, wo er im Bereich der Music Technology promovierte und von dort an die Hochschule für Gestaltung in die Medienkunst geworben wurde. Seine Forschungsinteressen gehen auch in Richtung des Mehrkanaltons, insbesondere im Verfahren der Ambisonics, das nach langer Durststrecke inzwischen sogar als Raumklangformat bei YouTube Einzug gehalten hat.

Die MK Sound setzt sich mit der Frage der Musikerstellung, der Definition und möglichen Instrumenten sowie der Technik, Installation und Performance in einem sehr breiten Spektrum interdisziplinär auseinander. Es gibt Lehrveranstaltungen zur analogen Tonerzeugung, wie auch die Auseinandersetzung mit neuen digitalen Einflüssen und die Abbildung analoger Synthesizern auf mobilen Geräten wie bei Korg. Die Gruppe wird auch von besuchenden Künstlern wie John Richards in Richtung Circuit Bending inspiriert. Dies führt zu faszinierenden Abschlussarbeiten wie den Atmospheric Disturbances von Lorenz Schwarz, wo Raumklang mit Plasmalautprechern künstlerisch umgesetzt wurde. Interessante Impulse entstehen auch aus der Zusammenarbeit mit weiteren Instituten und Hochschulen: So beteiligen sich auch oft Studierende des KIT an Projekten.

Die Aufnahme fand im Studio 311 der MK Sound statt, wo die Gruppe einen mobilen Klangdom installiert hat, um an ambisonischen Verfahren zu arbeiten und ihn musikalisch zu nutzen. Zur Ansteuerung kommt hier die Software Zirkonium wie auch die Software des Institut de Recherche et Coordination Acoustique/Musique (IRCAM) „Spat“ zum Einsatz, sowie andere verfügbare Verräumlichungstools. Ein Aspekt ist dabei auch der Wandel der Sicht auf den Lautsprecher vom Mittel zum Zweck hin zu einem eigenständigen Musikinstrument.

Die Hochschule für Gestaltung in Karlsruhe ist eingerahmt und im gleichen Haus wie das Museum für neue Kunst und das ZKM – Zentrum für Kunst und Medien und  Medienmuseum. So arbeitet die MK Sound natürlich eng mit dem von Prof. Ludger Brümmer geleiteten Institut für Musik und Akustik am ZKM zusammen. Das Institut bietet insbesondere auch der Diskussion musikalisch digitalen elektroakustischen Bereich eine Plattform und hat mit dem Klangdom im ZKM Kubus eine etablierte Referenzplattform für Raumklang. Zusammen mit der HfG wurde dazu auch 2015 das inSonic Festival zu Raumklang ausgerichtet, das sich im inSonic Festival Dezember 2017 wiederholt. Die große Bandbreite des Instituts zeigt sich auch in häufigen Kraftwerk-Konzerten bis hin zu häufigen Linux Audio Konferenzen. Der ehemalige Kraftwerk-Musiker Florian Schneider-Esleben war auch 1998 als Professor für Medienkunst und Performance an die HfG berufen. Ende letzten Jahres fand am Institut auch das Strömungen Symposium zu künstlerischer Sonifikation statt.

Durch unser Gehör und Körper nehmen wir Schallwellen wahr, soweit sich diese etwa im Hörbereich von etwa 20-20kHz und einem davon abhängigen Pegel befindet.  Assoziieren wir einen Sinn oder gewisse Ästhetik in ein Geräusch, so mögen wir es als Klang bezeichnen, der Teil einer Musik sein kann. Ein Teil der Akustikempfindung wird in der Psychoakustik beschrieben, die auch sehr exakt mit der Hörbarkeit von Geräuschen und Auswirkung von Wahrnehmungen auf den Menschen analysiert. Diese Analyse hat erst den Erfolgszug der verlustbehafteten Audiokompression möglich gemacht.

Für die Aufnahme von Raumklang spielt die Positionierung der Mikrofone eine besondere Rolle: Da eine Aufnahme aus allen Richtungen an einem Punkt nicht möglich ist, müssen Mikrofone mit gewissen Abstand von einander positioniert werden, wodurch der Raum diskretisiert wird. Besonders beispielhaft für die Auswirkung der Diskretisierung sind Werke von John Chowning, der die Frequenzmodulations-Synthese aus der Raumklangforschung heraus für Synthesizer patentierte. Hier erhält man an leicht unterschiedlichen Positionen mit klassischem Soundfeld Mikrofon oder mit Ambeo VR Mikrofon ein völlig anderes Konzerterlebnis.

Im Rahmen einer Stereoaufnahme und -reproduktion durch Lautsprecher entstehen Phantomschallquellen um die Lautsprecher, soweit man sich exakt im Sweet Spot des Stereodreiecks befindet. Empirisch zeigt sich, dass die Verwendung von zusätzlich an die Wand gedrehten Treibern, wie beim Acoustimass-System ein immersiveres Stereoempfinden erzeugt wird. Das räumliche Empfinden im Kopf entsteht zunächst durch Intensitäts- oder Pegelunterschiede und Laufzeitunterschieden zwischen den Ohren, die vom Gehirn rekonstruiert und die virtuelle Position der Schallquellen rekonstruiert wird. Sehr individuell spielt aber auch die Kopf- und Körperform eine große Rolle, denn je nach Kopfgröße sind die Ohren unterschiedlich weit voneinander entfernt, die Ohrmuschel unterschiedlich geformt und die Schultern unterschiedlich weit entfernt. Dadurch ergeben sich eine durch frequenzabhängige Intensitäts- und Laufzeitsunterschiede resultierende Filterung, die als Head-Related Transfer Function (HRTF) bzw. Kopfübertragungsfunktion bezeichnet wird. Die Berücksichtigung dieser Abbildung führt zur binauralen Aufnahme und Reproduktion. Eine weitere Wahrnehmungsmöglichkeit ist der Raumschall, wo eine räumliche Wahrnehmung durch die Beziehung zum Raum ermöglicht wird. Daher muss man in der Stereofonie deutlich zwischen Lautsprecheraufnahmen und Kopfhöreraufnahmen unterscheiden, da die Reproduktion über Kopfhörer die Berücksichtigung der Kopfübertragungsfunktion erforderlich ist.

Der Weg zu Mehrkanal-Tonsystemen führte von der Stereofonie zunächst zur Quadrofonie für Systeme mit vier Lautsprechern, die im Vergleich zum Aufwand einen begrenzten Gewinn des Raumklangs unter Einführung weiterer unerwünschter Effekte bewirkte. Da sich keine Aufzeichnungssysteme für dieses Tonsystem wirklich kommerziell durchsetzen konnten, war das System wenig verbreitet. Die sehr verwandten Dolby Surround oder 5.1-Systeme haben sich durch leichte Veränderung des Systems im Film- und Kinobereich dagegen sehr durchgesetzt. Für den Film war es sehr wichtig, dass Einführung des zentralen Center-Lautsprechers die räumliche Positionierung der Schauspieler deutlich verbessert hat, und die Verwendung von Subwoofer bzw. des LFE-Kanals auch preiswertere immersive Installationen durch Satelliten-Lautsprecher ermöglicht hat.

Als großer Kritiker der Quadrofonie entwickelte Michael Gerzon 1973 mathematisch-physikalisch fundierte Ambisonics-Verfahren, um auf einer beliebigen Anzahl von Lautsprechern einen Raumklang aufnehmen, aufzeichnen und wiedergeben zu können. Während ein System nullter Ordnung mit einem einzigen Kugelmikrofon und Kugellautsprecher realisiert werden kann, sind ab erster Ordnung schon mindestens acht Lautsprecher für eine sinnvolle Reproduktion erforderlich. Leider müssten sehr viele Mikrofone für das Verfahren alle koinzident in einem Punkt positioniert werden, was mit herkömmlicher Aufnahmetechnik nicht optimal realisierbar ist, und dafür von Gerzon besondere Mikrofonkonfigurationen entwickelt wurden, die das koinzidente Signal rekonstruieren können. Im Bereich der Meteorologie gibt es Ultraschallanemometer, die tatsächlich die Luftbewegung im Raum in einem einzelnen Messraum bestimmen können, nur ist dies aktuell nur im Aufnahmebereich räumlich gemittelt bis zu 200mal pro Sekunde bis maximal in den Infraschallbereich möglich.

Eine frühe berühmte und umstrittene Raumklang-Installation war der Philips Pavilion bzw. Poème électronique auf der Weltausstellung Expo 58 in Brüssel, wo die an hyperbolischen Trajektorien aufgestellten Lautsprecher als diskrete wandernde Tonquellen benutzt wurden. Zur Weltausstellung Expo 70 in Osaka entwarf Karlheinz Stockhausen für den deutschen Pavillon das Kugelauditorium, in dem die Ansteuerung der Lautsprecher durch einen Drehhebel erreicht werden konnte. Ein ähnliches Verfahren ist das Vector Based Amplitude Panning (VBAP)-Prinzip, das von Ville Pulkii 1997 wissenschaftlich ausgearbeitet wurde.

Im Gegensatz zu den früheren Installationen verlangen ambisonische Verfahren sehr regelmäßige Lautsprecherpositionen, da das Verfahren ideal als Fourier-Synthese auf einer Sphäre interpretiert werden kann. Praktisch gibt es auf einer Kugeloberfläche nur wenige exakt equidistante Punktmengen auf Basis der platonischen Körper, dazu sind volle Sphären eine architektonische Herausforderung und aufgrund unseres geringen Lokalisationsfähigkeit im Vertikalen nur von begrenztem Nutzen. Daher werden die Lautsprecher nur in einer oberen Halbsphäre mit nach oben abnehmender Anzahl pro Lautsprechern im Radius installiert.

Die ambisonische Raumklang-Demonstration ist ein Teil aus dem Stück „Parallel“ von Paul Modler, das bei einer Aufführung zusätzlich bewegliche Hörner und ein Wellenfeld-Array anspricht.

Im Gegensatz zu Mehrkanal-Tonsystemen berücksichtigt der binaurale Raumklang die Kopfübertragungsfunktion und ist nur für die Erfahrung über Kopfhörer gedacht. Zur Erzeugung von binauralen Signalen kann man auf Kunstkopf– oder In-Ear oder Orginal-Kopf-Mikrofone (OKM) zurückgreifen. Alternativ kann man Schallquellen synthetisch über die HRTF auf die Wirkung auf die Ohren berechnen.

Zur Erfassung der individuellen HRTF werden Mikrofone in die Ohren installiert und robotergesteuert Lautsprecher an verschiedene Positionen um die Versuchsperson gefahren. Die Lautsprecher spielen dann jeweils Klicks oder Chirps, um die Impulsantwort des Signals, die Head-Related Impulse Response zu bestimmen. Die HRTF ergibt sich dann als Fourier-Transformite der Impulsantwort. Alternativ können auf niedrigerem Niveau auch halbsphärische Lautsprecher wie im Klangdrom statt einer langsamen Robotersteuerung verwendet werden. Impulsantworten existieren grundsätzlich nur auf einer begrenzten Anzahl von Filterpunkten, zwischen denen nach VBAP-Prinzip auch Zwischenpunkte berechnet werden und Klänge aus beliebigen Richtungen im zwischen Punkten im Diskretisierungsgitter abgebildet werden. Eine Herausforderung bleibt die Kopfbewegung, die mit Head-Trackern für einen immersiven Eindruck berücksichtigt werden muss, man sich also zum Klang hindrehen können muss. Das ist eine entsprechende Herausforderung der Virtual Reality, wo die Bewegung des Kopfes auch unmittelbar in die Darstellung berücksichtigt werden muss.

Die räumliche Abbildung von Tönen ergibt auch neue Möglichkeiten in der Sonifikation, um Informationen nicht nur klanglich unterscheidbar sondern auch räumlich lokalisiert abgebildet werden kann. Dabei ist zu berücksichtigen, dass visuelle Eindrücke akustische Ereignisse verfälschen können. Bei steigender Komplexität der verwendeten Modelle, muss das Verständnis für Sonifikation auch erlernt werden.

Literatur und weiterführende Informationen

Podcasts

SightCity 2017

Einmal pro Jahr, findet im Frühjahr die größte internationale Fachmesse SightCity für Blinden- und Sehbehindertenhilfsmittel im Sheraton Hotel am Frankfurter Flughafen statt. In diesem Jahr präsentierten von 03. bis 05. Mai über 100 Hersteller und Organisationen Neuentwicklungen und bewährte Hilfsmittel. An den Ständen können potentielle Anwenderinnen und Anwender neue Hilfsmittel ausprobieren und mit den Herstellern ins Gespräch kommen. Zusätzlich gibt es ein Forum, in dem Fachvorträge zu unterschiedlichen Themen rund um Sehbeeinträchtigung gehalten werden. Personen mit Sehbeeinträchtigungen werden kostenlos von einem Abholdienst an den Bahnsteigen abgeholt und zur Messe begleitet. Auch in der Messe gibt es Assistenzen, die zu den gewünschten Ausstellungsständen begleiten. Die gesamten Räumlichkeiten sind durch barrierefreie Leitlinien ausgerüstet. Zusätzlich gab es in diesem Jahr auch Apps, die mit Hilfe von Beacons die Orientierung in den Räumlichkeiten der Messe verbessern sollen.

Auch die Firma Papenmeier und das Studienzentrum für Sehgeschädigte (SZS), zwei Kooperationspartner im TERRAIN Projekt, waren als Aussteller bei der diesjährigen Messe.

Als Schwerpunkt zeigte das SZS aktuelle Projekte wie das ATMAPS Projekt mit dem Thema audio-taktile Landkarten, Prosperity4All, das neue Accessibility Lab, 3D-Druck-Objekte für Studierende sowie Angebote des SZS wie die jährlich stattfindende bundesweit ausgeschriebene Orientierungsveranstaltung für Studieninteressierte oder das Bewerbungstraining „Mein Profil“.

Das zentrale Thema der Firma Papenmeier war die Beratung im Bereich der IT-Barrierefreiheit. Konkreter ging es dabei um die Vorstellung des neuen Fachbereichs „Papenmeier Consulting“. Dieser unterstützt Unternehmen, sowie Behörden mit Gutachten zur Barrierefreiheit und bietet Schulungen für Entwickler und Entscheider.
Die praktische Kombination von barrierefreien Anwendungen und aktuellster Hilfsmitteltechnik, wie Braillezeilen, hochauflösenden Kamerasystemen und Hilfsmittelsoftware für Blinde und Sehbehinderte, wurde Endanwendern, Technischen Beratern und Entscheidern präsentiert.

Nähere Informationen über die Messe sind unter der Homepage der SightCity (http://www.sightcity.net/) zu finden.

 

Neues Terrain 07 – BOGY-Praktikum

Im Rahmen einer Berufs- und Studienorientierung an Gymnasien (BOGY-Praktikum), bekam Leonard die Gelegenheit bei der iXpoint Informationsysteme GmbH das Terrain Projekt kennen zu lernen, und sprach am Studienzentrum für Sehgeschädigte mit Gerhard Jaworek und Sebastian Ritterbusch über seine Erfahrungen und Ergebnisse. BOGY-Praktikum (44:56, 20MB)

Leonard besucht die Mittelstufe eines Karlsruher Gymnasiums und interessiert sich für Softwareentwicklung, Projektmanagement und Informatik, da er in seiner Freizeit mit Programmiersprachen wie Java interessante Projekte beispielsweise zur Erweiterung von Minecraft umsetzen konnte. Die Erweiterungen von Spielen ermöglichen auch Blinden die Partizipation an Multi-User Spielen.

Das BOGY-Praktikum hatte als Anwendungsproblem die Überquerung einer Fläche oder eines Platzes: Ohne weitere Orientierungslinien können Blinde hier leicht die vorgesehene Richtung verlieren. Daher gibt es im Mobilitätstraining immer ein Kompasstraining, das blinden Menschen die richtungstreue Überquerung erleichtert. Da ein Kompass Parallelverschiebungen nicht messen kann, ergab sich der Ansatz mit der zusätzlichen Nutzung von GPS, um eine zielgenauere und robustere Überquerung zu ermöglichen.

Das eigentliche Praktikum startete mit Planung: Der Aufgabenbeschreibung, der Zerlegung in Teilprobleme und der Erstellung eines Ablaufplans, mit einem Augenmerk auf einer agilen Vorgehensweise gegenüber eines klassischen Wasserfallmodells. Daran schloss sich am zweiten Tag die Einführung in die Entwicklungsumgebung und Dokumentation des Terrain-Projekts und die Nutzung des Versionsmanagementsystems Git. In den folgenden drei Tagen wurden drei Entwicklungszyklen umgesetzt, jeweils mit einer Detailplanung am Tagesanfang, der Implementierung über den Tag, sowie Tests und Dokumentation am Ende des Tages. Am Freitag kam am Ende noch Gerhard Jaworek hinzu, um das Ergebnis auch aus Nutzersicht zu evaluieren und diskutieren.

Die Verwendung von GPS zur Überquerung basierte darauf, dass man am Startpunkt den Längen– und Breitengrad der aktuellen Position aufnimmt und dann daraus entweder den Zielpunkt berechnet oder auf dem Weg die aktuelle Position zur Ursprungsposition ins Verhältnis setzt. Da man sich aber hier nun auf einer idealisierten Erdoberfläche in Form einer Sphäre bewegt, wird die Trigonometrie gleich etwas komplizierter, als es in der Schule zunächst behandelt wird.

Ein wichtiger Aspekt der Entwicklung lag auf der Gestaltung der Mensch-Maschine-Schnittstelle, also der Nutzung von Sprachausgabe, Gestenerkennung und Vibration zur Bedienung des Systems. Darüber hinaus hat Leonard verschiedene unterschiedliche Darstellungen umgesetzt: So kann man sich entscheiden, ob man eine Richtung mit einer Gradzahl, einer Uhrzeit oder sprachlich, wie „etwas rechts“, „etwas links“ mehr oder weniger ausführlich dargestellt bekommen möchte.

Insgesamt konnte Leonard im Praktikum nicht nur eine Unterstützung für Blinde entwickeln, sondern auch einen Einblick in verschiedene Berufsbilder und Themenbereiche von Softwareentwicklung, Unterinterfacedesign, Projektplanung und -management erhalten, auch wenn eine Praktikumsdauer von einer Woche für so ein Thema natürlich sehr kurz ist.