Abstract:
Menschen mit Blindheit oder Sehbehinderungen begegnen beim Reisen zahlreichen Barrieren, was sich auf die Lebensqualität auswirkt. Obwohl spezielle elektronische Reisehilfen schon seit vielen Jahren im Mittelpunkt der Forschung stehen, werden sie von der Zielgruppe nach wie vor kaum genutzt. Dies liegt unter anderem daran, dass die von den Nutzern benötigten Informationen von der Technologie nur unzureichend bereitgestellt werden. Außerdem entsprechen die Schnittstellen selten den Bedürfnissen der Nutzer. In der vorliegender Arbeit gehen wir auf diese Defizite ein und definieren die Anforderungen für barrierefreies Reisen in Bezug auf den Informationsbedarf (Was muss vermittelt werden?) und die nichtfunktionalen Anforderungen (Wie muss es vermittelt werden?). ... mehrAußerdem schlagen wir verschiedene auditive Displays vor, die die Bedürfnisse von Menschen mit Sehbeeinträchtigungen während einer Reise berücksichtigen. Wir entwerfen, implementieren und evaluieren unsere Schnittstellen nach einem nutzerzentriertem Ansatz, wobei wir während des gesamten Prozesses Nutzer und Experten aus diesem Bereich einbeziehen.
In einem ersten Schritt erheben wir den Informationsbedarf von Menschen mit Behinderungen im Allgemeinen und von Menschen mit Sehbeeinträchtigungen im Besonderen, wenn sie sich in Gebäuden bewegen. Außerdem vergleichen wir die gesammelten Informationen mit dem, was derzeit in OpenStreetMap (OSM), einer freien geografischen Datenbank, kartiert werden kann, und machen Vorschläge zur Schließung der Lücke. Unser Ziel ist es, die Kartierung aller benötigten Informationen zu ermöglichen, um sie in Lösungen zur Unterstützung des unabhängigen Reisens zu verwenden.
Nachdem wir die Frage beantwortet haben, welche Informationen benötigt werden, gehen wir weiter und beantworten die Frage, wie diese den Nutzern vermittelt werden können. Wir definieren eine Sammlung nicht-funktionaler Anforderungen, die wir in einer Befragung mit 22 Mobilitätstrainern verfeinern und bewerten.
Anschließend schlagen wir eine Grammatik - oder anders ausgedrückt, eine strukturierte Art der Informationsvermittlung - für Navigationsanweisungen bei Reisen im Freien vor, die Straßenränder, das Vorhandensein von Gehwegen und Kreuzungen berücksichtigt - alles wichtige Informationen für Menschen mit Sehbeeinträchtigungen. Darüber hinaus können mit unserer Grammatik auch Orientierungspunkte, Sehenswürdigkeiten und Hindernisse vermittelt werden, was die Reise zu einem ganzheitlichen und sichereren Erlebnis macht. Wir implementieren unsere Grammatik in einen bestehenden Prototyp und evaluieren sie mit der Zielgruppe.
Es hat sich gezeigt, dass in Gebäuden Beschreibungen der Umgebung die Erstellung von mentalen Karten unterstützen und damit die Erkundung und spontane Entscheidungsfindung besser fördern als Navigationsanweisungen. Wir definieren daher eine Grammatik für die Vermittlung von Informationen über die Umgebung in Innenräumen für Menschen mit Sehbeeinträchtigungen. Wir bewerten die Grammatik in einer Online-Studie mit 8 Nutzern aus der Zielgruppe. Wir zeigen, dass die Nutzer strukturierte Sätze mit fester Wortreihenfolge benötigen. Schließlich implementieren wir die Grammatik als Proof-of-Concept in eine bestehende prototypische App.
Sprachausgabe ist zwar Stand der Technik im Bereich der Ausgabeschnittstellen für Menschen mit Sehbeeinträchtigungen, hat aber auch Nachteile: es ist für Menschen mit Leseschwäche unzugänglich und kann für manche Nutzer zu langsam sein. Wir nehmen uns dieses Problems an und untersuchen den Einsatz von Sonifikation in Form von auditiven Symbolen in Kombination mit Parameter-Mapping zur Vermittlung von Informationen über Objekte und deren Verortung in der Umgebung. Da eine erste Evaluierung positive Ergebnisse lieferte, erstellten wir in einem nutzerzentrierten Entwicklungsansatz einen Datensatz mit kurzen auditiven Symbolen für 40 Alltagsgegenstände. Wir evaluieren den Datensatz mit 16 blinden Menschen und zeigen, dass die Töne intuitiv sind. Schließlich vergleichen wir in einer Nutzerstudie mit 5 Teilnehmern Sprachausgabe mit nicht-sprachlicher Sonifikation. Wir zeigen, dass Sonifikation für die Vermittlung von groben Informationen über Objekte in der Umgebung genau so gut geeignet ist wie Sprache, was die Benutzerfreundlichkeit angeht. Abschließend listen wir einige Vorteile von Sprache und Sonifikation auf, die zum Vergleich und als Entscheidungshilfe dienen sollen.
Diese Arbeit befasst sich mit den Bedürfnissen von Menschen mit Sehbeeinträchtigungen während der Reise in Bezug auf die benötigten Informationen und Schnittstellen. In einem nutzerzentrierten Ansatz schlagen wir verschiedene akustische Schnittstellen vor, die auf sprachlicher und nicht-sprachlicher Sonifikation basieren. Anhand mehrerer Nutzerstudien, an denen sowohl Nutzer als auch Experten beteiligt sind, entwerfen, implementieren und evaluieren wir unsere Schnittstellen. Wir zeigen, dass elektronische Reisehilfen in der Lage sein müssen, große Mengen an Informationen auf strukturierte Weise zu vermitteln, jedoch angepasst an den Nutzungskontext und die Präferenzen und Fähigkeiten der Nutzer.
Abstract (englisch):
People with visual impairments face multiple barriers while traveling, with consequences on the quality of life. While specific electronic travel aids have been in the focus of research for many years now, their adoption by the target user group remains scarce. Reasons include the fact that information needed by the users is insufficiently provided by technology. Moreover, the interfaces rarely suit the needs of their users. We address these shortcomings and define requirements for accessible travel in terms of informational needs (what to convey) and non-functional requirements (how to convey it). ... mehrMoreover, we propose several auditory displays that consider the needs of people with visual impairments during travel. We design, implement and evaluate our interfaces in a user-centered approach, involving many users and experts in the field throughout the process.
In a first step, we gather the informational needs of people with disabilities in general and people with visual impairments in particular, when travelling inside buildings. Moreover, we compare the information gathered with what can be currently mapped in OpenStreetMap (OSM), a free geographic database, and make suggestions for closing the gap. Our goal is to enable the mapping of all the information needed, to be used in solutions that support independent travel.
After having answered the question of what information is needed, we go on and answer the question of how to convey it to the users. We define a set of non-functional requirements which we refine and assess in an expert survey with 22 mobility trainers.
We then propose a grammar - or, in other words, a structured way of conveying information - for navigation instructions during outdoor travel that takes into account roadsides, the existence of sidewalks and crossings - all relevant information for people with visual impairments. Moreover, landmarks, points of interest and obstacles can also be conveyed with our grammar, making the travel a holistic and safer experience. We implement our grammar into an existing prototype and evaluate it with the target user group.
It has been shown that indoors, descriptions of the environment support the creation of mental maps, and with that, foster exploration and spontaneous decision making, better than navigation instructions. We thus define a grammar for conveying indoor information about the environment to people with visual impairments. We assess the grammar in an online study with users from the target group. We show that users need structured sentences with fixed word order. Finally, we implement the grammar, as a proof-of-concept, into an existing prototypical app.
While text-to-speech is state-of-the-art in output interfaces for people with visual impairments, it also has disadvantages: it is inaccessible to illiterate people and can be too slow for some users. Thus, we address this issue and investigate the use of sonification in form of short auditory icons combined with parameter mapping for conveying information about objects in the environment. Since a preliminary evaluation yielded positive results, we created, in a user-centered development approach, a dataset of short auditory icons for 40 everyday objects. We evaluate the dataset with 16 blind people and show that the sounds are intuitive. Finally, we compare text-to-speech with non-speech sonification in a user study with 5 participants. We show that for conveying rough information about objects and their location in the environment, sonification is as suitable as speech in terms of usability. We conclude by listing some of the advantages of both speech and sonification, to serve as comparison and as a help in decision-making.
This thesis addresses the needs of people with visual impairments during travel in terms of information required and interfaces. In a user-centered approach we propose several auditory displays based on speech and non-speech sonification. Through several user studies involving both users and experts, we design, implement and evaluate our interfaces. We show that electronic travel aids must be able to convey large amounts of information in a structured way, but adapted to the context of use and user’s preferences and abilities.