Augmented Reality Campus Guide
Fakultät für Informatik und Mathematik
Lehrstuhl für Informatik mit Schwerpunkt
Eingebettete Systeme
Prof. Dr. Matthias Kranz
Augmented Reality Campus Guide
Augmented Reality Campus Guide
Christian Berger
Bachelor-Arbeit
Verfasser:
Christian Berger
Anschrift:
Matrikelnummer:
Prüfer:
Prof. Dr. Matthias Kranz
Betreuer:
M.Sc. Marion Kölle
Beginn:
25.06.2014
Abgabe:
24.09.2014
Fakultät für Informatik und Mathematik
Lehrstuhl für Informatik mit Schwerpunkt
Eingebettete Systeme
Prof. Dr. Matthias Kranz
Erklärung
Hiermit erkläre ich an Eides statt, dass ich diese Bachelor-Arbeit zum Thema
Augmented Reality Campus Guide
Augmented Reality Campus Guide
selbstständig verfasst und keine anderen als die angegebenen Quellen und Hilfsmittel verwendet
habe.
Passau, den 24.09.2014
Christian Berger
Christian Berger
Kurzfassung
Augmented Reality (AR) bezeichnet die Erweiterung der vom Nutzer wahrgenommenen Realität
mit Hilfe von computergenerierten Informationen. Dadurch kann man dem Nutzer dabei helfen,
sich mit einer ungewohnten Umgebung vertraut zu machen. Als Anwendungsbeispiel sollte im
Rahmen dieser Arbeit eine Anwendung entwickelt werden, die Studierende im ersten Semester
bei der Orientierung auf dem Campus unterstützt. Dabei wurde Forschung bezüglich der nutzergerechten Gestaltung und Platzierung von AR Labels betrieben: Zunächst wurden prototypisch
verschiedene Visualisierungen entwickelt, die dann in einer Umfrage, bei der 50 Personen teilnahmen, hinsichtlich ihrer Interpretierbarkeit und des subjektiven Gefallens evaluiert wurden. Die
Umfrage hat Indizien geliefert, dass Visualisierungen, die eine farbanaloge Markierung einsetzen,
vom Nutzer bevorzugt werden. Anschließend wurde eine App entwickelt, die diese Ergebnisse
berücksichtigt. Beim Entwicklungsprozess wurden verschiedene Probleme sowie deren Lösungsansätze dokumentiert.
iii
Abstract
Augmented Reality means the extension of the by the user perceived reality with the aid of
computer generated pieces of information. Using this technology, it is possible for the user to
acquaint himself with an unfamiliar environment. As an example of use, a mobile application was
built as part of this thesis, that supports beginning students with their orientation on the campus.
Therefore research on how AR labels should be designed an placed to fit the user’s needs was done:
At first various visualizations were prototypically developed and then tested in a survey, in which 50
people participated. The survey evaluated the visualizations’ interpretability and the appreciation
by the user. The survey indicated that users prefer visualizations with color-analogous markings.
Subsequently an application was built, that considered these results. Problems that occurred
during the process of development were documented along with possible solution approaches.
iv
Inhaltsverzeichnis
Inhaltsverzeichnis
v
1 Einleitung
1
1.1
Ziele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
1.2
Überblick über diese Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
2 Grundlagen
2.1
2.2
Augmented Reality . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
2.1.1
Definition nach Azuma . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
2.1.2
Realitäts-Virtualitätskontinuum nach Milgram . . . . . . . . . . . . . . .
4
Tracking . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
2.2.1
Visuelles Tracking . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5
2.2.1.1
Merkmalsbasierende Tracking-Systeme . . . . . . . . . . . . . .
5
2.2.1.2
Modellbasierende Tracking-Systeme . . . . . . . . . . . . . . .
6
Nichtvisuelles Tracking . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
Augmented Reality Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . .
7
2.3.1
Anwendungsbereiche . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
2.3.2
Klassifizierung von AR Anwendungen . . . . . . . . . . . . . . . . . . . .
8
2.3.3
Die vier Schlüsselprobleme bzw. Kriterien beim Erstellen von mAR Anwen-
2.2.2
2.3
3
2.3.4
dungen nach Marco de Sa´ . . . . . . . . . . . . . . . . . . . . . . . . .
9
Beispiele für Augmented Reality Anwendungen . . . . . . . . . . . . . .
10
2.3.4.1
AR-Browser . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
2.3.4.2
Die Touring Maschine . . . . . . . . . . . . . . . . . . . . . .
11
3 Augmented Reality Visualisierungen
13
3.1
Kriterien für die Gestaltung und Platzierung von mAR Labels . . . . . . . . . . .
13
3.2
Entwicklung verschiedener Prototypen . . . . . . . . . . . . . . . . . . . . . . .
14
3.3
Vorbereitung der Umfrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
4 Evaluierung der entwickelten Visualisierungen
4.1
17
Ziele der Umfrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
4.1.1
17
Forschungsfrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
v
vi
INHALTSVERZEICHNIS
4.1.2
4.2
4.3
Hypothesen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
Aufbau der Umfrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18
4.2.1
Allgemeine Informationen zur Studie . . . . . . . . . . . . . . . . . . . .
19
Auswertung der Ergebnisse der Umfrage und Erkenntnisse . . . . . . . . . . . . .
19
4.3.1
Erfahrungswerte der Teilnehmer . . . . . . . . . . . . . . . . . . . . . .
19
4.3.2
Interpretierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
4.3.2.1
Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
4.3.2.2
Aufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
4.3.2.3
Auswertung . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
Subjektives Gefallen . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
4.3.3.1
Markierung . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
4.3.3.2
Ausrichtung . . . . . . . . . . . . . . . . . . . . . . . . . . . .
25
4.3.3
5 Entwicklung der Applikation
28
5.1
Ziele und Nutzen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
28
5.2
Design der Applikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
28
5.3
Implementierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
5.3.1
Die Augmented Reality Ansicht . . . . . . . . . . . . . . . . . . . . . . .
30
5.3.2
Die Karte des Campus . . . . . . . . . . . . . . . . . . . . . . . . . . .
31
5.3.2.1
Indoorkarte und Discoverability . . . . . . . . . . . . . . . . . .
32
5.3.3
Die Suchfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
33
5.3.4
Problemstellungen beim Entwickeln der AR Anwendung . . . . . . . . . .
34
5.3.4.1
Probleme des optischen Tracking
. . . . . . . . . . . . . . . .
34
5.3.4.2
Repeated Patterns . . . . . . . . . . . . . . . . . . . . . . . .
35
6 Zusammenfassung
36
Abbildungsverzeichnis
37
Tabellenverzeichnis
38
Literaturverzeichnis
39
Kapitel 1
Einleitung
Für Studienanfänger und Studienanfängerinnen ist die Orientierung auf dem Campus oft zunächst
schwierig. So wissen viele Erstsemester während der Orientierungswoche – dies ist die erste
Woche vor Studienbeginn, in der Brückenkurse oder andere Einführungsveranstaltungen stattfinden – nicht genau, wie sie zu einem bestimmten Gebäude oder Raum gelangen. Die Universität
Passau reagiert darauf, indem sie jedes Semester während der Orientierungswoche Schilder an verschiedenen Stellen auf dem Campus anbringt mit Beschriftungen, die den Studierenden bei ihrer
Navigation helfen sollen. Da also die Notwendigkeit besteht zusätzliche Informationen bereitzustellen, um Erstsemester bei ihrer Orientierung und Navigation auf dem Campus zu unterstützen,
stellt sich die Frage ob diese Aufgabe nicht auch durch den Einsatz einer mobilen Anwendung
und unter Verwendung geeigneter, moderner Technologie – nämlich Augmented Reality - erfüllt
werden kann. Augmented Reality (AR) bezeichnet hierbei eine Anzeigetechnologie, bei der die
durch den Nutzer wahrgenommene Realität mit computergenerierten Informationen überlagert
wird. Wenn das Anzeigemedium dabei konkret auf mobile Geräte wie Smartphones oder Tablets
eingeschränkt wird, spricht man auch von mobiler Augmented Reality (mAR). Ein sog. „Campus
Guide“, der Augmented Reality einsetzt, könnte diese Problematik aufgreifen und als mobile Anwendung Studierenden bei ihrer Orientierung auf dem Campus unterstützen, indem er ihnen bei
der Suche nach einem Hörsaal, Seminarraum oder der Bibliothek hilft. So können beispielsweise
Navigationshinweise an Gebäude ausgerichtet werden oder allgemein Informationen passend zum
Standort des Nutzers eingeblendet werden. Dass diese Technologie das Potential hat Nutzer dabei
zu helfen sich mit einer neuen, unbekannten Umgebung vertraut zu machen, ist auch schon durch
ähnliche Anwendungsbeispiele bekannt. So gibt es schon verschiedene mobile AR Anwendungen
[1], die Touristen bei der Erkundung von fremden Städten unterstützen und ihnen Informationen
über verschiedene Sehenswürdigkeiten anzeigen oder diese auf andere Points of Interests (wie z.B.
Cafés oder Bars) hinweisen. Weiterhin kann die Applikation auch noch durch weitere Features wie
einer Karte des Universitätsgeländes, auf der auch Karten des Innenbereichs einzelner Gebäude
(sog. Indoor Maps) eingeblendet werden, dem Nutzer bei der Orientierung helfen.
1
Kapitel 1 Einleitung
2
1.1 Ziele
Ziel dieser Bachelorarbeit ist das Erstellen einer mobilen Anwendung für Android, die Augmented
Reality einsetzt, um den Nutzer durch das Einblenden standortbezogener Informationen auf den
Campus zum richtigen Gebäude oder Hörsaal zu führen. Außerdem soll die Anwendung eine Karte
des Universitätsgeländes bereitstellen, um so dem Nutzer einen guten Überblick über den Campus
und die einzelnen Gebäude zu verschaffen. Die Karte dient somit als Unterstützung für die AR
Ansicht und zeigt auch den momentanen Standort des Nutzers an.
Die Anwendung ist für Erstsemester im Studiengang „Mobile und Eingebettete Systeme“ ausgerichtet. Bei der Entwicklung sollen wichtige Schlüsselprobleme bzw. Kriterien, die beim Erstellen
von mAR Anwendungen auftreten [2], nämlich Discoverability, Interpretability, Usability und Utility
berücksichtigt werden.
Verschiedene Fragestellungen etwa wie die optimale Gestaltung und Platzierung von mAR Labels
werden aufgegriffen, indem verschiedene prototypisch entwickelte Visualisierungen quantitativ in
einer Umfrage evaluiert werden.
1.2 Überblick über diese Arbeit
Zunächst werden in Kapitel 2 Grundbegriffe wie Augmented Reality, Tracking oder die verschiedenen Schlüsselprobleme näher erklärt.
Kapitel 3 soll unter Berücksichtigung themenverwandter Forschung verschiedene Visualisierungsmöglichkeiten von AR Anzeigen behandeln. Dazu wurden Kriterien für die Gestaltung und Platzierung von mAR Labels erarbeitet. Weiterhin soll dieses Kapitel die prototypische Entwicklung
dieser Visualisierungen aufgreifen.
Kapitel 4 behandelt die Evaluation der entwickelten Visualisierungen im Rahmen einer Onlineumfrage. Hierbei wurde untersucht, wie Nutzer die verschiedenen, zuvor prototypisch erstellten AR
Visualisierungen interpretieren und bezüglich des subjektiven Gefallens bewerten.
Anschließend wird in Kapitel 5 die Implementierung der Applikation betrachtet. Es werden die
verschiedenen Funktionalitäten der App: die AR Ansicht, die Karte und die Suchfunktion genauer
vorgestellt.
Abschließend erfolgt in Kapitel 6 eine kurze Zusammenfassung der Arbeit.
Kapitel 2
Grundlagen
Zunächst sollen in diesem Kapitel die wichtigsten Grundbegriffe und Konzepte knapp erklärt werden, um ein besseres Verständnis für die im Anschluss bearbeiteten Sachverhalte bzw. Probleme
zu generieren. Dabei wird auch auf verwandte Arbeiten eingegangen.
2.1 Augmented Reality
Augmented Reality (im Deutschen: „Erweiterte Realität“) ist das Kernthema dieser Arbeit, weshalb dieser Begriff zunächst einer genaueren Betrachtung bedarf.
2.1.1 Definition nach Azuma
In der Einleitung wurde Augmented Reality als „Anzeigetechnologie, bei der die durch den Nutzer wahrgenommene Realität mit computergenerierten Informationen überlagert wird“ bezeichnet.
Obwohl dies im Kern bereits zutreffend ist, verschweigt diese Definition, dass Augmented Reality
nicht notwendigerweise auf seine visuelle Komponente zu reduzieren ist, auch wenn die Visualisierung die häufigste Anwendung darstellt. Denkbar wäre es aber auch, dass die wahrgenommene
Realität auch durch andere Sinneseinflüsse erweitert wird. So kann beispielsweise eine Musiksequenz (Jingle) gespielt werden, sobald man an einem bestimmen Geschäft vorbeigeht [3] oder
eine Vibration gespürt werden. Ersteres wäre also eine Erweiterung der auditiven Komponente,
während letzteres eine Erweiterung der haptischen Komponente darstellt.
Nach Ronald Azuma ist Augmented Reality eine Variation der Virtuellen Realität (VR), bei der die
Reale Welt aber nicht gänzlich durch eine virtuelle Umgebung ersetzt, sondern lediglich erweitert
wird [4]. Dabei müssen nach Azuma aber folgende drei Kriterien erfüllt sein:
1. AR kombiniert Reales mit Virtuellem
2. AR ist interaktiv und passiert in Echtzeit
3. AR ist in allen drei Dimensionen registriert
3
4
Kapitel 2 Grundlagen
Diese Definition ist sehr allgemein und lässt zahlreiche Interaktionsmöglichkeiten zu. Die Interaktion wird hierbei auch nicht nur auf eine visuelle Komponente reduziert. Allerdings fokussiert sich
diese Arbeit bewusst auf den visuellen Aspekt der Augmented Reality. Ein Beispiel zu Punkt 1
der vorher genannten Definition wird in Abbildung 2.1 gezeigt.
Punkt 2 der Definition stellt sicher, dass AR nur mithilfe eines interaktiven Systems zu realisieren
ist. So wäre ein bearbeitetes Bild, bei dem zusätzlich zur abgebildeten Realität eine weitere,
virtuelle Umgebung als Überlagerung ergänzt wird (so wie Abbildung 2.1(c)) keine Augmented
Reality, da es nicht interaktiv ist.
(a) Die reale Umgebung
(b) Die virtuelle Umgebung
(c) Die Kombination der beiden Umgebungen
Abbildung 2.1: Die zentrale Eigenschaft (Punkt 1 der Definition Azumas) von AR:
Eine reale Umgebung wird durch eine virtuelle Umgebung überlagert.
Schließlich fordert Punkt 3 der Definition, dass die virtuelle Umgebung fest in der realen Umgebung
verankert ist. Dies bedeutet, dass die Positionierung und Ausrichtung eines virtuellen Objekts in
der realen Welt in allen drei Dimensionen festgesetzt ist, sodass es dem Nutzer vorkommt, als
wären beide Umgebungen miteinander verschmolzen. Ronald Azuma schreibt hierzu in [4]:
„Ideally, it would appear to the user that the virtual and real objects coexisted in the
same space, similar to the effects achieved in the film "Who Framed Roger Rabbit?"“
2.1.2 Realitäts-Virtualitätskontinuum nach Milgram
Neben Ronald Azumas Definition der Augmented Reality als eine Variation der Virtual Reality (VR) [4], stellt auch Milgram et al. in [5] eine Beziehung zwischen AR und VR her, wobei
er auch die Proportionalität zwischen realer und virtueller Umgebung miteinbezieht. Milgram
definiert hierzu den allgemeineren Begriff der „Mixed Reality“, die innerhalb eines RealitätsVirtualitätskontinuums die beiden Extrema, reale Umgebung und virtuelle Umgebung verbindet
(vgl. Abbildung 2.2). Innerhalb der Mixed Reality gibt es neben der Augmented Reality noch
die Augmented Virtuality (AV), die sich dadurch auszeichnet, dass eine virtuelle Umgebung durch
Objekte aus der realen Umgebung erweitert wird. Es ist schwierig Augmented Reality und Augmented Virtuality klar voneinander abzugrenzen, da der Unterschied allein im Verhältnis der beiden
5
Kapitel 2 Grundlagen
Umgebungen zueinander besteht (d.h. wie viel nimmt der Nutzer jeweils von der einen bzw. der
anderen Umgebung wahr?) und hierbei ein fließender Übergang stattfindet.
MIXED REALITY (MR)
REAL
ENVIRONMENT
AUGMENTED
REALITY (AR)
AUGMENTED
VIRTUALITY (AV)
VIRTUAL
ENVIRONMENT
Abbildung 2.2: Realitäts-Virtualitätskontinuum1 nach Milgram [5].
2.2 Tracking
Wie bereits in Punkt 3 der Definition von Azuma [4] festgehalten wurde, muss bei Augmented Reality das virtuelle Objekt fest in der realen Umgebung positioniert sein. Damit eine AR Anwendung
aber überhaupt computergenerierte Informationen lagerichtig einblenden kann oder entscheiden
kann, ob für eine bestimmte Umgebung solche Informationen verfügbar sind, müssen die Lage
des Betrachters sowie die Lage der virtuellen Objekte der AR Anwendung bekannt sein. Den
Prozess dieser Lagebestimmung bezeichnet man dabei als Tracking [6] und entsprechend werden
Systeme, die diesen Prozess implementieren als Tracker bezeichnet. Für die Realisierung dieses
Prozesses existieren verschiedene technologieabhängige Verfahren. Man kann dabei grob zwischen
visuellem (optischem) und nicht nicht visuellem Tracking unterscheiden [7], obwohl natürlich auch
Hybridvarianten [8] möglich sind, die verschiedene visuelle und nicht visuelle Tracking Verfahren
miteinander kombinieren.
2.2.1 Visuelles Tracking
Beim visuellem Tracking wird eine Kamera verwendet, die Bilder aufzeichnet. Diese Bilder dienen
dann als Grundlage, um die Position und die Orientierung eines Nutzers zu bestimmen. Wie dies
konkret geschieht hängt vom jeweiligen Tracking-System ab. Dabei werden Tracking-Systeme
unterschieden zwischen merkmalsbasierenden und modellbasierenden Systemen [7].
2.2.1.1 Merkmalsbasierende Tracking-Systeme
Markmalsbasierende Tracking-Systeme verwenden Marker zur Lagebestimmung. Dabei versteht
man unter einem Marker ein zwei- oder dreidimensionales Objekt, das durch seine Art und Form
1
Grafik von http://upload.wikimedia.org/wikipedia/commons/8/8f/Reality-Virtuality_Continuum.
svg zuletzt geöffnet 16.08.2014
Kapitel 2 Grundlagen
6
leicht von einer Kamera identifiziert (getrackt) werden kann [7]. Da der Tracker weiß wie der
Marker aussieht und die zur Identifizierung benötigten Informationen im Marker codiert werden,
kann er diesen mit dem Marker auf dem von der Kamera aufgezeichnetem Bild mithilfe von
Bildverarbeitungsalgorithmen vergleichen. Daraus kann dann die relative Position und Ausrichtung
zwischen Nutzer und Marker berechnet werden. Ein Beispiel hierfür ist der ARToolKit Marker2 ,
der aus einem schwarzen Rahmen sowie ein schwarz-weißes, zur Identifizierung dienendes Muster
innerhalb des Rahmens besteht [9].
2.2.1.2 Modellbasierende Tracking-Systeme
Falls man keine Marker verwenden möchte oder kann, gibt es auch die Möglichkeit ein Modell des
Objekts, das getrackt werden soll, anzufertigen und dieses dann für das Tracking zu benutzen.
Dabei gibt es unterschiedliche Verfahren bzw. Modelle wie die Generierung einer dreidimensionalen Point Cloud (point-based system) oder die Verwendung eines CAD-Modells (edge-based
system) [10]. Bei einer Point Cloud werden anhand der Textur einer Umgebung eine Menge markanter Punkte (sog. „Features“) generiert, die dann zur Beschreibung des Objekts dienen. Ein
Algorithmus zur Generierung von Point Clouds ist SIFT (Scale-Invariant Feature Transform)3 , der
Objekte in Bildern wiedererkennen kann, indem er sie anhand von bestimmten Punkten (Features)
vergleicht. Diese Features liegen in Regionen mit hohem Kontrast: Bei Bildern mit Gebäuden sind
dies beispielsweise Ecken, Fenster und Türen. Der Vergleich selbst geschieht durch das Betrachten
der euklidischen Distanz zwischen einzelnen Features (bzw. deren Vektoren). Es ist erwähnenswert, dass nicht alle automatisch generierten Features gleichermaßen für das spätere Tracking
geeignet sind. So kann ein Gebäude sehr gut durch Features, die anhand von Türen oder Ecken
erzeugt wurden, getrackt werden. Dagegen stören Features, die anhand von Bäumen, parkenden
Autos oder Wolken erzeugt wurden, da diese nur von temporärer Natur sind.
Die in dieser Arbeit entwickelte Anwendung setzt markerloses, visuelles Tracking ein: Von Objekten (meist Gebäude auf dem Campus) werden Point Clouds generiert und zur Wiedererkennung
verwendet. Aufgetretene Probleme werden in Abschnitt 5.3.4.1 behandelt.
2.2.2 Nichtvisuelles Tracking
Nichtvisuelle Tracking Verfahren basieren auf die Erhebung von Daten durch den Einsatz bestimmter Sensoren. Verschiedene Varianten hierfür sind [7], [11]:
• GPS
Mit GPS kann die Position einer Person durch die Trilateration eines Punktes mithilfe der
Signallaufzeit von mindestens vier Satelliten bis auf wenige Meter genau bestimmt werden.
2
3
Siehe http://www.hitl.washington.edu/artoolkit/ zuletzt besucht 12.09.2014
Siehe http://en.wikipedia.org/wiki/Scale-invariant_ feature_ transform zuletzt besucht 18.09.2014
Kapitel 2 Grundlagen
7
Die Technologie kann angewandt werden, um Nutzer im Freien (beispielsweise in einer Stadt)
auf verschiedene Points of Interests (POIs) hinzuweisen. Dabei können auch Richtung und
Entfernung zu einem Ziel bestimmt werden.
• Trägheitssensoren
Mithilfe von Trägheitssensoren kann sowohl die Neigung (Gyroskop) als auch die Bewegung entlang einer geraden Achse (Beschleunigungssensor) gemessen werden. Mittlerweile
verfügen sämtliche Smartphones üblicherweise über solche Sensoren.
• Kompass
Die Himmelsrichtung kann mithilfe des Erdmagnetfeldes und einem Magneten, der sich
danach ausrichtet, bestimmt werden.
• Ultraschallsensoren
Durch die Messung der Laufzeit zwischen abgesendeten und empfangenen Ultraschallwellen,
kann der Abstand zwischen Sender und Empfängern ermittelt werden.
Nichtvisuelle Tracking-Systeme eignen sich auch als Ergänzung visueller Tracking-Systeme. Bereits
1998 hat Azuma in [12] vorgeschlagen im Outdoor Bereich hybride Tracking Verfahren anzuwenden, um eine höhere Genauigkeit zu erreichen. Bei solchen Verfahren können GPS, Kompass und
Neigungssensoren eingesetzt werden.
2.3 Augmented Reality Anwendungen
Augmented Reality Anwendungen sind sehr vielfältig. In diesem Abschnitt soll ein kurzer Überblick
über Anwendungsbereiche, Klassifizierungmöglichkeiten von AR Anwendungen, sowie Beispiele
vorgestellt werden.
2.3.1 Anwendungsbereiche
Für Augmented Reality gibt es zahlreiche Anwendungsbereiche. Während in vielen Fällen Augmented Reality eher zur Unterhaltung (Wow-Effekt) eingesetzt wird, kann diese Technologie auch
sehr ernste Aufgaben erfüllen (beispielsweise kann sie zur Tumorerkennung in der Chirurgie [13]
eingesetzt werden). Mögliche Anwendungsgebiete für Augmented Reality sind:
• Standortbezogene Dienste [14]
• Soziale Netzwerke4
• Spiele [15]
4
Siehe http://www.junaio.com/ zuletzt besucht 15.09.2014
Kapitel 2 Grundlagen
8
• Medizin [13]
• Multimedia und Entertainment [16]
• Militär [17]
• Ingenieurswesen5
• Werbung und Produktinformationen6
2.3.2 Klassifizierung von AR Anwendungen
(Visuelle) Augmented Reality Anwendungen können hinsichtlich verschiedener Kriterien klassifiziert werden. So unterscheidet man zunächst zwischen stationären Augmented Reality (sAR)
Anwendungen, bei denen das Anzeigemedium (beispielsweise ein Display) eine feste Position hat
und nicht bewegt werden kann und mobilen Augmented Reality (mAR) Anwendungen, bei denen
das Anzeigemedium (z.B. ein Smartphone), eine variable Position hat und vom Nutzer überall
mitgenommen werden kann [18]. Weitere Klassifizierungsmöglichkeiten bieten sich auch in der
Unterscheidung nach verwendeter Technik an: Systeme, die über ein transparentes Display verfügen, das zusätzliche Informationen einblenden kann, heißen Optical-See-Through Systeme [18].
Falls ein Kamerabild mit einem virtuellen Bild überlagert wird, so ist dies eine Video-See-Through
System [18]. Dem Nutzer erscheint es so, als würde er durch das Gerät "hindurchsehen"(engl.
see-through), so dass dieser Begriff als Metapher verwendet wird. Schließlich gibt es noch die
Möglichkeit die virtuellen Informationen direkt auf die reale Welt mithilfe eines Projektors zu projizieren, was dann als Projektionssystem [18] bezeichnet wird. Eine Veranschaulichung dieser
Klassifizierung sieht man in Abbildung 2.3.
Die in dieser Arbeit entwickelte AR Anwendung lässt sich als mobiles Video-See-Through System
klassifizieren, da es für mobile Geräte (Smartphones und Tablets) entwickelt wurde und der Nutzer
es wie eine Kamera bedient: Hält er es gegen ein Objekt so zeigt das Display das Kamerabild (dies
entspricht der aufgenommen Realität). Sind virtuelle Informationen zu diesem Objekt verfügbar
und wird dies auch durch die Anwendung erkannt, so wird auf dem Display das Kamerabild mit
den computergenerierten Informationen überlagert.
5
Siehe http://www.imagination.com/en/our-work/engineering-vision-becomes-augmented-reality-shell zuletzt
besucht 17.09.2014
6
Siehe https://play.google.com/store/apps/details?id=com.ikea.catalogue.android&hl=de zuletzt besucht
15.09.2014
Kapitel 2 Grundlagen
9
Abbildung 2.3: Klassifizierungsmöglichkeiten für AR Systeme. Diese Arbeit bezieht sich auf mobile
(mAR) Video-See-Through Systeme (links oben). Bild leicht modifiziert übernommen von [18].
2.3.3 Die vier Schlüsselprobleme bzw. Kriterien beim Erstellen von mAR
Anwendungen nach Marco de Sa´
Beim Entwurf von mobilen Augmented Reality Anwendungen müssen sich Entwickler zahlreichen
Herausforderungen stellen. Vier zentrale Schlüsselprobleme bzw. Kriterien wurden dabei von
Marco de Sà und Elizabeth Churchill in [2] charakterisiert:
• Discoverability (Auffindbarkeit)
Viele Nutzer – auch sehr Erfahrene - sind sich nicht darüber im Klaren, welche Dienste und
Anwendungsmöglichkeiten verfügbar sind [2].
Bei diesem Problem geht es also darum, wie man den Nutzer auf verfügbare Dienste hinweisen kann. In dieser Arbeit wurde dazu ein Icon zur Identifizierung eines Indoor AR Standorts
eingeführt, das dem Nutzer auf einer Karte anzeigt, wo sich geeignete AR Standorte innerhalb von Gebäuden befinden und in welche Richtung man sein mobiles Gerät halten muss,
um die AR zu entdecken. Dies wird in Kapitel 5.3.2.1 genauer behandelt.
• Interpretability (Interpretierbarkeit)
Viele Nutzer wissen nicht, welchen Wert diese Dienste und Anwendungen haben und die
meisten Dienste und Anwendungen zeigen nur unklar ihren Wert ausgenommen von direkter
Unterhaltung und dem „Wow“-Effekt [2].
Im Kontext der in dieser Arbeit entwickelten Anwendung, die Studierende bei ihrer Orientierung auf dem Campus hilft, ist es wichtig, dass die eingeblendeten Informationen nicht falsch
verstanden werden und möglichst eindeutig durch den Nutzer interpretiert werden. Hierzu
10
Kapitel 2 Grundlagen
wurde im Rahmen einer Studie (Vergleiche Kapitel 4) die Interpretierbarkeit verschiedener
mAR Anzeigen evaluiert.
• Usability (Benutzerfreundlichkeit)
Viele Nutzer finden es schwierig den Umgang mit der Anwendung zu lernen und finden die
Art und Weise der Interaktion mit dem System umständlich. Oft wird dabei der Kontext
nicht ausreichend berücksichtigt [2].
• Utility (Nutzen)
Nachdem die Anwendungen benutzt wurden, meinen viele Nutzer, dass diese keinen langlebigen Nutzen haben [2].
2.3.4 Beispiele für Augmented Reality Anwendungen
Im diesem Abschnitt werden als Beispiele zwei verschiedene mobile Augmented Reality Anwendungen vorgestellt.
2.3.4.1 AR-Browser
(a) Ein 3D-Modell wird auf einer Zeitschrift stehend abgebildet.
(b) Es werden verschiedene POIs eingeblendet.
Abbildung 2.4: Der Junaio Browser
7
Ein AR-Browser ist eine Anwendung für mobile Geräte wie Smartphones oder Tablets, der die vom
Nutzer wahrgenommene Realität erweitert, indem das Kamerabild des mobilen Geräts mit virtuellen Informationen überlagert wird. Dabei erfüllt ein AR-Browser verschiedene Aufgaben: Zunächst
7
Siehe (a) http://www.dpc-consulting.org/wp-content/uploads/2013/05/ar3-1024x768.png
und (b) http://www.app-kostenlos.de/wp-content/uploads/2010/08/junaio_Screen.png zuletzt besucht
10.09.2014
Kapitel 2 Grundlagen
11
muss er die Fähigkeit besitzen die Umgebung des Nutzers interpretieren zu können, um somit zu
entscheiden ob für bestimmte Objekte virtuelle Informationen (mit denen unter Umständen auch
interagiert werden kann) verfügbar sind. Eine weitere Aufgabe besteht in der Organisation und
Verwaltung dieser Informationen, die lokal (in der Anwendung) oder serverseitig in einer Datenbank gespeichert und abgerufen werden. Die korrekte Präsentation dieser Informationen sowie
die funktionierende Interaktion mit ihnen ist ebenfalls von zentraler Bedeutung. Oft stellen ARBrowser Entwicklern eine API bereit, um das Erstellen von sogenannten AR Experiences möglichst
einfach zu gestalten. Bekannte AR-Browser sind dabei Layar8 , Wikitude9 oder Junaio10 . Im Folgenden soll der Junaio Browser als Beispiel für einen AR-Browser genauer erklärt werden. Junaio
ist ein von Metaio11 entwickelter AR-Browser, der 2009 veröffentlicht wurde. Junaio blendet zu
Objekten aus der realen Welt virtuelle Informationen ein und bietet dem Nutzer meist auch noch
eine Möglichkeit mit diesen virtuellen Inhalten zu interagieren. Die Einsatzmöglichkeiten sind dabei sehr weitreichend: Zu Gebäuden, Museen, Magazinen, Werbezeitschriften und vielen anderen
Produkten können entsprechende Inhalte angeboten werden. Dabei ist Junaio in sogenannten
„Channels“ organisiert: Um Informationen in Junaio zu finden, können Nutzer entweder nach
einem bestimmten Channel suchen oder einfach ein Objekt in ihrer Umgebung mit der Kamera in
der sogenannten „Scan-Ansicht“ scannen und schauen ob Informationen verfügbar sind. Die ScanAnsicht erlaubt es dem Nutzer QR-Codes, Printmedien oder Objekte (sogenannte Trackables) zu
scannen und (falls verfügbar) einen entsprechenden Channel zu öffnen, wobei die Trackables nur
dann erkannt werden können, wenn sie bereits zur Junaio Datenbank hinzugefügt worden sind.
Eine wichtige Funktion von Junaio ist die sogenannte „Live View“. Nachdem man einen Junaio
Channel geöffnet hat, werden die Inhalte in der Live View angezeigt. Diese sind beispielsweise
Labels, die Informationen zu bestimmten POIs anzeigen oder aber auch 3D-Modelle, die auf einer
Zeitschrift stehend abgebildet werden (Vergleiche Abbildung ??). Die virtuellen Informationen
überlagern dabei immer eine reale Umgebung in der Kameraansicht. Junaio stellt die Inhalte nicht
selbst zur Verfügung. Diese werden von Drittanbietern in verschiedenen Channels zur Verfügung
gestellt. Dafür bietet Junaio eine Programmierschnittstelle (API) an, die die Erstellung solcher
Channels erlaubt.
2.3.4.2 Die Touring Maschine
1997 wurde von Steven Feiner et al. ein prototypisches, tragbares System entwickelt, das zeigen
sollte, dass die Technologie Augmented Reality unter Einsatz mobiler Geräte das Potenzial hat,
Nutzern bei ihrem täglichen Leben zu unterstützen [19]. Die Anwendung zeigte dem Nutzer
Informationen zum Campus der Universität Cambridge und verfolgte damit das gleiche Ziel wie
8
Siehe https://www.layar.com/ zuletzt besucht 17.09.2014
Siehe http://www.wikitude.com/ zuletzt besucht 17.09.2014
10
Siehe http://www.junaio.com/ zuletzt besucht 8.09.2014
11
Siehe http://www.metaio.com/ zuletzt besucht 8.09.2014
9
Kapitel 2 Grundlagen
12
(a) Ein Nutzer, der mit der Touring Maschine ausgerüs- (b) Zu Campusgebäuden werden Informationen eingetet ist.
blendet.
Abbildung 2.5: Die Touring Maschine, Grafik übernommen aus [19].
die in dieser Arbeit entwickelte Anwendung, wobei die Umsetzung des Konzepts sich aufgrund des
damaligen technologischen Stands stark unterscheidet. Das System bestand im Wesentlichen aus
drei Komponenten: Einen auf dem Kopf getragenen Monitor (als See-Through-System), einem
Computer, den der Nutzer wie einen Rucksack auf dem Rücken trug sowie einem in der Hand
gehaltenen PC, mit dem der Nutzer mithilfe eines Stifts und Displays die Anwendung bedienen
konnte.
Kapitel 3
Augmented Reality Visualisierungen
In diesem Kapitel werden zunächst verschiedene Gestaltungsmerkmale von Augmented Reality
Visualisierungen thematisiert. Anschließend erfolgt ein Überblick über die prototypische Entwicklung verschiedener Visualisierungsvarianten sowie die Vorbereitung der Evaluierung dieser
Visualisierungen.
3.1 Kriterien für die Gestaltung und Platzierung von mAR Labels
Für die Gestaltung und Platzierung von mAR Labels wurden verschiedene relevante Kriterien
betrachtet. Die Kriterien selbst wurden bereits in themenverwandter Forschung identifiziert (Siehe
[18] und [20]). Im Folgenden wird auf die wesentlichen Kriterien kurz eingegangen werden:
• Ausrichtung [18]: Die Ausrichtung beschreibt die Art und Weise wie das Label relativ zum
referenzierten Objekt positioniert und geneigt ist. Natürlich bezieht sich die Ausrichtung auf
alle drei Dimensionen - von besonderem Interesse ist aber vor allem die Höhe: So kann das
Label beispielsweise das referenzierte Objekt verdecken oder oberhalb von diesem angezeigt
werden.
• Markierung [20]: Die Markierung stellt den Bezug zwischen einem Label und dem referenzierten Objekt her. Hierbei sind verschiedene Möglichkeiten denkbar, z.B. durch eine
Verbindungslinie von dem Label zu dem Objekt, durch eine Form mit Pfeil, der auf das Objekt zeigt oder durch eine farbige Markierung des Labels, wobei das Objekt mit der gleichen
Farbe hervorgehoben ist (Farbanalogie). Die Problemstellung ist hierbei, dass die Markierung in jedem Fall einer Interpretation durch den Nutzer bedarf und der Entwickler sich
somit über ihre Eindeutigkeit Gedanken machen muss.
• Hintergrund bzw. Textur [18]: Dies ist die Textur der virtuellen Überlagerung und kann ein
einfarbiger Hintergrund sein (z.B. weiß oder schwarz). Es ist aber auch eine Farbanalogie
zum referenzierten Objekt denkbar. Eine wesentliche Eigenschaft ist die Transparenz: Mit
dieser kann verhindert werden, dass Labels Objekte völlig verdecken, andererseits muss die
13
Kapitel 3 Augmented Reality Visualisierungen
14
gute Lesbarkeit der Schrift in allen Situationen gewährleistet bleiben, was gegen eine starke
Transparenz spricht.
• Form [18]: Dies ist der Umriss des Labels, beispielsweise ein Rechteck mit abgerundeten
Ecken. Hier ist die Herstellung eines inhaltlichen oder räumlichen Bezugs durch eine dem
Objekt ähnliche Formgebung denkbar.
• Größe [18]: Die Größe des Labels hängt von verschiedenen Faktoren ab, so z.B. von der
Schrift(-größe) und des Inhalts (der Informationen) der angezeigt werden soll. Hier stößt
man auf verschiedene Problemstellungen: Ist das Label zu groß, so verdeckt es zu viel von der
realen Umgebung (insbesondere verdeckt es vielleicht für den Nutzer interessante Objekte).
Falls das Label aber zu klein ist, ist die Menge der darstellbaren Informationen stark begrenzt.
Ebenso kann hierbei eine Anpassung der Größe für verschiedene mobile Geräte diskutiert
werden: Beispielsweise lassen sich auf größeren Tablets auch größere Labels (damit mehr
Inhalt) rechtfertigen als auf den kleineren Smartphones, um ein gleichbleibendes Verhältnis
zwischen eingeblendeten Inhalt und der realen Umgebung zu erzielen.
• Icon [20]: Dies ist ein kleines Symbol, das (in einer zu diskutierenden Art und Weise) zu
dem Objekt passen sollte, auf das es sich bezieht. Denkbar sind hier z.B. ein Minitaturbild,
Skizze, Umriss oder Logo des Objekts, zu dem ein Bezug aufgebaut werden soll. Dabei gibt
es die Möglichkeit der Herstellung eines inhaltlichen Bezugs (beispielsweise ein Kamerasymbol, das einen inhaltlichen Bezug zu Medien herstellt) oder eines räumlichen Bezugs (z.B.
Vogelperspektive oder Kartenbild des Gebäudes). Zusätzlich kann Homogenität durch das
Verwenden einheitlicher Symbole erreicht werden.
• Schrift: Ein weiteres Kriterium für Labels ist die Schrift. Wesentliche Attribute sind hierbei
die Schriftart, die Schriftgröße sowie die Schriftfarbe. Die Schriftgröße beeinflusst die Größe
des Labels (bzw. bei fester Größe: die Menge der anzeigbaren Informationen) und die
Schriftfarbe hängt vom Hintergrund ab (hierbei gilt es einen hohen Kontrast zu erzielen für
bessere Lesbarkeit).
3.2 Entwicklung verschiedener Prototypen
Durch die Variation dieser Gestaltungsmerkmale können prototypisch viele verschiedene Visualisierungen entwickelt werden. Als die beiden wesentlichen Kriterien wurden die Markierung und
die Ausrichtung ausgewählt, um verschiedene Prototypen zu gestalten. Dabei wurden folgende
Markierungsmöglichkeiten betrachtet:
• Pfeil
Bei einer Markierung mithilfe eines Pfeils wird die Form des Labels leicht modifiziert, so dass
diese einen Pfeil enthält, der auf das gemeinte Objekt zeigt. Die Beziehung zwischen Label
Kapitel 3 Augmented Reality Visualisierungen
15
und Objekt wird somit durch eine Richtungsangabe hergestellt. Obwohl dies möglicherweise
in vielen Fällen eine ausreichende Bezugsherstellung zwischen dem Label und dem Objekt
erlaubt, lässt sich vermuten, dass die Eindeutigkeit nicht zwingend gegeben ist - insbesondere
dann nicht, wenn mehre, verschiedene Objekte nah nebeneinander sind und sich somit in
der gleichen Richtung befinden.
• Verbindungslinie
Um einen Bezug zwischen Label und dem gemeinten Objekt herzustellen, wird das Objekt
durch eine vom Label ausgehende Linie mit dem Label verbunden. Damit ist das Label fest
in der realen Umgebung verankert.
• farbanaloge Markierung
Hierbei wird das Objekt, zu dem ein Bezug hergestellt werden soll, ganz oder teilweise
farbig hervorgehoben. Das zugehörige Label enthält als Gestaltungsmerkmal die gleiche
Farbe, sodass der Betrachter durch die Farbanalogie eine Beziehung herstellen kann.
Visualisierungen mit verschiedenen Markierungen werden in Abbildung 3.1 gezeigt. Außerdem
werden folgende verschiedene Ausrichtungen berücksichtigt, die durch die Variation der Höhe des
Labels entstehen:
• Eine Ausrichtung des Labels über dem gemeinten Objekt
• Eine Ausrichtung des Labels unter dem gemeinten Objekt
• Eine Ausrichtung, bei der sich das Label auf gleicher Höhe wie das gemeinte Objekt befindet
und es somit verdeckt
(a) Eine Visualisierung mit einer (b) Eine Visualisierung mit einem (c) Eine Visualisierung mit einer Verfarbanalogen Markierung
Pfeil als Markierung
bindungslinie als Markierung
Abbildung 3.1: Verschiedene Visualisierungen
Mithilfe dieser verschiedenen Gestaltungsmerkmalen wurden verschiedene Visualisierungen entwickelt, um sie anschließend in einer Umfrage quantitativ zu testen und somit Erkenntnisse über
ihre Interpretierbarkeit (Eindeutigkeit der Zuordnung zwischen Label und referenziertem Objekt,
siehe Kapitel 4.3.2.1) und des subjektiven Gefallens zu erhalten.
Kapitel 3 Augmented Reality Visualisierungen
16
3.3 Vorbereitung der Umfrage
In Vorbereitung der Umfrage mussten viele verschiedene Visualisierungen als Mock-ups entwickelt
werden. Es sollten sowohl für den Indoor als auch für den Outdoor Bereich verschiedene Mockups getestet werden. Jedes Mock-up zeigt dabei ein Smartphone, sowie auf dem Display die AR
Visualisierung, um somit möglichst realistisch zu sein.
Bei der Realisierung mithilfe von limesurvey1 musste dabei noch die Problemstellung aufgegriffen
werden, wie man die Interpretation des Teilnehmers korrekt und effizient erfassen kann. Zunächst wurden in jeder Frage zur Interpretierbarkeit dem Teilnehmer ein einleitender Text, der den
Teilnehmer mit der Situation vertraut macht, sowie ein Mock-up gezeigt. Unter dem Mock-up
wurde ein Panoramabild der Umgebung gezeigt, um die Situation möglichst realistisch (ähnlich der
menschlichen Sicht) abzubilden. Anschließend wurde unter dem Panoramabild die Frage gestellt,
wie der Teilnehmer die Visualisierung interpretieren würde (konkret: zu welchem Gebäudeeingang
er beispielsweise gehen würde). Bei der Angabe möglicher Antwortoptionen wären Textantworten
alleine sehr unpräzise und umständlich gewesen, da es oft schwierig ist, Objekte oder Bereiche in
einem Bild genau textuell zu beschreiben. Hierfür wurde ein Javascript Plugin benutzt, mithilfe
dessen Bereiche im Panoramabild identifiziert (durch Mouse-Over-Event) und ausgewählt (durch
Mouse-Klick-Event) werden konnten, wobei dann automatisch die entsprechende Antwortoption
in limesurvey ausgewählt wurde. Ein Beispiel hierfür wird in Abbildung 3.2 gezeigt.
(a) Dem Umfrageteilnehmer wurde ein Mock-up (b) Der Teilnehmer musste die ihm gezeigte Visualisierung ingezeigt.
terpretieren, indem der einen entsprechenden Bereich im Panoramabild anklickt.
Abbildung 3.2: In der Umfrage gezeigte Bilder
Das Javascript Plugin benutzte dabei die Bibliotheken jQuery2 und ImageMapster3 mit denen
man Bereiche in Bildern markieren und hervorheben kann, sofern man für das entsprechende
Panoramabild eine ImageMap angefertigt hat, die die Koordinaten der Punkte von den als Polygon
definierten Bereichen enthält.
1
Siehe http://www.limesurvey.org/de/start zuletzt besucht 21.09.2014
Siehe http://jquery.com/ zuletzt besucht 21.09.2014
3
Siehe http://www.outsharked.com/imagemapster/ zuletzt besucht 21.09.2014
2
Kapitel 4
Evaluierung der entwickelten Visualisierungen
Eine Onlineumfrage diente der Evaluierung der zu entwickelnden Applikation „Campus Guide Uni
Passau“. Es wurde evaluiert, welche Visualisierungen sich aus Nutzersicht eignen, um die Orientierung auf dem Campus zu erleichtern. Dabei spielt die Interpretierbarkeit der Visualisierungen eine
entscheidende Rolle. Können verschiedene entwickelte Visualisierungsvarianten unterschiedliche
Ergebnisse hinsichtlich ihrer Interpretierbarkeit erzielen? Weiterhin wurde das subjektive Gefallen des Nutzers bei verschiedenen Visualisierungen gemessen, um eine möglichst nutzergerechte
Visualisierung für die Applikation auszuwählen.
4.1 Ziele der Umfrage
Die Umfrage verfolgte vor allem zwei Ziele: Zum einen die Interpretierbarkeit verschiedener Visualisierungen zu bewerten und zum anderen das subjektive Gefallen des Nutzers bei verschiedenen
Visualisierungen festzustellen. Dies führt zu den im folgendem Abschnitt aufgeführten Forschungsfragen und Hypothesen.
4.1.1 Forschungsfrage
Die Umfrage basiert auf folgender Forschungsfrage:
Welche Faktoren erleichtern dem Nutzer die Zuordnung des realen Objektes zu der
virtuellen Markierung (des Labels)?
Die Faktoren sind hierbei verschiedene Gestaltungsoptionen. Ziel ist es, Erkenntnisse über die
nutzergerechte Gestaltung von mAR Anzeigen zu gewinnen.
4.1.2 Hypothesen
Basierend auf der Forschungsfrage wurden folgende Hypothesen aufgestellt:
17
Kapitel 4 Evaluierung der entwickelten Visualisierungen
18
H1 Visualisierungen mit farbanalogen Markierungen werden vom Nutzer eindeutiger interpretiert
als andere Markierungen.
H2 Visualisierungen mit unterschiedlichen Ausrichtungen weisen Unterschiede hinsichtlich ihrer
Interpretierbarkeit durch den Nutzer auf.
H3 Visualisierungen mit farbanaloger Markierung gefallen dem Nutzer besser als andere Markierungen.
H4 Visualisierungen, bei denen das Label oberhalb des referenzierten Objekts positioniert ist,
gefallen dem Nutzer besser als andere Ausrichtungen.
4.2 Aufbau der Umfrage
Für die Onlineumfrage wurde das within-subjects Design gewählt. Die Umfrage bestand aus 62
Fragen, die in sieben verschiedene Fragegruppen organisiert waren:
• Einleitung: In der Einleitung wurde den Umfrageteilnehmern kurz erklärt, was man unter
AR versteht.
• Erfahrungen: Dann wurden in vier Fragen verschiedene Erfahrungswerte der Teilnehmer
mithilfe von Likert-Skalen gemessen.
• Erklärung: In dieser Fragegruppe wurde die Teilnehmer durch eine Erklärung und einer
Beispielfrage auf die Fragegruppen zur Interpretierbarkeit vorbereitet.
• Interpretierbarkeit (Outdoor): In dieser Fragegruppe mussten die Teilnehmer in 20 Fragen
jeweils für eine gegebene Visualisierung angeben, wie sie diese interpretieren würden.
• Interpretierbarkeit (Indoor): Diese Fragegruppe ähnelt der zuletzt genannten, mit dem
Unterschied dass Visualisierungen innerhalb (statt außerhalb) von Gebäuden gezeigt wurden.
Sie umfasste ebenfalls 20 Fragen.
• Subjektives Gefallen: In sechs Fragen wurde geprüft, wie verschiedene Visualisierungen
den Teilnehmern gefallen.
• Demographische Daten: Abschließend wurden noch in fünf Fragen demographische Daten
erhoben.
Dabei waren die Fragegruppen zur Interpretierbarkeit randomisiert, d.h. die Reihenfolge der Fragen
innerhalb der Gruppe war zufällig und es war ebenfalls zufällig, welche der beiden Gruppen (Indoor
oder Outdoor) zuerst abgefragt wurde, um somit Lerneffekte zu reduzieren.
Kapitel 4 Evaluierung der entwickelten Visualisierungen
19
4.2.1 Allgemeine Informationen zur Studie
Die Umfrage lief über einen Zeitraum von vier Wochen vom Montag, 28.07.2014 bis Montag,
25.08.2014. Wegen einer kurzzeitigen Stromabschaltung der gesamten Universität war die Umfrage am 15.08.2014 nicht erreichbar. Die Bearbeitungszeit der Umfrage wurde auf 20 Minuten
geschätzt. An der Umfrage nahmen 50 Teilnehmer teil, wovon 41 männlich und 9 weiblich waren.
38 der 50 Teilnehmer waren Studenten. Von den Studenten studierten 28 Informatik, oder einen
informatikverwandten Studiengang (wie z.B. Medieninformatik oder MES). Das durchschnittliche
Alter betrug 23 Jahre (Standardabweichung σ = 4). Weiterhin hatten 32 Teilnehmer Abitur,
Fachabitur oder abgeschlossene Berufsausbildung als höchsten Bildungsabschluss, 17 Teilnehmer
hatten einen Hochschul- oder Fachhochschulabschluss und ein Teilnehmer hat promoviert oder
habilitiert. Zudem gaben 30 Teilnehmer an, den Campus der Universität Passau zu kennen. Unter
allen Teilnehmern wurden drei Amazon Gutscheine im Wert von je 10€ verlost.
4.3 Auswertung der Ergebnisse der Umfrage und Erkenntnisse
In diesem Abschnitt werden die ausgewerteten Ergebnisse der Umfrage und die daraus gezogenen
Erkenntnisse präsentiert.
4.3.1 Erfahrungswerte der Teilnehmer
Um einen Überblick darüber zu erhalten, wie erfahren die Teilnehmer im Umgang mit verschiedenen
Technologien sind, wurden 5-Punkt Likert-Skalen eingesetzt (mit 1 = unerfahren bis 5 = erfahren).
Da Likert-Skalen ordinalskaliert sind, geschieht eine Zusammenfassung des Ergebnisses durch den
Median als Lageparameter. In Klammern wird noch das arithmetische Mittel angegeben, obwohl
dies nur für intervallskalierte Antwortoptionen einen gültigen Lageparameter darstellt.
• Erfahrungen mit Augmented Reality hatten nur wenige Teilnehmer. Es bewerteten 70% der
Teilnehmer ihre Erfahrung mit dem Wert 1 oder 2. Der Median betrug hierbei 2 (Arithmetisches Mittel µ = 2,14; Standardabweichung σ = 1,11).
• Dagegen waren die Erfahrungswerte im Umgang mit Smartphones sehr stark ausgeprägt.
Die Mehrheit (54%) bewertete diese Frage sogar mit 5. Der Median betrug hierbei 5
(Arithmetisches Mittel µ = 4,24; Standardabweichung σ = 1,08).
• Ebenfalls zeigten sich die Teilnehmer im Umgang mit standortbezogenen Diensten erfahren,
da hierbei immerhin 66% die Frage mit 4-5 beantworteten. Der Median betrug 4 (Arithmetisches Mittel µ = 3,64; Standardabweichung σ = 1,17).
Kapitel 4 Evaluierung der entwickelten Visualisierungen
20
• Mit See-Through-Systemen waren die Teilnehmer allerdings weniger vertraut. Sogar fast die
Hälfte der Teilnehmer (48%) bewerteten ihre Erfahrungswerte mit See-Through-Systemen
mit 1. Der Median betrug 2 (Arithmetisches Mittel µ = 1,9; Standardabweichung σ =
1,09).
4.3.2 Interpretierbarkeit
In diesem Abschnitt werden die Ergebnisse der Umfrage hinsichtlich der Interpretierbarkeit der
Visualisierungen präsentiert.
4.3.2.1 Definition
Das Wort „interpretierbar“ bedeutet zunächst nur „sich auf eine bestimmte Weise deuten lassen“
(lt. Duden). In diesem Sinne gibt es zunächst auch keine „richtigen“ oder „falschen“ Interpretationen, da diese lediglich die individuelle Deutung von Personen widerspiegeln. Für den Kontext
dieser Studie soll also festgelegt werden, was unter einer richtigen Interpretation verstanden wird
und wie diese gemessen wird.
Eine Frage wird von einem Teilnehmer richtig beantwortet (interpretiert), wenn dessen Interpretation der Interpretation der Mehrheit entspricht. Es wird also explizit nicht gefordert eine richtige
Interpretation mit der Absicht des Entwicklers gleichzusetzen, da auch der Entwickler sich irren kann. Gemessen wird also die Eindeutigkeit der Interpretationen von Visualisierungen. Als
Messgröße wird hierbei für jede Frage das Maximum der Anzahl gegebener Antworten der vier
verschiedenen Antwortoptionen ausgewählt. Dies entspricht der Anzahl an Antworten der meist
gewählten Antwortoption. Ein Sonderfall entsteht, wenn die meist gewählte Antwortoption die
vierte Option „Keine der Genannten“ ist, da diese keine zulässige Messgröße für die Eindeutigkeit
von Interpretationen darstellt (unter dieser Antwortoption werden immerhin auch verschiedene
Interpretationen zusammengefasst). In diesem Fall wird für die Frage das zweite Maximum (die
zweit beliebteste Antwortoption) ausgewählt.
4.3.2.2 Aufbau
Die Teilnehmer der Umfrage mussten in insgesamt 40 Fragen (davon 20 Indoor und 20 Outdoor)
anhand einer ihnen gezeigten Visualisierung entscheiden, welches Objekt von dem Label referenziert wird. Dabei mussten sie in einem Panoramabild, dass ein reales Blickfeld simulieren sollte,
an der entsprechenden Stelle klicken, um somit automatisch eine Antwortoption auszuwählen. Es
gab insgesamt bei jeder Frage vier Antwortoptionen, davon war eine Option die Antwort „Keine
der Genannten“.
21
Kapitel 4 Evaluierung der entwickelten Visualisierungen
4.3.2.3 Auswertung
Zunächst werden die die Ergebnisse der Interpretierbarkeit von Visualisierungen mit verschiedenen
Markierungen für das Outdoor Setting präsentiert:
• Visualisierungen mit farbanaloger Markierung wurden am öftesten (in 94,33% der Fälle)
durch die Teilnehmer richtig interpretiert.
• Visualisierungen mit einer Verbindungslinie vom Label zum gemeinten Objekt als Markierung
wurden immerhin in 90% der Fälle richtig interpretiert.
• Visualisierungen mit einem Pfeil, der auf das referenzierte Objekt zeigt, wurden nur in
65,75% der Fälle richtig durch die Teilnehmer interpretiert und schnitten somit am schlechtesten ab.
Die Ergebnisse liefern ein Indiz dafür, dass farbanaloge Markierungen eindeutiger interpretiert
werden als andere und somit Hypothese H1 korrekt sein könnte. Ebenfalls ist es auffallend, dass
Visualisierungen mit Pfeilen als Markierung deutlich schlechter abschnitten. Ein Grund hierfür
könnte sein, dass Pfeile lediglich eine Richtung angeben und diese sehr schnell falsch verstanden
wird, wenn beispielsweise zwei Objekte nah beieinander (und damit in derselben Richtung) liegen
oder die Labels leicht verrutschen.
Ein Exakter Test nach Fisher zeigt, dass der Unterschied hinsichtlich der Interpretierbarkeit zwischen Visualisierungen mit farbanaloger Markierung und Visualisierungen mit Verbindungslinie als
Markierung bei einem Signifikanzniveau von α = 0, 05 nicht signifikant ist (p = 0,71). Aus diesem Grund muss Hypothese H1 zugunsten der Nullhypothese abgelehnt werden. Allerdings ist
festzustellen, dass es einen signifikanten Unterschied zwischen Visualisierungen mit farbanaloger
Markierung und Visualisierungen mit Pfeilen als Markierung hinsichtlich der Interpretierbarkeit gibt
(Exakter Test nach Fisher: p = 0,0008). Ebenso existiert ein signifikanter Unterschied zwischen
Visualisierungen mit Verbindungslinie und Visualisierungen mit Pfeil als Markierung (Exakter Test
nach Fisher: p = 0,007). Damit lässt sich zumindest festhalten, dass Visualisierungen mit Pfeil
als Markierung hinsichtlich ihrer Interpretierbarkeit signifikant schlechter abgeschnitten haben als
Visualisierungen, die die anderen beiden Markierungmöglichkeiten verwendeten.
Anzahl richtiger Interpretationen
Anzahl falscher Interpretationen
Farbanalog
47
3
Outdoor
Verbindungslinie
45
5
Pfeil
33
17
Indoor
Farbanalog Pfeil
42
37
9
13
Tabelle 4.1: Tabelle der Anzahl der durchschnittlichen (arithmetisches Mittel über mehrere Fragen), gerundeten richtigen und falschen Interpretation pro Markierungsart
Weiterhin werden die Ergebnisse der Interpretierbarkeit von Visualisierungen mit verschiedenen
Markierungen für das Indoor Setting präsentiert:
22
Kapitel 4 Evaluierung der entwickelten Visualisierungen
• Visualisierungen mit farbanaloger Markierung wurden in 83% der Fälle durch die Teilnehmer
richtig interpretiert.
• Visualisierungen mit einem Pfeil, der auf das referenzierte Objekt zeigt, wurden in 74,14%
der Fälle richtig durch die Teilnehmer interpretiert und schnitten somit etwas schlechter ab.
• Visualisierungen, bei denen gänzlich auf eine Markierung verzichtet wurde, wurden nur in
lediglich 38% der Fälle richtig interpretiert.
Es zeigt sich somit, dass farbanaloge Visualisierungen auch Indoor höhere Messwerte für ihre
Eindeutigkeit erzielen. Ein Exakter Test nach Fisher zeigt aber, dass dieser Unterschied bei einem
Signifikanzniveau von α = 0, 05 nicht signifikant ist (p = 0.3435).
Anschließend wurde noch untersucht, ob verschiedene Visualisierungen mit verschiedenen Ausrichtungen Unterschiede hinsichtlich ihrer Interpretierbarkeit aufweisen. Dabei wurden zunächst nur
Visualisierungen bei denen das Label über dem gemeinten Objekt und Visualisierungen bei denen
das Label unter dem gemeinten Objekt platziert ist, im Outdoor Bereich untersucht mit folgenden
Ergebnissen:
• Visualisierungen, bei denen das Label über dem gemeinten Objekt platziert ist, wurden in
78,77% der Fälle von den Teilnehmern richtig interpretiert.
• Visualisierungen, bei denen das Label unter dem gemeinten Objekt platziert ist, wurden in
75,14% der Fälle von den Teilnehmern richtig interpretiert.
Es zeichnet sich hierbei kein deutlicher Unterschied ab (Vergleiche dazu auch Tabelle 4.2). Nach
einem Exakten Test nach Fisher ist der sehr geringe Unterschied auch nicht signifikant (der p-Wert
beträgt fast 1). Damit wird Hypothese H2 abgelehnt und die Nullhypothese angenommen.
Interpretationen / Ausrichtung
Anzahl richtiger Interpretationen
Anzahl falscher Interpretationen
über dem Objekt
39
11
unter dem Objekt
38
12
Tabelle 4.2: Tabelle der Anzahl der durchschnittlichen (arithmetisches Mittel über mehrere Fragen), gerundeten richtigen und falschen Interpretation pro Ausrichtung
Kapitel 4 Evaluierung der entwickelten Visualisierungen
Abbildung 4.1: Interpretierbarkeit verschiedener Visualisierungen (Outdoor)
Abbildung 4.2: Interpretierbarkeit verschiedener Visualisierungen (Indoor)
23
Kapitel 4 Evaluierung der entwickelten Visualisierungen
24
4.3.3 Subjektives Gefallen
In diesem Abschnitt werden die Ergebnisse der Umfrage hinsichtlich des Subjektiven Gefallens der
Visualisierungen präsentiert.
4.3.3.1 Markierung
Die Teilnehmer der Umfrage mussten in drei aufeinander folgenden Fragen eine Rangfolge zu den
je drei verschiedenen Markierungsmöglichkeiten angeben und diese somit nach ihrem subjektiven
Gefallen anordnen:
• farbanaloge Markierung
• Markierung durch einen Pfeil
• Markierung durch eine Verbindungslinie
Die Markierungsmöglichkeiten wurden ihnen dabei in jeder Frage anhand verschiedener Visualisierungen veranschaulicht. Bei der Bewertung war Platz 1 die vom Teilnehmer bevorzugte Markierungsmöglichkeit und Platz 3 die Markierung, die dem Teilnehmer am wenigsten gefallen hat.
Dabei wurden folgende, durchschnittliche Ergebnisse ausgewertet:
• Platz 1 Auf diesen Platz wurde in 69,33% der Fälle die farbanaloge Markierung gesetzt,
während in nur 20% der Fälle die Markierung durch einen Pfeil favorisiert wurde. In nur
10,67% der Fällen bevorzugten die Nutzer eine Markierung durch eine Verbindungslinie
gegenüber den anderen Alternativen.
• Platz 2 Weiterhin setzten in 18% der Fälle die Teilnehmer die farbanaloge Markierung auf
den zweiten Platz, während in 38% der Fälle die Markierung durch einen Pfeil und in 44%
der Fälle die Markierung durch eine Verbindungslinie auf Platz 2 gesetzt wurden.
• Platz 3 Die farbanaloge Markierung wurde in nur 12,67% der Fälle auf Platz 3 platziert,
hingegen die Markierung durch einen Pfeil in 42% und die Markierung durch eine Verbindungslinie in 45,33% der Fälle.
Es zeigt sich somit eine starke Tendenz, dass Nutzer farbanaloge Markierungen bevorzugen, da
diese mehrheitlich (in 69,33% der Fälle auf Platz 1) gegenüber den beiden anderen Markierungsmöglichkeiten bevorzugt wurde. Dies ist somit ein erster Hinweis auf die Korrektheit von Hypothese
H3.
Ein Exakter Test nach Fisher zeigt, dass dieser Unterschied bei einem Signifikanzniveau von α =
0,05 signifikant ist (p < 0,0001) und damit wird Hypothese H3 angenommen.
25
Kapitel 4 Evaluierung der entwickelten Visualisierungen
Platz/Markierungsart
1
2
3
farbanaloge Markierung
35 (104)
9 (27)
6 (19)
Pfeil
10 (30)
19 (57)
21 (66)
Verbindungslinie
5 (16)
22 (66)
23 (68)
Tabelle 4.3: Tabelle der durchschnittlichen, gerundeten Anzahl an Platzierungen pro Markierungsart. In Klammern steht die exakte, absolute Summe der gemessenen Bewertungen
über alle drei Fragen.
4.3.3.2 Ausrichtung
Ebenfalls mussten die Umfrageteilnehmer in drei aufeinander folgenden Fragen eine Rangfolge zu
den je drei verschiedenen Ausrichtungen angeben und diese somit nach ihrem subjektiven Gefallen
anordnen:
• Das Label wird über dem gemeinten Objekt positioniert.
• Das Label wird unter dem gemeinten Objekt positioniert.
• Das Label verdeckt das gemeinte Objekt.
Die verschiedenen Ausrichtungen wurden ihnen dabei in jeder Frage anhand verschiedener Visualisierungen veranschaulicht. Bei der Bewertung war Platz 1 die vom Teilnehmer bevorzugte
Ausrichtung und Platz 3 die Ausrichtung, die dem Teilnehmer am wenigsten gefallen hat. Dabei
wurden folgende, durchschnittliche Ergebnisse ausgewertet:
• Platz 1 Auf diesen Platz setzten in 59,33% der Fälle die Teilnehmer die Ausrichtung des
Labels oberhalb des Objekts und immerhin in 37.33% der Fälle die Ausrichtung unterhalb des
Objekts. Nur bei 3,33% der Bewertungen gefiel eine verdeckende Ausrichtung am Besten.
• Platz 2 Außerdem setzten in 38,67% der Fälle die Teilnehmer die Ausrichtung oberhalb
des Objekts auf den zweiten Platz, während in 57,33% der Fälle die Ausrichtung des Labels
unterhalb des Objekts und nur in 4% der Fälle die verdeckende Ausrichtung auf Platz 2
gesetzt wurden.
• Platz 3 Die Ausrichtung des Labels über dem Objekt wurde in nur 3,33% der Fälle sowie
die Ausrichtung des Labels unterhalb des Objekt in 4% der Fälle auf Platz 3 platziert.
Auffallend ist, dass die verdeckende Ausrichtung in 92,67% der abgegebenen Bewertungen
am schlechtesten gefiel.
Zunächst zeigt sich anhand dieser Bewertung die (relativ zu den anderen Ausrichtungen betrachtete) Abneigung der Teilnehmer gegenüber einer verdeckenden Ausrichtung des Labels, da diese
in 92,66% der Bewertungen am schlechtesten gefiel.
26
Kapitel 4 Evaluierung der entwickelten Visualisierungen
Platz/Ausrichtung
1
2
3
Oberhalb des Objekts
30 (89)
19 (58)
2 (5)
Unterhalb
19
29
2
des Objekts
(56)
(86)
(6)
Das Objekt verdeckend
2 (5)
2 (6)
46 (139)
Tabelle 4.4: Tabelle der durchschnittlichen, gerundeten Anzahl an Platzierungen pro Ausrichtung.
In Klammern steht die exakte, absolute Summe der gemessenen Bewertungen über
alle drei Fragen.
Weiterhin zeigt sich die Tendenz, dass die Teilnehmer eine Ausrichtung des Labels oberhalb des
gemeinten Objekts (59,33% der Bewertungen Platz 1) gegenüber der Ausrichtung des Labels
unterhalb des gemeinten Objekts (38,67% der Bewertungen Platz 1) etwas bevorzugen, was ein
erster Anhaltspunkt für die mögliche Korrektheit der Hypothese H4 ist.
Ein Exakter Test nach Fisher zeigt aber, dass der Unterschied zwischen einer Ausrichtung des
Labels oberhalb des gemeinten Objekts gegenüber einer Ausrichtung des Labels unterhalb des
gemeinten Objekts bei einem Signifikanzniveau von α = 0,05 nicht signifikant ist (p = 0,100) und
damit wird Hypothese H4 zugunsten der Nullhypothese abgelehnt.
Kapitel 4 Evaluierung der entwickelten Visualisierungen
(a) Markierungen
(b) Ausrichtungen
Abbildung 4.3: Das Subjektive Gefallen bezüglich verschiedener Visualisierungen
27
Kapitel 5
Entwicklung der Applikation
Um Studienanfänger im Studiengang „Mobile und Eingebettete Systeme“ die Orientierung auf
dem Campus zu erleichtern, wurde eine mobile Anwendung für Android Smartphones und Tablets
entwickelt, die Augmented Reality einsetzt und dabei die in Kapitel 4 gewonnenen Erkenntnisse umsetzt. Die Entwicklung dieser Applikation, sowie die dabei aufgetretenen Probleme und
Fragestellungen sollen in diesem Kapitel festgehalten werden.
5.1 Ziele und Nutzen
Die wesentlichen Ziele der Anwendung sind die Folgenden:
• Der Nutzer kann eine Augmented Reality Ansicht nutzen, die Informationen zu Gebäuden
einblendet und ihn auf Points of Interests hinweist.
• Der Nutzer kann eine Karte nutzen, um einen groben Überblick über den Campus zu erhalten
und seinen eigenen Standort auf dem Campus zu erfassen.
• Der Nutzer kann, sofern er ein ganz bestimmtes Ziel hat, dieses mit einer Suchfunktion
suchen und es sich auf der Karte anzeigen lassen.
Die genauere Umsetzung dieser Ziele wird in Abschnitt 5.3 behandelt.
5.2 Design der Applikation
Das Design der Anwendung wurde schlicht gehalten und berücksichtigt die Android Design Guidelines1 . Das Hauptmenü (MainActivity) gibt einen Überblick über die möglichen Funktionalitäten
der App. Dabei werden die Funktionalitäten in einer Liste aufgezählt. Zu jeder Funktionalität
1
Siehe dazu https://developer.android.com/design/index.html zuletzt besucht 14.09.2014
28
Kapitel 5 Entwicklung der Applikation
29
Abbildung 5.1: Ein Screenshot des Hauptmenüs der Anwendung.
(bzw. Aktion) wird ein inhaltlich passendes Icon sowie eine kurze Beschreibung der Funktionalität
angegeben. Die verfügbaren Aktionen sind:
• AR-Ansicht
Es wird eine AR-Ansicht gestartet, die es dem Nutzer erlaubt seine Umgebung visuell durch
zusätzlich eingeblendete Informationen zu erweitern.
• Karte
Es wird eine zoombare Karte des Campus gezeigt, auf der Indoorkarten und der eigene
Standort zu sehen sind.
• Suche
Es kann nach Gebäuden, Hörsälen oder anderen interessanten Orten gesucht werden. Diese
werden dann auf der Karte markiert.
Für die vertikale (um 90 Grad gedrehte) Ansicht wird ein eigenes Layout (layout-landscape) benutzt. Auf weitere Optionen wie Einstellungen, Hilfe und Informationen über die App kann der
Nutzer durch den Overflow Button in der Action Bar zugreifen.
Kapitel 5 Entwicklung der Applikation
30
Abbildung 5.2: Ein Screenshot der AR Ansicht: Zu Gebäuden des Campus werden Labels mit
Informationen angezeigt.
5.3 Implementierung
Im folgenden Abschnitt soll die Umsetzung der einzelnen Funktionalitäten der Anwendung behandelt werden.
5.3.1 Die Augmented Reality Ansicht
Die Augmented Reality Ansicht ist die wesentliche Funktionalität der App.
Bei dieser Funktion wird das Kamerabild des Smartphones durch eine virtuelle Überlagerung ergänzt. Somit wird das Smartphone als See-Through-System benutzt. Der Nutzer richtet dabei
die Kamera seines Smartphones so aus, als würde er ein Foto aufnehmen. Wird ein Objekt von
der AR Anwendung erkannt, so werden zusätzliche Informationen lagerichtig eingeblendet. Um
eine möglichst gute Zuordnung zwischen Label und referenziertem Objekt zu erreichen (d.h. Interpretierbarkeit vgl. Kapitel 4), wird eine farbanaloge Markierung gewählt: Das Objekt (z.B.
der Eingang eines Gebäudes) wird farbig hervorgehoben mit der selben Farbe wie das Label. Das
Label wird oberhalb des referenzierten Objekts positioniert, da diese Ausrichtung in der Evaluation
hinsichtlich des subjektiven Gefallens am Besten bewertet wurde.
Ein Label enthält in der Überschrift den Namen des Objekts, auf das es sich bezieht. Im Körper
des Labels ist Platz für weitere Informationen zu dem Objekt. Hier wurde auch für jedes Label ein
Icon ausgesucht, das eine inhaltliche Beziehung zu dem Objekt herstellen soll (beispielsweise wird
ein Kamera Icon für das Zentrum für Medien und Kommunikation verwendet). Die Icons wurden
Kapitel 5 Entwicklung der Applikation
31
(a) Das Label der FIM zeigt als POIs die Hörsäle, Seminar- (b) Beim Label des ZMK wird mithilfe des Kamera Icons
räume sowie das Rechenzentrum und das InteleC-Zentrum ein inhaltlicher Bezug zum Objekt hergestellt.
an.
Abbildung 5.3: Labels zu den Gebäuden mit Informationen
aus einem einheitlichen Iconset ausgewählt, nämlich Font Awesome2 , um somit Homogenität zu
erzielen. Neben den Icons ist Platz für weitere Informationen zu dem Objekt. Bei Gebäuden
werden hier die Points of Interests (POIs), die sich innerhalb des Gebäudes befinden, aufgelistet
sowie die dazugehörigen Raumnummern. Bei der Auswahl der POIs wurde darauf geachtet, dass
möglichst jene POIs aufgelistet werden, die auch relevant für Studienanfänger des Fachs MES
sind.
Die Implementierung dieser Funktionalität wurde mithilfe der Metaio Toolbox3 und dem Metaio
Creator4 umgesetzt. Die Metaio Toolbox ist eine App, die es dem Nutzer erlaubt sogenannte
„3D Maps“ aufzuzeichnen, welche Point Clouds einer bestimmten Umgebung darstellen, die später für das Tracking verwendet werden. Diese 3D Maps können mit dem Metaio Creator geladen
und nachbearbeitet werden. So ist beispielsweise eine Anpassung der Point Cloud durch das Entfernen einiger störender Punkte möglich (mehr dazu in Kapitel 5.3.4). Anschließend können mit
dem Creator verschiedene Objekte (z.B. Labels oder Markierungen) platziert und an Gebäuden
ausgerichtet werden.
5.3.2 Die Karte des Campus
Als Unterstützung für die Augmented Reality Ansicht wurde außerdem eine Karte in die Anwendung eingebunden, die den Campus der Universität Passau zeigt. Die Umsetzung dieser Funktionalität erfolgte mithilfe der Google Maps API v25 . Die Karte erlaubt wesentliche Manipulationen
(Zoomen, Rotieren) durch den Nutzer und hat dabei die gleiche Bedienweise wie der Nutzer es
von Google Maps gewöhnt ist. Dies wirkt sich positiv auf die Usability der App aus, da der Nutzer
2
Siehe http://fortawesome.github.io/Font-Awesome/ zuletzt besucht 30.08.14
Siehe https://play.google.com/store/apps/details?id=com.metaio.creatorMobile&hl=de zuletzt
21.09.2014
4
Siehe http://www.metaio.com/creator/ zuletzt besucht 21.09.2014
5
Siehe http://developer.android.com/google/play-services/maps.html zuletzt besucht 28.08.2014
3
besucht
32
Kapitel 5 Entwicklung der Applikation
(a) Ein Hinweis weist den Nutzer
darauf hin, dass er die Indoorkarte
beim Hineinzoomen sieht.
(b) Beim Hineinzoomen wird die Indoorkarte angezeigt.
(c) Bei einer sehr nahen Zoomstufe
kann man die einzelnen Hörsäle oder
Seminarräume gut erkennen.
Abbildung 5.4: Die Karte des Campus
die Bedienweise der Karte nicht neu erlernen muss, sofern er mit Google Maps vertraut ist. Im
Gegensatz zu Google Maps zeigt diese Karte aber auch Indoorkarten (mehr dazu in Abschnitt
5.3.2.1) für bestimme Universitätsgebäude, sobald der Nutzer nah genug an das entsprechende
Gebäude heran zoomt. Um den Nutzer auf diese Funktionalität hinzuweisen, erscheint ein Hinweis,
sobald sich ein Gebäude im Blickpunkt des Nutzers befindet. Falls man wieder weit genug heraus
zoomt wird die Indoorkarte wieder ausgeblendet.
Weiterhin wird auch der momentane Standort des Nutzers auf dem Campus durch ein blaues Icon
angezeigt, sofern dieser die Ermittlung seines Standorts erlaubt. Durch Berühren des Standort
Symbols in der rechten oberen Ecke kann der Nutzer jederzeit zu seinem eigenen Standort springen. Die Karte ermöglicht es dem Nutzer somit einen Überblick über den Campus sowie seiner
eigenen Position und ggf. eine detaillierte Ansicht des Innenbereichs eines Gebäudes zu erhalten.
5.3.2.1 Indoorkarte und Discoverability
Die Discoverability („Auffindbarkeit“) ist eines der von Marco de Sà und Elizabeth Churchill in
[2] identifizierten Problemen, die sich beim Entwickeln von mobilen AR Anwendungen ergeben.
Es beschreibt das Problem, wie ein Nutzer wissen kann, was er mithilfe der AR Anwendung
entdecken kann (d.h. zu welchem Objekt werden überhaupt computergenerierte Informationen
angezeigt und wohin bzw. wie muss der Nutzer sein Smartphone halten, um diese aufzufinden?)
33
Kapitel 5 Entwicklung der Applikation
Da in der entwickelten Anwendung eine Karte zur Verfügung steht, besteht ein Lösungsansatz
darin, mithilfe eines geeigneten Icons einen AR Standort sowie die Richtung, in die der Nutzer
sein Smartphone halten muss, zu kennzeichnen. Dies kann in Abbildung 5.3.2.1 gesehen werden.
(a) Indoormap mit AR Standort Icon
(b) Icon zur Kennzeichnung eines
AR Standorts. Der rote Bereich soll
die Richtung anzeigen, in der augmentierte Inhalte angezeigt werden.
Abbildung 5.5: Die Problemstellung der Auffindbarkeit wird mithilfe eines Icons zur Kennzeichnung
eines AR Standorts aufgegriffen.
5.3.3 Die Suchfunktion
Die Suchfunktion stellt eine Erweiterung der Kartenfunktionalität dar. Falls ein Nutzer ein bestimmtes Gebäude, einen bestimmten Hörsaal, Seminarraum oder einen anderen Point of Interest
(POI) finden möchte, so kann er diesen POI mithilfe der Suchfunktion suchen. Dabei muss er nur
die Suchfunktion starten und in das Suchfeld den Namen bzw. einen Teil des Namens eingeben
und schon werden ihm basierend auf seiner Eingabe entsprechende POIs heraus gefiltert und in
Listendarstellung präsentiert. Wählt der Nutzer nun ein Element aus, so wird er auf die Karte weitergeleitet, wobei nun der entsprechende POI durch einen Marker markiert ist, sodass der Nutzer
weiß wo er hingehen muss.
Die POIs werden dabei mithilfe eines Parsers aus einer Datei geladen (pois.txt), sodass es
sehr einfach ist neue POIs hinzuzufügen. POIs bestehen dabei aus einen Namen (z.B. "Hörsaal
13") und den Koordinaten (Breitengrad und Längengrad). Optional kann zusätzlich noch eine
Beschreibung und ein eigenes Icon angegeben werden. Der Filter filtert bei einer Eingabelänge
von 2 nur nach POIs deren Namen mit der Eingabe beginnen. Ab einer Eingabelänge von 3 werden
alle POIs gefiltert, deren Namen die Eingabe als Teilwort enthalten.
34
Kapitel 5 Entwicklung der Applikation
(a) Zunächst werden alle POIs aufgelistet.
(b) Gibt der Nutzer einen Suchbegriff ein, werden die POIs nach dem
Suchbegriff gefiltert.
(c) Wählt der Nutzer ein POI aus,
wird er auf die Karte weitergeleitet,
wobei der POI markiert und im Fokus
ist.
Abbildung 5.6: Die Suchfunktion
5.3.4 Problemstellungen beim Entwickeln der AR Anwendung
Bei der Entwicklung der AR Anwendung sind verschiedene Probleme aufgetreten, die zusammen
mit Lösungsansätzen dokumentiert wurden.
5.3.4.1 Probleme des optischen Tracking
Es gibt zahlreiche Faktoren, die optisches Tracking stark erschweren, da dieses sehr von Texturen
abhängig ist. Zu diesen Störfaktoren zählen beispielsweise:
• Verschiedene Lichtverhältnisse und Schatteneffekte
• Vegetation und Jahreszeitabhängige Effekte
Während man das Problem der verschiedenen Lichtverhältnisse oftmals damit umgehen kann,
indem man mehrere Tracking Konfigurationen (bei verschiedenen Lichtverhältnissen) erstellt, so
ist bei Sonnenschein das Problem des wandernden Schatten noch nicht berücksichtigt. Gerade an
den Randstellen des Schattens werden beim Tracking sehr viele Features generiert, da an diesen
Stellen ein hoher Kontrast in der Textur besteht. Es ist möglich und ratsam diese Features später
manuell aus der Point Cloud zu entfernen, da sie für das Tracking nicht benutzt werden können
Kapitel 5 Entwicklung der Applikation
35
und somit für die Qualität der erzeugten Point Cloud keinen Wert haben.
Ein weiteres Problem ist die Vegetation. Diese ist stark abhängig von der Jahreszeit und kann
somit ebenfalls nicht zur Erzeugung von Point Clouds verwendet werden. Auch hier müssen
Punkte, die an Büschen oder Bäumen festgemacht wurden später manuell entfernt werden. Falls
die Vegetation zu ausgeprägt ist und einen großen Anteil am gesamten Bild ausmacht, wird dies
später zu einer geringen Wahrscheinlichkeit der Initialisierung des Trackings führen.
5.3.4.2 Repeated Patterns
Eine weiteres, aber auch selteneres Problem beim Tracking stellen sich in der Umgebung wiederholende Muster dar. In diesem Fall wird eine Point Cloud generiert, bei der die Features sich
stark ähnelnde, oft wiederholende Strukturen bilden. Da das Tracking ausgelöst wird, sobald eine
bestimmte Anzahl an Features erkannt wird, ist eine eindeutige Lagebestimmung in diesem Fall
nicht möglich. Falls also für die Initialisierung des Trackings 15 Features erkannt werden müssen
und diese sich aber innerhalb der Point Cloud, die beispielsweise 500 Features enthält, öfters wiederholen, so arbeitet das Tracking System fehlerhaft, da es nicht genau bestimmen kann, welche
dieser Features innerhalb der Point Cloud erkannt wurden. Als Konsequenz wird das Label möglicherweise falsch platziert. Ein Beispiel hierfür stellen Gebäude dar, die sehr symmetrisch sind und
bei denen die Fenster in Form eines Gitters angeordnet sind. Der Grund dafür ist, dass wesentliche
Unterschiede in der Textur von Gebäuden besonders bei Fenstern auftreten. Ein Beispiel für dieses
Problem kann in Abbildung 5.7 gesehen werden.
(a) Das Label wird links von der eigentlichen Platzierung (b) Beim zweiten Versuch wird das Label rechts von der
eingeblendet.
eigentlichen Platzierung eingeblendet.
Abbildung 5.7: Das Gebäude weist sich wiederholende Strukturen auf: Obwohl das Label ursprünglich über dem Torbogen positioniert ist, ist eine eindeutige Lagebestimmung nicht
möglich. So wird das Label in zwei verschiedenen Fällen an unterschiedlichen
Stellen eingeblendet.
Kapitel 6
Zusammenfassung
Nachdem in dieser Arbeit ein Grundwissen über Augmented Reality und deren Anwendungen erarbeitet wurde, wurden Kriterien für die Gestaltung und Platzierung von mAR Anzeigen erarbeitet.
Darauf aufbauend wurden prototypisch und unter Variation zweier dieser Kriterien (Markierung,
Ausrichtung) verschiedene Visualisierungen als Mock-Ups erstellt. Diese wurden anschließend in
einer Nutzerstudie hinsichtlich ihrer Interpretierbarkeit und des subjektiven Gefallens evaluiert, um
somit Erkenntnisse über nutzergerechte mAR Visualisierungen zu erlangen. Anschließend wurde
als Anwendungsbeispiel, dass Augmented Reality Nutzern helfen kann sich in einer unbekannten
Umgebung zu orientieren, eine mobile Anwendung für Android Smartphones und Tablets entwickelt, die diese Erkenntnisse aufgreift und entsprechende Visualisierungen implementiert. Weiterhin wurden auch die auftretenden Problemstellungen beim Entwicklungsprozess berücksichtigt,
sowie Lösungsansätze dokumentiert.
36
Abbildungsverzeichnis
2.1
AR Überlagerung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
2.2
Realitäts-Virtualitätskontinuum nach Milgram . . . . . . . . . . . . . . . . . . .
5
2.3
Klassifizierungsmöglichkeiten für AR Systeme . . . . . . . . . . . . . . . . . . .
9
2.4
Junaio. Bildquellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
2.5
Die Touring Maschine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
3.1
Verschiedene Visualisierungen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
3.2
In der Umfrage gezeigte Visualisierungen . . . . . . . . . . . . . . . . . . . . . .
16
4.1
Interpretierbarkeit verschiedener Visualisierungen . . . . . . . . . . . . . . . . . .
23
4.2
Interpretierbarkeit verschiedener Visualisierungen . . . . . . . . . . . . . . . . . .
23
4.3
Subjektives Gefallen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
27
5.1
Die UI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
29
5.2
Die AR Ansicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
5.3
Die Labels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31
5.4
Campus Karte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
32
5.5
Icon zur Kennzeichnung eines AR Standorts . . . . . . . . . . . . . . . . . . . .
33
5.6
Die Suchfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
34
5.7
Repeated Patterns . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
35
37
Tabellenverzeichnis
4.1
Tabelle der durchschnittlichen Interpretationswerte je Markierungsart . . . . . . .
21
4.2
Tabelle der durchschnittlichen Interpretationswerte je Ausrichtung . . . . . . . .
22
4.3
Subjektives Gefallen bei verschiedenen Markierungen . . . . . . . . . . . . . . .
25
4.4
Subjektives Gefallen bei verschiedenen Ausrichtungen . . . . . . . . . . . . . . .
26
38
Literaturverzeichnis
[1] C. D. Kounavis, A. E. Kasimati, und E. D. Zamani, “Enhancing the Tourism Experience
through Mobile Augmented Reality: Challenges and Prospects,” International Journal of
Engineering Business Management, 2012.
[2] M. de Sá und E. Churchill, “Mobile Augmented Reality: A design perspective,” Human
Factors in Augmented Reality Environments, 2013.
[3] M. de Sá und E. Churchill, “Mobile Augmented Reality: Exploring Design and Prototyping Techniques,” in Proceedings of the 14th International Conference on Human-computer
Interaction with Mobile Devices and Services, MobileHCI ’12, (New York, NY, USA), Seiten 221–230, ACM, 2012.
[4] R. T. Azuma, “A Survey of Augmented Reality,” Presence: Teleoperators and Virtual Environments, Band 6, Seiten 355–385, Aug. 1997.
[5] P. Milgram, H. Takemura, A. Utsumi, und F. Kishino, “Augmented Reality: A Class of
Displays on the Reality-Virtuality Continuum,” in Proceedings of the SPIE Conference on
Telemanipulator and Telepresence Technologies, Band 2351 von Proceedings of SPIE, (Boston, Massachusetts, USA), Seiten 282–292, Nov. 1995.
[6] M. Tönnis, Augmented Reality: Einblicke in die Erweiterte Realität. Informatik im Fokus,
Springer, 2010.
[7] A. Mehler-Bicher, M. Reiß, und L. Steiger, Augmented Reality: Theorie und Praxis. Oldenbourg Wissenschaftsverlag, 2011.
[8] F. Zhou, H.-L. Duh, und M. Billinghurst, “Trends in Augmented Reality Tracking, Interaction
and Display: A Review of Ten Years of ISMAR,” in Mixed and Augmented Reality, 2008.
ISMAR 2008. 7th IEEE/ACM International Symposium on, Seiten 193–202, Sept 2008.
[9] H. Kato und M. Billinghurst, “Marker Tracking and HMD Calibration for a Video-Based
Augmented Reality Conferencing System,” in Proceedings of the 2Nd IEEE and ACM International Workshop on Augmented Reality, IWAR ’99, (Washington, DC, USA), Seiten 85–94,
IEEE Computer Society, 1999.
39
LITERATURVERZEICHNIS
40
[10] G. Reitmayr und T. Drummond, “Going Out: Robust Tracking for Outdoor Augmented
Reality.,” in ISMAR, Seiten 109–118, IEEE, 2006.
[11] J. P. Rolland, Y. Baillot, und A. A. Goon, “A Survey of Tracking Technology for Virtual
Environments,” 2001.
[12] R. T. Azuma, B. R. Hoff, H. E. N. Iii, R. Sarfaty, M. J. Daily, G. Bishop, V. Chi, G. Welch,
U. Neumann, S. You, R. Nichols, und J. Cannon, “Making Augmented Reality Work Outdoors
Requires Hybrid Tracking,” 1998.
[13] R. Souzaki, S. Ieiri, M. Uemura, K. Ohuchida, M. Tomikawa, Y. Kinoshita, Y. Koga, A. Suminoe, K. Kohashi, Y. Oda, T. Hara, M. Hashizume, und T. Taguchi, “An augmented
reality navigation system for pediatric oncologic surgery based on preoperative CT and MRI
images.,” J Pediatr Surg, Band 48, Nr. 12, Seiten 2479–83, 2013.
[14] G. Reitmayr und D. Schmalstieg, “Location Based Applications for Mobile Augmented Reality,” in Proceedings of the Fourth Australasian User Interface Conference on User Interfaces
2003 - Volume 18, AUIC ’03, (Darlinghurst, Australia, Australia), Seiten 65–73, Australian
Computer Society, Inc., 2003.
[15] Nilsen, Trond and Linton, Steven and Looser, Julian, “Motivations for Augmented Reality
Gaming,” in FUSE 04, New Zealand Game Developers Conference, Band 4, Seiten 86–93,
2004.
[16] C. B. Stapleton, C. E. Hughes, J. M. Moshell, P. Micikevicius, und M. Altman, “Applying
Mixed Reality to Entertainment.,” IEEE Computer, Band 35, Nr. 12, Seiten 122–124, 2002.
[17] M. A. Livingston, L. J. Rosenblum, S. J. Julier, D. Brown, Y. Baillot, E. Swan, J. L. Gabbard,
und D. Hix, “An Augmented Reality System For Military Operations in Urban Terrain,” in
The Interservice/Industry Training, Simulation & Education Conference (I/ITSEC), 2002.
[18] A. Wegerich, Nutzergerechte Informationsvisualisierung für Augmented Reality Anzeigen.
PhD thesis, TU Berlin, 2012.
[19] S. Feiner, B. MacIntyre, T. Höllerer, und A. Webster, “A Touring Machine: Prototyping
3D Mobile Augmented Reality Systems for Exploring the Urban Environment.,” in ISWC,
Seiten 74–81, IEEE Computer Society, 1997.
[20] Z. Yovcheva, D. Buhalis, C. Gatzidis, und C. van Elzakker, “Proposing a design framework for
smartphone AR browsers used in unfamiliar urban tourism destinations,” Augmented Reality
MobileHCI 2013 workshop, 2013.
Was this manual useful for you? yes no
Thank you for your participation!

* Your assessment is very important for improving the work of artificial intelligence, which forms the content of this project

Download PDF

advertising