Veröffentliche auch du deine Arbeit – es ist ganz einfach!
Mehr InfosBachelorarbeit, 2011, 65 Seiten
Bachelorarbeit
2
Abbildungsverzeichnis
Abkürzungsverzeichnis
1. Einleitung
2. Definition und Entwicklung von Augmented Reality
2.1 Defintion und Abgrenzung von der Augmented Virtuality
2.2 Entstehungsgeschichte und Entwicklung
2.3 Nutzen von Augmented Reality
3. Architektur und Funktionsweise von Augmented Reality
3.1 Aufbau eines Augmented Reality-Systems
3.1.1 Tracking
3.1.1.1 Trackingverfahren
3.1.2 Darstellung
3.1.2.1 Head-Mounted Display
3.1.2.2 Head-Up Display
3.1.2.3 Kontaktlinse
3.1.2.4 Mobile Geräte
3.1.3 Software
4. Anwendungsszenarien von Augmented Reality
4.1 Anwendungsgebiete
4.1.1 Industrie
4.1.2 Service und Sicherheit
4.1.3 Forschung und Entwicklung
4.1.4 Medizin
4.1.5 Edutainment
4.1.6 Marketing
4.2 Bewertung der Anwendungen und Anwendungsbereiche
4.3 Auf Augmented Reality basierende Geschäftsmodelle
5. Fazit
5.1 Kritische Prognose und Zukunftstrends
Literaturverzeichnis
Abbildung 1: Mixed Reality
Abbildung 2: Virtuelle und reale Objekte in einem Raum
Abbildung 3: Funktionsweise des Markertrackings
Abbildung 4: Head-Mounted Display
Abbildung 5: HUD
Abbildung 6: AR Kontaktlinse
Abbildung 7: App GeoTravel
Abbildung 8: Lego AR-System
Abbildung 9: Adidas AR-Schuhe
Abbildung 10: Beurteilung - Teil 1
Abbildung 11: Beurteilung - Teil 2
Abbildung 12: Gartner Hype Cylce 2010
Abbildung in dieser Leseprobe nicht enthalten
Das Denken in zwei Richtungen macht einen Wirtschaftsinformatiker aus, ein Verständnis für die Anforderungen der Informatik und der Betriebswirtschaftslehre. Ebenso muss ein Wirtschaftsinformatiker mit den aktuellen Trends in beiden Fachgebieten vertraut und über die neusten Technologien stets informiert sein.
Basierend auf den Anforderungen an einen Wirtschaftsinformatiker habe ich mir das Thema „Anwendungsszenarien von Augmented Reality“ für meine Bachelorthesis ausgesucht. Ich habe versucht ein Thema zu finden, das beide Fachgebiete abdeckt und trotzdem nicht veraltet ist. Da ich privat auch sehr an neuen Technologien und Trends im IT- und Wirtschaftsbereich interessiert bin, habe ich gleich das Potenzial von Augmented Reality erkannt. Um mehr über das Thema zu erfahren, den technologischen Aufbau sowie den wirtschaftlichen Nutzen und die Anwendungsgebiete dieser noch relativ unbekannten Technologie, entschloss ich mich, meine Bachelorthesis über dieses Thema zu schreiben.
Das Ziel dieser Arbeit ist nicht nur die technische Funktionsweise und die Komponenten im Detail zu erläutern, sondern, nach einem kleinen Einstieg in die Entwicklung und den Aufbau der Technologie, die Anwendungsfälle zu erklären, in denen Augmented Reality zum Einsatz kommt. Hierbei soll besonders auf den wirtschaftlichen Nutzen eingegangen werden.
In diesem Kapitel soll kurz auf die „Mixed Reality“ und in diesem Zusammenhang auf die Abgrenzung der Augmented Reality von der Augmented Virtuality eingegangen werden. Ebenso möchte ich anhand zahlreicher Quellen die wichtigsten Ereignisse in der Entstehung des Begriffs „Augmented Reality“ bis heute darstellen.
„Ich sehe etwas, was du nicht siehst!“, mit diesem Satz könnte man grob Augmented Reality beschreiben.
Augmented Reality ist ein Teil der Mixed Reality, also der gemischten Realität. Die Mixed Reality (MR) besteht aus der Augmented Reality (AR) und der Augmented Virtuality (AV). Ob es sich um eine Anwendung der Augmented Reality oder der Augmented Virtuality handelt, bestimmt der Grad des realen oder virtuellen Umfeldes im Reality-Virtuality-Kontinuum.[1] Folgendes Bild soll dieses veranschaulichen:
Quelle: Milgram, S. 283
Auf dem Bild ist zu erkennen, dass Augmented Reality im Gegensatz zu Augmented Virtuality sehr Nahe am realen Umfeld liegt, was auch den größten Unterschied zwischen den beiden Technologien ausmacht.
Für Augmented Reality, zu deutsch „erweiterte Realität“, gibt es keine konkrete Definition. Aber eine häufig genannte Definition ist die von R. Azuma, der 1997 in seinem Buch „A Survey of Augmented Reality“ schrieb, dass die erweiterte Realität im Gegensatz zur virtuellen Realität nicht komplett eine virtuelle Welt nachbaut, sondern dem Benutzer erlaubt, die reale Welt um virtuelle Informationen erweitert zu sehen. Hierbei wird die reale Welt vielmehr ergänzt als komplett ersetzt.
Azuma sagt ebenfalls in seinem Buch, dass folgende Bedingungen für Augmented Reality gegeben sein müssen:
1. sie muss Reales und Virtuelles kombinieren,
2. muss die Interaktivität in Echtzeit erfolgen,
3. dreidimensionaler Bezug von virtuellen und realen Objekten.
Interaktivität in Echtzeit bedeutet, dass nicht, wie in einigen Kinofilmen, eine Szene aufgenommen wird und später am Computer virtuelle Daten hinzugefügt werden, sondern zum Zeitpunkt der Anwendung mit minimalen Verzögerungen virtuelle Daten erscheinen.
Abbildung in dieser Leseprobe nicht enthalten
Quelle: http://www.cs.unc.edu/~azuma/ARpresence.pdf
Ebenso schreibt Azuma, dass es dem Benutzer im Idealfall so erscheinen soll, das virtuelle und reale Objekte gleichzeitig in einem Raum existieren. Ein Beispiel zeigt Abbildung 2. Auf dem Foto ist ein realer Raum mit einem realen Schreibtisch und Telefon zu sehen, virtuell erweitert um eine Tischlampe und zwei Stühle.[2]
„ Ein Überlagern eines Objekts mit Textinformationen liefert in der Regel nur einen zweidimensionalen Bezug. In solchen Fällen sprechen wir von AR im weiteren Sinne, sind hingegen alle drei Charakteristika [laut Azuma] von Augmented Reality gegeben, von AR im engeren Sinne. “[3]
Augmented Reality ist also durch die Darstellung von virtuellen Informationen bzw. Objekten gekennzeichnet. Manchmal ist es jedoch sinnvoller, nur zweidimensionale Textinformationen mit der Realität zu verknüpfen, anstatt komplexe dreidimensionale Objekte, zum Beispiel um auf leistungsschwachen Endgeräten Performance zu sparen.
Genaue Jahreszahlen zur Entstehung von ersten Augmented Reality-Systemen sind schwer zu belegen. Ebenso sind viele Ereignisse wenig relevant für die Entwicklung gewesen, weswegen ich nur auf die wichtigsten Ereignisse eingehen möchte.
Die Idee, die Realität mit virtuellen Informationen anzureichern, muss aus den 60er Jahren stammen, hierzu kann Bezug genommen werden auf das Werk „The Ultimate Display“ von Ivan E. Sutherland, indem er 1965 auf verschiedene Interaktionen mit Personal Computern eingeht und besagt, dass es möglich sein könnte, das menschliche Wahrnehmungsbild mit virtuellen Informationen zu erweitern.[4] Sutherland entwickelte anschließend das erste Head-Mounted-Display (HMD), welches erstmals in der Luftfahrt eingesetzt wurde, speziell für das Militär.
1990 prägt Tom Caudell bei Kabelverlegungsarbeiten in Flugzeugen bei Boing den Begriff Augmented Reality, als er von Boing beauftragt wurde, in einer Fabrik in Everett, Washington, zu analysieren, welche Virtual Reality Anwendungen es für das Flugzeugdesign und die Flugzeugherstellung gibt. Infolge dieser Aufgabe prägte sich der Begriff Augmented Reality und die Abgrenzung zur Virtual Reality.[5]
1994 entwickelte sich aus einem Projekt an der Columbia University das „knowledge-based augmented reality for maintenance assitance“ kurz KARMA, welches dazu fähig war, durch ein halbtransparentes Head-Mounted-Display Reparaturarbeiten mit Hilfe zusätzlicher virtueller Informationen zu unterstützen.[6]
Mit der Entwicklung des AR Toolkit 1999 von Hirokazo Kato entstand die erste Open Source Software in der Geschichte der erweiterten Realität und kann als einer der größten Meilensteine in der AR angesehen werden.[7]
Zur Entwicklung von Augmented Reality Ende der 90er Jahre in Deutschland ist das ARVIKA Projekt zu nennen, welches sich seit 1999 mit dem Thema Augmented Reality und dessen Einsatz in Produktion, Entwicklung und Technik beschäftigt. Teil dieses Projektes sind viele große Unternehmen wie Audi, Airbus und Siemens, um nur einige zu nennen.[8]
Aus dem ARVIKA Projekt bildete sich der Zusammenschluss ISAR. 2002 erfolgte eine Kooperation mit einer ungefähr zeitgleich entstandenen Community namens ISMR, wodurch das ISMAR (International Symposium on Mixed and Augmented Reality) entstand. Dieser Zusammenschluss hält nun jährlich eine große Versammlung zum Thema Augmented Reality ab und gilt als unverzichtbar für die Entwicklung dieser Technologie.[9]
2008 entstand der erste sogenannte AR-Browser Wikitude, welche Anfangs auf Android Smartphones lief und mittlerweile auf allen gängigen Smartphone Betriebssystemen vertreten ist. 2009 brachte die Firma das erste Augmented Reality gestützte Navigationssystem heraus.[10]
Als letztes zur Entwicklung von AR ist eine 2009 entstandene Erweiterung des ARToolkit zu nennen, mit der es nun möglich ist, Daten aus dem ARToolkit in Adobe Flash zu importieren um die Anwendungen auch leicht auf Webseiten nutzen zu können.[11]
Der Einsatz von Augmented Reality Technologien ist überall dort sinnvoll, wo viele zusätzliche Daten benötigt werden. Vor allem in der Industrie und Wirtschaft lassen sich viele positive Auswirkungen mit der erweiterten Realität schaffen. Mit AR können Informationen schneller und zielgerichteter dargestellt werden, immer dann, wenn es gerade benötigt wird und auch mal keine Hand zur Interaktion verfügbar ist, zum Beispiel durch Sprachsteuerung. Dadurch lassen sich Arbeitsprozesse beschleunigen und Fehlerquoten verringern bzw. die Qualität verbessern. Wenn viele Informationen für eine spezielle Maschine benötigt werden, könnte man diese mit einem Augmented Reality System und einem HMD darstellen und muss so nicht seinem Blick abwenden, um in ein Handbuch zu schauen, in dem das Suchen lange dauert. Die erweiterte Realitätswahrnehmung kann zur Unterstützung komplexer Aufgaben beispielsweise einer schwierigen Operation in der Chirurgie helfen oder im Produktionsprozess in der Automobilindustrie (Beispiele hierzu im Kapitel 4 – Anwendungsszenarien von Augmented Reality).[12]
Sie ist auch in der Lage unser alltägliches Leben zu vereinfachen. Es gibt schon zahlreiche Applikationen für Smartphones, die uns als Stadtführer dienen und uns unbekannte Sehenswürdigkeiten erklären, anzeigen wo sich der nächste Schnellimbiss oder die nächste Tankstelle befindet, bei der Wohnungssuche helfen, erklären, welche Sternbilder wir am Himmel über uns sehen oder uns unterhalten und virtuelle UFO´s mit dem Smartphone jagen lassen.
Augmented Reality ist längst nicht mehr Science Fiction aus dem Kino oder eine streng geheime Technologie des Militär. Diese Technologie umgibt uns überall, man sieht es nur meist nicht auf dem ersten Blick.
In diesem Kapitel möchte ich den Aufbau von Augmented Reality Systemen erklären, ohne unnötig tief in die Materie einzudringen. Ein AR-System besteht aus mehreren Komponenten, die durch ihr Zusammenspiel die erweiterte Realität bilden.
Die einzelnen Komponenten eines Augmented Reality-Systems wiederum lassen sich in drei Bereiche einteilen, in denen sie sich jedoch von der Art und Weise unterscheiden können. Die drei Bereiche, welche zur Erzeugung punktgenauer virtueller Objekte benötigt werden, sind Tracking, Darstellung und die AR-Software.
Das Tracking spielt in einem AR-System eine der wichtigsten Rollen, denn nur durch das punktgenaue Tracking weiß das System, an welchen Punkten die virtuellen Objekte erscheinen sollen. Hierbei sind der Standpunkt des Betrachters, wichtige Objekte in der Umgebung sowie der Ort, an dem sich das AR-System befindet, wichtig. Beim Tracking werden zuerst Lagepunkte in der realen Welt bestimmt, um diese dann mit den virtuellen Objekten zu verknüpfen. Um dies zu realisieren, gibt es verschiedene Trackingverfahren, welche unterschiedliche Technologien und Ansätze zur Lösung verwenden. Je nach Art und Ziel des des Systems der erweiterten Realitätswahrnehmung, werden diverse Verfahren angewendet, welche ich nachfolgend kurz erklären möchte.
"Grundsätzlich können zwei verschiedene Verfahren unterschieden werden:
Nichtvisuelles und visuelles Tracking."[13]
Markus Tönnis, welcher ebenfalls ein Buch zum Thema Augmented Reality schrieb, sieht dies genauso, jedoch bezeichnet er das visuelle Tracking als optisches Tracking und das nichtvisuelle Tracking als Intertialtracking. Darüber hinaus nennt Markus Tönnis noch einige Trackingverfahren, wie magnetisches Tracking, laufzeitbasiertes Tracking und mechanisches Tracking.
Das laufzeitbasierte Tracking ist eines der am meisten verwendeten Trackingverfahren im Alltag. Das wohl bekannteste unter diesen Verfahren ist das Global Positioning System (GPS), welches zur Navigation in Kraftfahrzeugen oder zur Positionsbestimmung von Personen und Gegenständen dient. Schwächen sind hier, dass aufgrund der Beschaffenheit des GPS nicht alle Bereiche zur Positionsbestimmung geeignet sind, da die Sender des Signals Satelliten im Weltall sind. In Parkhäusern, innerhalb von Gebäuden oder in Häuserschluchten funktioniert die Positionsbestimmung nicht bzw. nicht korrekt. Durch verschiedene Systeme wird versucht, dieses Problem zu lösen. Eine zuverlässige Lösung ist jedoch noch nicht vorhanden.[14]
Nichtvisuelles Tracking
Als nichtvisuelle Trackingverfahren werden alle Verfahren bezeichnet, die zur Lage und Positionsbestimmung keine Videokamera nutzen:
„ Zu den nichtvisuellen Trackingverfahren zählen z.B.
- Kompass
Über das Magnetische Feld der Erde wird die Ausrichtung relativ zu den Erdachsen bestimmt.
- GPS
Durch ein satellitenbasiertes Ortungssystem wird die Postion des Empfängergerätes (z.B. Mobiltelefon) errechnet.
- Ultraschallsensoren
Hier wird durch die Messung der Laufzeit von Ultraschallwellen zwischen mehreren Sendern und Empfängern der Abstand und somit die Postion zueinander ermittelt.
- Optische Sensoren
Die Messung des Abstands zwischen mehreren Sendern und Empfängern erfolgt über optische Sensoren.
- Trägheitssensoren
Über verschiedene Arten trägheitsempfindlicher Sensoren wird sowohl die Neigung (Gyroskop) als auch die Bewegung entlang einer geraden Achse (Beschleunigungssensor) gemessen.“[15]
Visuelles Tracking
"Visuelles Tracking wird in der Regel mit einer Videokamera realisiert; hierzu existieren zwei Varianten:
- Die Kamera ist am Kopf des Betrachters montiert (head-mounted) und der Tracker berechnet die Kopfposition des Betrachters.
- Alternativ kann die Kamera auch fest montiert sein wie z.B. die Webcam am Rechner und der Tracker berechnet mithilfe von Bildverarbeitungsroutinen die Position der realen Objekte. So lassen sich sowohl Position der Kamera relativ zur Szene als auch die Postion und Ausrichtung darin platzierter Objekte berechnen."[16]
Ebenso gibt es Mischverfahren, die die Vorteile der einzelnen Sensoren für sich nutzen, diese nennen sich Hybrid Tracking-System. Zu erwähnen wäre hierbei das Tracking für Augmented Realitity Systeme bei Smartphones. Diese Nutzen das nichtvisuelle Tracking durch GPS und bei manchen Smartphones auch das Gyroskop, sowie das visuelle Tracking über die Videokamera.
"Die visuellen Tracking-Systeme lassen sich in zwei Kategorien aufteilen:
- Merkmalsbasierende Systeme
Der Tracker erkennt innerhalb des Videobildes zweidimensionale Punkte und errechnet daraus die Kameraposition
- Modellbasierende Systeme
Dem Tracker ist ein Referenzmodell bekannt; durch einen Abgleich mit dem Videobild wird die Position berechnet."[17]
Die merkmalsbasierenden Systeme werden zur Zeit am häufigsten eingesetzt. Ein Grund dafür sind die begrenzte Rechenleistung von populären Einsatzgeräten, wie z.B. Smartphones. Die verwendeten künstlichen Marker müssen sich klar durch ihre Form und Gegebenheit vom Gesamtbild abheben, um von der Videokamera schnell und genau erkannt zu werden. Im Zusammenhang mit den Markern werden die virtuellen Informationen festgelegt, welche mit der Erkennung des Markers angezeigt werden sollen, hierzu müssen diese eindeutig voneinander zu unterscheiden sein.
Abbildung in dieser Leseprobe nicht enthalten
Quelle: http://www.hitl.washington.edu/artoolkit/documentation/history.htm
Anhand der Position des Markers lässt sich der Winkel und die Neigung zur Videokamera bestimmen.
Es gibt verschiedene speziell für die einzelnen Augmented Reality-Systeme entwickelte Marker, welche sich hauptsächlich nur in Form und Darstellung unterscheiden, um eindeutig erkennbar zu sein.
Beim modellbasierten System werden die Bilder der Videokamera mit zuvor im System hinterlegten Modellen abgeglichen. Dies geschieht durch Linien, Kreise und Formen. Beispielweise lässt sich damit ein AR-System realisieren, welches Sehenswürdigkeiten, wie den Berliner Fernsehturm, anhand seiner Form durch das im System hinterlegte Modell erkennt und virtuelle Informationen auf dem Display wiedergibt. Zu den modellbasierten Systemen gehört auch das „Facetracking“, welches Gesichter anhand ihrer Merkmale erkennt.
Im Gegensatz zum merkmalsbasierten System erfordert das modellbasierte System mehr Rechenleistung und ist durch das teilweise schwierige Erkennen von Modellen mehr mit Fehlern in diesem Prozess belastet. Deswegen eignet es sich oftmals besser als ein modellbasiertes System.[18]
Die Darstellung bei Augmented Reality-Systemen basiert auf zwei Prinzipien: der Überlagerung von virtuellen Daten in die freie Sicht durch Optical See-Through Displays oder durch die Darstellung von virtuellen Daten auf Videobildern durch Video See-Through Displays.
Markus Tönnis beschreibt den Aufbau von Optical See-Through mit seinen Vor- und Nachteilen wie folgt:
„Optical See-Through sind Displays, die den direkten Blick auf die umgebende Welt ermöglichen und ein Computerdisplay durch einen halbdurchlässigen Spiegel, einen sog. „Combiner“, in das Sichtfeld einblenden. Der Vorteil dieser Art von Displays liegt in der Erhaltung der direkten Sicht auf die Umgebung. Nachteilig ist die zeitliche Verzögerung in der Darstellung der computergenerierten virtuellen Objekte. Während die Sicht auf die Umgebung bei jeder Bewegung sofort vom Auge aufgenommen wird, muss für die computergenerierten Objekte zunächst die Bewegung von Sensoren getrackt und die neue Position und Lage berechnet werden. Dieser Vorgang benötigt einige Zeit. Selbst kleine Verzögerungen von Millisekunden erzeugen bereits Schwimmeffekte, das virtuelle Bild hängt dem realen hinterher und scheint zu schwimmen. Im Englischen bezeichnet der Begriff „lag“ diese zeitliche Verzögerung. Weiterhin ist das virtuelle Bild bei Optical See-Through Displays transparent. Durch die halbdurchlässige Einspielung des Computerbildes scheint das reale Umfeld immer durch.“[19]
Zum Video See-Through Display steht folgendes in dem Buch von Markus Tönnis:
„Video See-Through Displays verwenden Videokameras. Das Bild einer Kamera (oder zwei, eine für jedes Auge) wird im Hintergrund des Computerdisplays angezeigt, davor werden die virtuellen Objekte gerendert. Der Vorteil dieser Art von Displays liegt darin, dass der lag und die damit zusammenhängenden Schwimmeffekte kompensiert werden können. Das Kamerabild wird um denselben Zeitraum verzögert, den das Computersystem zur Positions- und Lagebestimmung und zum Rendering (natürlich abzüglicher der Zeit, die notwendig ist, um das Kamerabild zu rendern) benötigt. Allerdings hängt das Gesamtbild den Bewegungen des Benutzers um genau diesen Zeitraum hinterher. Ein weiterer Nachteil dieser Art von Bildfusion ist, dass die Sicht auf die Realität schlechter wird. Je nach Auflösung der Kamera erscheint das Bild der Umgebung in reduzierter Qualität.“[20]
Es lässt sich also heraus lesen, dass jedes Prinzip seine Vorteile und Nachteile hat. Man muss nun bei jedem System abschätzen, welche Darstellungsform am geeignetsten ist.
Anhand der eben erklärten Techniken zur Darstellung kann man die für Augmented Reality verwendeten Displays in folgende Kategorien einteilen: die Head-Mounted Displays, Head-Up Displays, Raum- oder Umgebungsfixierte Displays, Bewegliche Displays und Handheld Displays wie beim Smartphone beispielsweise.[21]
Das Head-Mounted Display ist die klassische Methode zur Darstellung von Augmented Reality. Das HMD kann auf Basis des Optical See-Trough Display mit Hilfe eines sogenannten „Combiners“ (ein schräger durchsichtiger Spiegel) oder auf Basis eines Video See-Trough Display mit Videokameras realisiert werden. Der große Vorteil des HMD ist die Bewegungsfreiheit und das man während eines Prozess den Blick für die Informationen nicht abwenden muss. Nachteilig an einigen Modellen jedoch ist, dass das komplette System am Körper getragen werden muss und dass ein hoher Rechenaufwand nötig ist, um die Daten bei diesem System zu verarbeiten. Ebenso besteht hier, wie oben bei den Optical See-Through Display schon beschrieben, das Problem, dass die virtuellen Objekte verwischen. Genauso bringen Video See-Through Displays den Nachteil mit sich, dass das aufgenommene Bild eine schlechtere Bildqualität besitzt als das reale Erscheinungsbild.
Abbildung in dieser Leseprobe nicht enthalten
Quelle: vrealities.com/z800proar.html
Wie schon im Kapitel zur Entstehung von AR angesprochen, wurde das Head-Up Display für das Militär entwickelt. Hierbei werden die virtuellen Objekte in Sichthöhe des Betrachters auf eine Projektionsfläche übertragen, so sieht der Benutzer ähnlich wie bei dem HMD die reale Welt und die virtuellen Daten, es handelt sich also um ein See-Through Display. Diese Art der Darstellung findet auch immer mehr Verwendung in der Automobilindustrie, doch dazu bei den Anwendungsszenarien später mehr.
Quelle:www.itwissen.info/
Die Vorteile des HUD sind, dass dem Benutzer alle zum Zeitpunkt wichtigen Informationen genau im Sichtfeld angezeigt werden, ohne dass er selber interagieren oder seinen Blick abwenden muss. Schwächen dieser Darstellung sind jedoch, dass der Benutzer aufgrund von zu vielen Informationen abgelenkt werden kann, ebenso ist es technisch sehr aufwändig und gerade in der Automobilindustrie ist noch nicht geklärt, welche rechtlichen Konsequenzen durch Schäden in Folge von Fehlinformationen zu erwarten sind.[22]
Eine auch immer wieder gerne diskutierte Form der Darstellung bei Augmented Reality Systemen sind der Einsatz von Kontaktlinsen, welche in der Lage sind auf Basis der Optical See-Through Technologie virtuelle Objekte darzustellen. Der Wunsch nach einer so kleinen und unauffälligen Lösung ist verständlich, jedoch gar nicht so einfach zu realisieren. Probleme bringt allein schon die Größe und die Art der Stromversorgung mit sich.
Quelle: http://winfwiki.wi-fom.de/index.php/Bild:Ar_kontaktlinse.jpg
[...]
[1] Milgram, S. 283
[2] Azuma, vgl S. 2
[3] AR-TuP, S. 11
[4] Sutherland, S. 506-508
[5] Caudell, S. 477 ff.
[6] NeuZim
[7] ARToolkit
[8] ARVIKA
[9] Tönnis, S. 4
[10] Wikitude
[11] Paper3D
[12] AR-TuP, Kapitel 2.4
[13] AR-TuP, S.27
[14] Tönnis, Kapitel 3
[15] AR-TuP, Kapitel 3.1.1 Seite 28
[16] AR-Tup, Kapitel 3.1.1 Seite 28
[17] AR-Tup, Kapitel 3.1.1 Seite 28
[18] AR-Tup, vgl. Kapitel 3
[19] Tönnis, Kapitel 2.2 Seite 21ff.
[20] Tönnis, Kapitel 2.2 Seite 22
[21] Tönnis, vgl. Kapitel 2.2
[22] AR-TuP, vgl. Kapitel 3.2.4
Kommentare