Summary In this paper, we focus on the accuracy of optical indoor positioning and the design of an automated and mobile positioning system based on pictures taken by a cell phone camera. We restrict ourselves to automated relative pose estimation given only one image including the projection of an object with four reference points with known image and world coordinates. To infer the relative pose from the image coordinates of the reference points, we first have to detect and classify an object, afterwards localize the image coordinates, and finally apply spatial resection. We show, that if an object is correctly classified, then the quality of the positioning heavily depends on the accuracy of the localization of the image coordinates and on the choice of the spatial resection algorithm. To this end, we compare three different spatial resection algorithms and present two combinations of object classification and image coordinate localization techniques using doors as known objects. Statistical evaluations are provided to judge the different classification methods in terms of robustness and to present the accuracy of the image coordinate localization techniques. Zusammenfassung Im folgenden Beitrag wird die Genauigkeit optischer IndoorPositionierungssysteme in Abhangigkeit von Bildmessdaten analysiert und die Umsetzung automatisierter Klassifikationsund Detektionsverfahren fur ein mobiles, bildbasiertes Indoor Positionierungssystem, realisiert durch eine Handykamera, vorgestellt. Die Positionsbestimmung erfolgt in diesem Fall anhand einer Einzelbildaufnahme, welche die Projektion eines Objektes mit vier Referenzpunkten enthalt. Die Referenzpunkte besitzen dabei bekannte Objektkoordinaten. Um die Position der Kamera relativ zum Objekt zu erhalten, muss das Objekt zuerst detektiert und klassifiziert werden. Danach mussen die Bildkoordinaten extrahiert werden, um anschliesend den raumlichen Ruckwartsschnitt zur Positionsbestimmung anwenden zu konnen. Wenn ein Objekt korrekt klassifiziert wird, hangt die Qualitat der Position zu einem grosen Teil von der Genauigkeit der extrahierten Bildkoordinaten und des verwendeten Algorithmus zur Losung des Ruckwartsschnitts ab. Daher werden drei Ansatze zur Bestimmung des raumlichen Ruckwartsschnitts verglichen und zwei Verfahren zur Klassifikation georeferenzierter Turen und die Extraktion der Bild koordinaten der Tureckpunkte vorgestellt. Anhand statistischer Untersuchungen werden die beiden Klassifikationsverfahren bezuglich ihrer Robustheit miteinander verglichen und die Genauigkeit der Extraktion der Bildkoordinaten aufgezeigt.
[1]
Dieter Schmalstieg,et al.
Indoor Positioning and Navigation with Camera Phones
,
2009,
IEEE Pervasive Computing.
[2]
Mark Fiala,et al.
Comparing ARTag and ARToolkit Plus fiducial marker systems
,
2005,
IEEE International Workshop on Haptic Audio Visual Environments and their Applications.
[3]
Hans-Gerd Maas,et al.
Entwurf und Erkennung von codierten Zielmarken
,
1997
.
[4]
Robert M. Haralick,et al.
Analysis and solutions of the three point perspective pose estimation problem
,
1991,
Proceedings. 1991 IEEE Computer Society Conference on Computer Vision and Pattern Recognition.
[5]
Shigeo Abe DrEng.
Pattern Classification
,
2001,
Springer London.
[6]
David G. Stork,et al.
Pattern Classification
,
1973
.
[7]
Wilhelm Burger,et al.
Digitale Bildverarbeitung: Eine Einführung mit Java und ImageJ (eXamen.press)
,
2005
.
[8]
Stefano Soatto,et al.
Visual-inertial navigation, mapping and localization: A scalable real-time causal approach
,
2011,
Int. J. Robotics Res..
[9]
Gaetano Borriello,et al.
Positioning and Orientation in Indoor Environments Using Camera Phones
,
2008,
IEEE Computer Graphics and Applications.
[10]
Thomas Luhmann,et al.
Nahbereichsphotogrammetrie : Grundlagen, Methoden und Anwendungen
,
2000
.
[11]
Ming-Kuei Hu,et al.
Visual pattern recognition by moment invariants
,
1962,
IRE Trans. Inf. Theory.