UnivIS
Informationssystem der Friedrich-Alexander-Universität Erlangen-Nürnberg © Config eG 
FAU Logo
  Sammlung/Stundenplan    Modulbelegung Home  |  Rechtliches  |  Kontakt  |  Hilfe    
Suche:      Semester:   
 Lehr-
veranstaltungen
   Personen/
Einrichtungen
   Räume   Forschungs-
bericht
   Publi-
kationen
   Internat.
Kontakte
   Examens-
arbeiten
   Telefon &
E-Mail
 
 
 Darstellung
 
Druckansicht

 
 
Einrichtungen >> Technische Fakultät (TF) >> Department Informatik (INF) >> Lehrstuhl für Informatik 5 (Mustererkennung) >>
SFB 603, B2: Optimierungsansatz für die Integration von Kamerabildern bei der Klassifikation

Das langfristige Ziel des Teilprojektes B2 des Sonderforschungsbereiches 603 ist die Entwicklung von optimierungsbasierten Verfahren für die Integration von Kamerabildern bei der Klassifikation, Lokalisation und Verfolgung von Objekten. Die Darstellung des Wissens über das System basiert dabei immer auf einem probabilistischen Ansatz, welcher durch die Fusion aller zur Verfügung stehenden Informationsquellen generiert und ständig erneuert wird. Entscheidend für die Güte von Schätzungen bezüglich Objektklasse, -lage und -position ist dabei das aktive Vorgehen bei der Sensordatenakquisition.

In der Vergangenheit wurde der Großteil der Arbeit in die theoretische Optimierung der Methoden zur aktiven Ansichtenauswahl sowie zur aktiven Objektverfolgung investiert. Obwohl identische informationstheoretische Ansätze verwendet werden, wurden diese beiden Bereiche des Teilprojektes B2 hauptsächlich unabhängig voneinander optimiert. Mit der zunehmenden Integration von Objektverfolgung und -klassifikation in ein gemeinsames System ist nun auch der wechselseitige Informationsaustausch und damit die gegenseitige Unsicherheitsreduktion der beiden Teilbereiche ermöglicht worden.

Bezüglich der Ansichtenplanung zur effizienten Objekterkennung wurde erhöhter Wert auf die Handhabung dünn besetzter initialer Objektmodelle, d.h. Datensätzen mit Information über nur wenige Ansichten des Objektes, gelegt. Auf solchen Modellen ist es u.U. nicht sinnvoll, direkt mit der eigentlichen Aufgabe einer zielstrebigen Klassifikation zu beginnen, da die zu Grunde liegenden Daten hinsichtlich einer Klassendiskriminierbarkeit recht unzuverlässig sind. Stattdessen wird das vorhandene Objektmodell durch aktives Lernen, d.h. wiederum aktive Ansichtenauswahl, selektiv erweitert. Anders als bei der klassifikationsspezifischen Strategie zur Ansichtenauswahl wird zur Verbesserung des Modells weder eine Trainingsphase noch eine nur probabilistische Annahme über die Objektklasse und -lage eingesetzt. Vielmehr wird eine optimale Sensorbewegung durch das Ausnutzen von Unsicherheitskriterien über das aktuelle Modellwissen generiert. Entscheidend ist hierbei, dass die Modellverbesserung als Zielfunktion stets die Maximierung der zu erwartenden Klassifikationsrate heranzieht. Um dabei nicht nur die Anzahl der zu beachtenden Objektmerkmale reduzieren, sondern auch deren jeweilige Bedeutung für die Klassendiskriminierbarkeit berücksichtigen zu können, wurden sowohl PCA-transformierte Eigenraummerkmale als auch Wavelet-Merkmale evaluiert.

Ein weiterer Aspekt, der wiederum mit der aktiven Ansichtenauswahl mittels Reinforcement Learning zusammenhängt, ist der Vergleich von Zustandsdichten. Letztere geben eine probabilistische Beschreibung für die Schätzung der aktuellen Kameraparameter relativ zum betrachteten Objekt, sowie dessen Klasse wider. Die vielfache Berechnung der Ähnlichkeit zweier Zustandsdichten, welche durch Partikelmengen repräsentiert werden, ist aufgrund der notwendigen Parzen-Schätzung und der Berechnung des Kullback-Leibler Abstandes sehr zeitaufwändig. Deshalb wurde ein Verfahren entwickelt, welches aufgrund einer Kombination schnell berechenbarer Dichtenparameter, wie etwa dem Schwerpunkt und der Entropie, Dichtenpaare frühzeitig von der detaillierteren Ähnlichkeitsberechnung ausschließen kann. Um weitere Rechenzeit einzusparen, wurden erfolgreich Methoden realisiert, die den Optimierungssuchraum der Sensorbewegung initial einschränken, sowie die Anzahl der zu verwendenden Partikel optimieren.

Die Arbeiten im Teilbereich der aktiven Objektverfolgung wurden fortgeführt. Es wurden nicht nur Kameras mit einer elektrisch verstellbaren Brennweite, sondern zusätzlich auch mit Schwenk-Neige-Einheiten eingesetzt, um den potentiellen Sichtbereich der Kameras zu erhöhen. Dabei konnte die Linearisierung des Sichtbarkeitsbaumes und die Auswertung mittels sequentiellem Kalman Filter an die erweiterte Problematik angepasst werden. Dadurch kann die optimale Aktionsauswahl weiterhin über mehrere Zeitschritte mit einer variablen Kamerazahl und in Echtzeit erfolgen.

Zusätzlich wurde die Verbindung zwischen der Objektverfolgung und der Objekterkennung weiter ausgebaut. In der simultanen Objektverfolgung und Klassifikation wurde einerseits ein Objekt schritthaltend verfolgt und andererseits mit einer geringeren Bildrate seine Klasse und Lage bestimmt. Dabei wurde die Verfolgung mit einem Farbhistogrammabgleich durchgeführt, während die Erkennung über eine Wavelet-Zerlegung oder über den Abgleich mit einem aus einem Lichtfeld generierten Bild erfolgte. Durch die Verfolgung konnte der Suchraum für die Objekterkennung deutlich reduziert werden.

Als neues Thema in der Objektverfolgung wurde die Bestimmung des Sensorrauschens mittels adaptivem Kalman Filter und mehrerer Sensoren (Kameras) untersucht. Das Sensorrauschen bildet einen wichtigen Bestandteil der Aktionswahl mittels Kalman Filter. Die Einbettung der Ergebnisse in die aktive optimale Aktionswahl in der Objektverfolgung steht aber noch aus.

In einer Diplomarbeit wurde die Informationsfusion aus sich bewegenden und statischen Sensoren untersucht. Dabei bewegt sich ein Roboter (in dieser Arbeit vom Typ "Volksbot") durch eine Szene und soll ein vom Benutzer ausgewähltes Objekt erreichen und per Nahaufnahme klassifizieren. Der Roboter verfügt über eine omnidirektionale Kamera, in der das Objekt relativ zum Roboter verfolgt werden kann. Die Szene wird zusätzlich von mehreren statischen Kameras betrachtet, welche die Positionen von Roboter und Objekt (aber nicht die Ausrichtung des Roboters) in einem globalen Koordinatensystem ermitteln. Die Information aus beiden Sensorsystemen wurde fusioniert, um den Roboter zum Ziel zu führen. Wie anzunehmen, ist diese Aufgabe unter Verwendung der roboterinternen omnidirektionalen Kamera unproblematisch. Wird diese Kamera deaktiviert, so konnte alleine durch die statischen, externen Kameras trotzdem ein Heranführen des Roboters an das Objekt erreicht werden. Eines der Hauptprobleme dabei war die Bestimmung der Ausrichtung des Roboters, da diese nicht direkt gemessen werden konnte.

Projektleitung:
Prof. em. Dr.-Ing. Dr.-Ing. h.c. Heinrich Niemann

Beteiligte:
Dipl.-Ing. Christian Derichs, Dipl.-Inf. Benjamin Deutsch

Stichwörter:
Optimierung; Sensordatenfusion; Objektverfolgung; Objektklassifikation

Laufzeit: 1.1.1998 - 31.12.2007

Förderer:
Deutsche Forschungsgemeinschaft

Kontakt:
Deutsch, Benjamin
E-Mail: deutsch@informatik.uni-erlangen.de
Publikationen
Deutsch, Benjamin ; Deinzer, Frank ; Zobel, Matthias ; Denzler, Joachim: Active Sensing Strategies for Robotic Platforms, with an Application in Vision-Based Gripping. In: Araújo, H. ; Vieira, A. ; Braz, J. ; Encarnação, B. ; Carvalho, M. (Hrsg.) : INSTICC (Veranst.) : Proceedings of the 1st International Conference on Informatics in Control, Automation and Robotics (1st International Conference on Informatics in Control, Automation and Robotics Setúbal). Bd. 2. Setúbal, : INSTICC Press, 2004, S. 169–176.
Wenhardt, Stefan ; Deutsch, Benjamin ; Hornegger, Joachim ; Niemann, Heinrich ; Denzler, Joachim: An Information Theoretic Approach for Next Best View Planning in 3-D Reconstruction. In: Tang, Y.Y. ; Wang, S.P. ; Lorette, G. ; Yeung, D.S. ; Yan, H. (Hrsg.) : The 18th International Conference on Pattern Recognition (18th International Conference on Pattern Recognition (ICPR 2006) Hong Kong 20 - 24 August, 2006). Bd. 1. Los Alamitos, California, Washington, Tokyo : IEEE Computer Society, 2006, S. 103-106. (IEEE Computer Society Order Number P2521) - ISBN 0-7695-2521-0
Deinzer, Frank ; Denzler, Joachim ; Derichs, Christian ; Niemann, Heinrich: Aspects of Optimal Viewpoint Selection and Viewpoint Fusion. In: Narayanan, P.J. ; Nayar, Shree K. ; Shum, Heung-Yeung (Hrsg.) : Computer Vision - ACCV 2006 (Asian Conference on Computer Vision 2006 Hyderabad, India 13.-16.1.2006). Bd. 2. Berlin : Springer, 2006, S. 902-912. (Lecture Notes in Computer Science Bd. 3852) - ISBN 3-540-31219-6
Derichs, Christian ; Niemann, Heinrich: Handling Camera Movement Constraints in Reinforcement Learning Based Active Object Recognition. In: Franke, K. ; Müller, K.-R. ; Nickolay, B. ; Schäfer, R. (Hrsg.) : Pattern Recognition - 28th DAGM Symposium (DAGM 2006 - 28th Symposium of the German Association for Pattern Recognition Berlin 12.-14.9.2006). Berlin : Springer, 2006, S. 637-646. (Lecture Notes in Computer Science Bd. 4174) - ISBN 3-540-44412-2
Deinzer, Frank ; Denzler, Joachim ; Derichs, Christian ; Niemann, Heinrich: Integrated Viewpoint Fusion and Viewpoint Selection for Optimal Object Recognition. In: Chanteler, M.J. ; Trucco, E. ; Fisher, R.B. (Hrsg.) : British Machine Vision Conference 2006 (British Machine Vision Conference 2006 Edinburgh 4.-7.9.2006). Bd. 1. Malvern Worcs, UK : BMVA, 2006, S. 287-296. - ISBN 1-904410-14-6
Deutsch, Benjamin ; Wenhardt, Stefan ; Niemann, Heinrich: Multi-Step Multi-Camera View Planning for Real-Time Visual Object Tracking. In: Franke, K. ; Müller, K.-R. ; Nickolay, B. ; Schäfer, R. (Hrsg.) : Pattern Recognition - 28th DAGM Symposium (DAGM 2006 - 28th Symposium of the German Association for Pattern Recognition Berlin 12.-14.9.2006). Berlin Heidelberg : Springer, 2006, S. 536-545. (Lecture Notes in Computer Science Bd. 4174) - ISBN 3-540-44412-2
UnivIS ist ein Produkt der Config eG, Buckenhof