News

Philosys Label Editor Version 5 - Snapshot

Unterschleißheim, 29.05.2015 - Philosys Label Editor Version 5.0 - Snapshot.

Philosys stellt einen ersten Snapshot des der Version 5 zur Verfügung. Diese Version enthält gegenüber der Version 4 wieder eine ganze Reihe neuer Features, insbesondere auch zur besseren Unterstützung des 3D-Labelings.

Die durch ADAS und autonome Fahrzeuge zu erfassende Umgebungen werden immer komplexer und erfordern es deshalb das komplette Umfeld eines Fahrzeugs zu erfassen. Dazu reicht die herkömmliche Methode mit Markierung der Objekte auf einem Videobild nicht mehr aus und ist auch viel zu aufwändig. Deshalb wurde der Philosys Label Editor so erweitert, dass vom Annotator mit Hilfe von Referenzdatenquellen Objekte neu erzeugt, oder auch  bereits vor generierte Objekte bestätigt oder modifiziert werden können.

Schon in Version 4 unterstützt der Philosys Label Editor die 3D Annotation. Mit Version 5 sind noch einige Erweiterungen und Verbesserungen hinzugekommen.

Neue Features und Verbesserungen im Video3D Provider

  • Unterstützung der ADTF 3DSceneDisplay Mixin-Schnittstelle
  • Mesh Objekt

Mixin-Schnittstelle

Eine ganze Reihe von Kunden haben schon Software für die 3D-Darstellung zusammen mit dem ADTF 3DSceneDisplay entwickelt und möchten die gleiche Darstellung auch im Philosys Label Editor nutzen. Dies war bisher nur sehr eingeschränkt durch Rendering der 3D-Scene als Videobild möglich.  Für das ADTF 3DSceneDisplay werden sogenannte Mixins benutzt um Daten in einem ADTF Mediasample in einer 3D-Scene in einem Fenster darzustellen. Darüber hinaus kann auch mit dargestellten Objekten interagiert werden. 

Für LEV5 wurde jetzt eine weitgehend kompatible Implementierung der mixin-Schnittstelle implementiert. Vorhandene Mixins können je nach Komplexität einfach ohne oder nur minimalen Änderungen für den LEV5 neu übersetzt und dann für die Darstellung von Daten benutzt werden. Natürlich funktioniert auch der Window Manager weiterhin, so dass man im Gegensatz zum ADTF 3DScenedisplay die Szene gleichzeitig in verschiedenen Fenstern aus verschiedenen Perspektiven betrachten kann.

 

3D Mixin LE Adapter LE Display small

 

Damit ist der Kunde nicht nur in der Lage bereits vorhandene Software ohne großen Aufwand weiter zu nutzten, er hat sogar den Vorteil mehrerer Fenster. Möchte man irgendwelche Daten auch zusammen mit einem Object Detector nutzen, müssen die Daten aber weiterhin auch direkt in LEV5 eingespeist werden.

Damit auch innerhalb von ADTF ohne LEV5 die Vorteile der Darstellung im Video3D Provider genutzt werden können, wurde die 3D-Szenendarstellung des LEV5 in einen getrennten Filter extrahiert. Damit kann das 3DSceneDisplay weitgehend ersetzt werden. Der Mixin Adaper Filter für den Standalone-Betrieb kann separat lizenziert werden.

 

3D Mixin LE Adapter Standalone small

 

Mesh Objekt

Dieses Objekt wurde speziell für das Labeln von vernetzten Strukturen implementiert. Ein typischer Anwendungsfall sind nebeneinander liegende Parkplätze um Parkassistenzsystem zu validieren. Das folgende Bild zeigt einen typischen Supermarktparkplatz:

 

Mesh Parking empty small

Großes Bild

 

Bisher konnten die folgenden Möglichkeiten zur Markierung genutzt werden:

  • Polygon3D als einfache Linie
  • Polygon3D als geschlossenes Polygon mit 4 Punkten
  • Box3D

Obwohl sich die Aufgabe auch mit diesen Objekten lösen lässt ist der Aufwand dazu beträchtlich, da man sehr viele Operationen mit der Maus ausführen muss um die Objekte korrekt zu platzieren. Auch das Setzen von Attributen ist bei gemeinsamen Linien unter Umständen mehrfach nötig. Man braucht das bei Vorhandensein einer Odomety zwar nur einmal pro Szene machen, aber es kostet Zeit und ist fehlerträchtig.

Bei der Entwicklung des Mesh3D Objekts stand die einfache Erzeugung verbunden mit der Minimierung der Benutzeraktionen im Vordergrund. Anstatt irgendeins der oben genannten Objekte komplett an einer bestimmten Position zu erzeugen und es dann den Referenzdaten anzupassen, werden an den relevanten Eck- und Kreuzungspunkten gezielt an der richtigen Position per Mausklick Punkte erzeugt. Die erzeugten Punkte werden dabei automatisch mit Hilfslinien verbunden die Dreiecke bilden. 

 

Mesh Parking Triangles small

 

Die Punkte sind alle im Mesh3D Objekt gespeichert. Die violetten Linien sind nur Hilfslinien und zeigen nur an wo Kanten (edges) erzeugt werden können. Im nächsten Schritt können wiederum durch einfachen Mausklick die relevanten Kanten markiert werden.

 

Mesh Parking Edges small

 

Um jetzt auch noch jede dieser eingeschlossenen Flächen als Polygon zur Verfügung zu haben gibt es einen Befehl diese automatisch zu suchen und zu erzeugen.

 

Mesh Parking Polygons small

 

Auch diesen Flächen können individuelle Eigenschaften zugewiesen werden.

All diese Information ist im Mesh3D Objekt abgespeichert und kann so zur Validierung verwendet werden. Dadurch dass die Darstellung so einfach definiert ist gibt es weitere Möglichkeiten um Erstellung zu optimieren:

  • Automatische Erzeugung regelmäßiger Strukturen mit SubDivide Aktion
  • Automatische Erzeugung mit Hilfe eines Object Detectors
  • Attributeinstellung für viele Punkte, Kanten und Polygone mit einer Aktion

Gerade wenn Parkplätze wie dieser durch sehr gute Referenzdaten markiert ist, kann ein Object Detector eine gute Hilfe bei der Erstellung sein, so dass der Aufwand für den Labler deutlich reduziert wird und Fehlerquellen minimiert werden. Um dies zu evaluieren wurde ein einfacher Algorithmus zur Detection aller Kanten implementiert. Dieser erzeugt aus jeweils einer im Umriss mit wenigen Punkten markierten Parkfläche mit guten Referenzdaten mit wenigen Mausklicks das fertige Mesh3D Objekt.

 

Mesh Parking OD small

Großes Bild

 

Dieses Ergebnis braucht dann nur noch geringfügig angepasst werden und erspart so hunderte von Aktionen durch den Annotator.

Sonstige Änderungen

Es wurde gegenüber LEV4 eine Vielzahl von Detailverbesserungen vor allem in der Bedienung und der Anzeige implementiert. Und natürlich ist er auch schon zu ADTF 2.13 kompatibel.

 

Gerne entwickelt Philosys im Rahmen von kundenfinanzierten Projekten auch weitere neue Features. Bitte melden Sie sich einfach.

Der Philosys Label Editor wird bei der Entwicklung unterschiedlichster Assistenzsysteme (Advanced Driver Assistance System / ADAS) zur Gewinnung von Ground-Truth-Daten eingesetzt. Dabei werden die verschiedensten Objekte markiert und mit detaillierten Attributen versehen (Annotation), angefangen von Fahrzeugen aller Art, Fahrbahnbegrenzungen, Verkehrszeichen, bis hin zu Fußgängern und Wildtieren. Die erfassten Daten werden in HIL/SIL-Tests zur ADAS Validierung/Absicherung der von Fahrerassistenzsystemen erkannten Objekte verwendet.

Normal 0 21 false false false DE X-NONE X-NONE

Ende 2012 wird der neue Philosys Label Editor Version 2 erscheinen. Dieser enthält eine Vielzahl von neuen Features, die nicht nur den Prozess der Annotation beschleunigen, sondern auch neue Anwendungsgebiete erschließen.

  • Integration externer Referenzdaten
  • Interpolation
  • Geometrisches Objekt Polygon
  • Projektmodus

Die folgenden Kapitel geben eine Übersicht über die Funktionalität und Anwendung der neuen Funktionen.

Integration externer Referenzdaten

Zur Validierung komplexerer Assistenzsysteme werden neben der reinen Position des Objektes auf dem Videobild, und einfachen durch den Annotator aus dem Videobild zu bestimmender Attributen, oft auch Daten benötigt, die aus anderen Quellen als dem Videobild kommen. Dies sind neben bestimmten CAN-Daten für das eigene Fahrzeug, oft auch Daten von Sensoren, die nur in den Fahrzeugen für die Aufzeichnung verbaut werden. Dies können unter anderem z. B. objektbildende Laserscanner sein. Diese erkennen wie das zu testende Assistenzsystem ebenfalls Objekte und können eine Reihe von nützlichen Daten, wie die Entfernung zum jeweiligen Objekt, relative Geschwindigkeit, usw., bereitstellen.

Interessant sind hier die Daten die der Annotator nicht so einfach selbst bestimmen kann, wie die Entfernung zum Objekt und dessen relative Geschwindigkeit. Anstatt diese Referenzdaten alle manuell von der Laserscanner Software in die Annotationsdaten zu übernehmen, bietet es sich hier an diese Aufgabe direkt mit Hilfe des Labeleditors zu erledigen.

Notwenig ist dazu dass die Sensordaten zeitsynchron zusammen mit den Videodaten aufgezeichnet werden. Die Umwandlung der Sensordaten in das Format das der Philosys Labeleditor versteht, erfolgt dann mit Hilfe eines neu zu erstellenden Decoder-Filters, der in Filtergraph, der das Video für den Labeleditor aufbereitet, integriert wird. Die Schnittstelle des Labeleditors für externe Referenzdaten ist XML. Diese Daten sind im Prinzip genauso aufgebaut wie das Ergebnis der Annotation, die Labeldaten. Sie müssen auch wie die Labeldaten in der Strukturdatei beschrieben werden.

Wurde die Struktur der externen Referenzdaten beschrieben, und von dem Filter die gewünschten Referenzdaten in dieses Format konvertiert, dann kann der Philosys Labeleditor diese Daten im Detail im ObjectView darstellen. Wenn in den Daten auch geometrische Objekte vorhanden sind, dann werden diese auch im VideoView angezeigt. Es gibt dann einmal die Möglichkeit bestimmte in der Strukturdefinition beschriebene Datenelemente einfach in ein gerade aktives Annotationsobjekt für das aktuelle Frame zu übernehmen. Oder aber man kann einen Link zwischen Referenzobjekt und Annotationsobjekt herstellen, womit dann die entsprechenden Datenelemente für alle Frames in denen das Referenzobjekt und das Annotationsobjekt existieren, übernommen werden. Dies reduziert den Aufwand für die Übernahme erheblich. Das Feature funktioniert auch zusammen mit der Interpolation. Existieren Referenzdaten zu einem interpolierten Frame so werden die Referenzdaten verwendet, so dass die Genauigkeit der Referenzdaten erhalten bleibt.

Dieses neue Feature ist der Einstig in die 3D-Annotation für Videodaten mit dem Philosys Labeleditor. Dabei kann so wie bisher das jeweilige Objekt vom Annotator auf dem Bild markiert, zusätzlich können aber noch die Entfernung und andere relevante Daten mit Hilfe der Referenzdaten automatisch gesetzt werden.

Durch die offene Schnittstelle kann der Kunde den nötigen Filter für die Wandlung der Referenzdaten in XML selbst implementieren. Er kann aber auch die Erfahrung von Philosys nutzen und den Decoder-Filter von Philosys erstellen lassen.

Interpolation

Das Annotieren ist ein zeitaufwendiger Prozess. Der Zeitaufwand pro Videominute kann je nach Komplexität mehr als das Hundertfache der Videolaufzeit betragen. Durch das Feature vorhandene Daten jeweils in das nächste Bild zu übernehmen, und die Position geometrischer Objekte dabei auch noch zu Extrapolieren, beschleunigt schon der bisherige Philosys Label Editor das Annotieren gegenüber herkömmlichen Verfahren erheblich.

Durch das neue Feature Interpolation wird die Annotationszeit jetzt in Fällen, wo Objekte sich über viele Frames hinweg kaum in ihrer Position verändern, nochmal deutlich verkürzt. Man markiert wie gewohnt am Anfang der Sichtbarkeit das Objekt auf dem Videobild mit einem beliebigen geometrischen Objekt, und setzt dieses über das per rechten Mausklick erscheinende Kontextmenü als Startbild für die Interpolation. Dann geht man zu dem Bild, an dem man das Objekt normalerweise zuletzt markieren würde, markiert dieses und setzt dieses als Endbild für die Interpolation. Jetzt wird für alle Bilder zwischen Start- und Endbild das geometrische Objekt interpoliert. Die anderen Attribute werden automatisch vom Zustand im Startbild übernommen. Gibt es im interpolierten Bereich eine Abweichung, so kann man an der entsprechenden Position einfach durch anklicken und Repositionierung des interpolierten geometrischen Objektes einen neuen Stützpunkt erzeugen. Die Interpolation wird dann automatisch vor und hinter dem Stützpunkt neu berechnet. Idealerweise setzt man einen neuen Stützpunkt dort wo die Abweichung am größten ist. In vielen Fällen reichen dann wenige Stützpunkte für eine hinreichend genaue Übereinstimmung aus.

Derzeit wird linear interpoliert, das kann aber erweitert werden. Denkbar ist auch eine zukünftige Erweiterung mit einem Tracker.

Als Nebeneffekt reduziert sich auch der Hauptspeicherbedarf bei Szenen mit langer Objektsichtbarkeit deutlich. Natürlich werden zur Gewährleistung der Kompatibilität in der Toolkette wie bisher die Daten für alle Bilder geschrieben.

Geometrisches Objekt Polygon

Um auch unregelmäßige Objekte effizient markieren zu können, wird der Philosys Label Editor um das neue geometrische Objekt Polygon erweitert. Das Polygon wird wie die anderen geometrischen Objekte am einfachsten mit der Maus erstellt. Es gibt dabei die Möglichkeit sowohl einen offenen Linienzug oder ein geschlossenes Polygon zu erzeugen. Der Typ kann auch nachträglich geändert werden.

Wie gewohnt kann man das Polygon über das mit der rechten Maustaste erscheinende Kontextmenü in der in der Struktur-XML vordefinierten Form an der Mausposition erzeugen. Danach kann man durch Neupositionierung der Maus und der linken Maustaste weitere Linien an ein offenes Polygon anhängen. Man kann auf Linien weitere Eckpunkte einfügen und natürlich Punkte, Linien und das gesamte Polygon verschieben. Natürlich funktioniert mit dem Polygon auch die hilfreiche Extrapolation beim automatischen Übertrag von einem Bild zum Nächsten.

Mit dem Polygon kann man nicht nur unregelmäßige Objekte markieren, sondern mit seiner offenen Form auch als Linienzug nutzen. Damit ist es z. B. auch möglich Spuren genauer und einfacher zu markieren.

Projektmodus

Der Projektmodus erlaubt es die für die Annotation nötigen Dateien mit einem Befehl zu laden. Dazu packt man den Filtergraph, die Strukturdatei, die DAT-Datei und die Annotationsdatei in ein Verzeichnis. Die Generierung des Inhalts kann dann durch ein entsprechendes Szenenmanagement-system geschehen.

Damit ist es jetzt einfach möglich ohne komplizierte Namenstransformationen mit mehreren Kameras aufgezeichnete Szenen für verschiedene Projekte individuell zu annotieren. Zu dem erleichtert es die Arbeit der Annotatoren und vermeidet fehlerhafte Namen beim Abspeichern der Daten.

 

Der Philosys Label Editor wird bei der Entwicklung unterschiedlichster Assistenzsysteme zur Gewinnung von Ground-Truth-Daten eingesetzt. Dabei werden die verschiedensten Objekte markiert und mit detaillierten Attributen versehen. Angefangen von Fahrzeugen aller Art, Fahrbahnbegrenzungen, Verkehrszeichen, bis hin zu Fußgängern und Wildtieren. Die erfassten Daten werden anschließend zur Verifizierung der von Assistenzsystemen erkannten Objekte verwendet.