Team-LUX: Hamburger Team tritt bei der DARPA Urban Challenge an

Seite 2: Team-LUX: Hamburger Team tritt bei der DARPA Urban Challenge an

Inhaltsverzeichnis

Multi-Echo-Messung
Wenn das Zielobjekt nur von einem Teil des ausgesendeten Lichtstrahls getroffen wird oder das Objekt lichtdurchlässig ist, zum Beispiel ein Regen- oder Nebeltropfen, misst das System zusätzlich bis zu drei weitere Echos von dahinter liegenden Zielen. Nicht objektbezogene Informationen wie Regen-, Nebel- oder Schneereflexionen werden zwar erfasst, können aber ausgefiltert werden. Die Software ist so in der Lage, Regen oder Schnee zu erkennen und beispielsweise Abstände zu Objekten anzupassen.

Das Gehirn des LUX

Der LUX ist mit zwei Computern mit 1,8-GHz-Prozessoren ausgestattet, die im Kofferraum eingebaut sind. Zwar sind auch die Laserscanner selbst mit eigener Logik ausgestattet; fĂĽr die DARPA entschied sich das Team jedoch fĂĽr die externen CPUs, da diese einfacher zu programmieren sind. Auf den Rechnern ist eine Software installiert, welche die Scan-Daten analysiert und verarbeitet.

Aus Sicht der Software sind die empfangenen Reflexionen „Scan-Punkte“. Jeder einzelne Scan-Punkt wird durch Algorithmen analysiert. Während der Signalverarbeitung bezieht die Software die Scan-Daten aus den verschiedenen Quellen und teilt sie in drei Gruppen auf: Objekte, Boden (einschließlich Fahrspurmarkierungen) und Rauschen (einschließlich Schmutz, Regen und Schnee).

Vom Messpunkt zum Objekt

Im nächsten Verarbeitungsschritt fasst die Software Cluster (Gruppen) von Scan-Daten in Segmente zusammen. Jedes dieser Segmente entspricht einem Objekt und jedes hat Grundeigenschaften wie Größe und Position. Auf Grundlage der Segmentdaten erzeugt das System im nächsten Schritt der Objektverfolgung die Bewegungsinformation.

Diese zusammengefassten Objekte sind virtuelle Gebilde, die von Scan zu Scan verfolgt werden. Normalerweise entspricht ein Scan-Objekt einem „realen“ Objekt wie einem Auto, Fußgänger oder Landmarken. Durch das Verfolgen der Objekte (object tracking) können dynamische Parameter wie Geschwindigkeit und Beschleunigung für jedes Objekt berechnet werden.

Was ist das – Auto, Fahrrad oder Fußgänger?

Der LUX muss die Objekte, die er während des Rennens „sieht“, einordnen, um sein Verhalten anpassen zu können. Da während der Signalverarbeitung, dem „Clustering“ und der Objektverfolgung die Scan-Daten in High-Level-Objektinformationen umgewandelt wurden, sind nun die wichtigsten Objektparameter wie Größe, Position und Geschwindigkeit für die Weiterverarbeitung bekannt. Der Klassifizierungsalgorithmus der Software ordnet die Objekte ein, zum Beispiel als Auto, Fahrrad, Fußgänger etc.

Wo bin ich?

Eine genaue Erkennung der eigenen Position gehört zu den großen Herausforderungen beim autonomen Fahren. Der LUX nutzt drei „Sinne“ für seine Standorterkennung: – Mit den Daten der Laserscanner wird die lokale Eigenbewegung des Fahrzeugs ermittelt. – Zur genauen globalen Positionierung dient ein GPS-System. – Die von den Fahrzeugsensoren empfangenen Daten dienen dazu, die lokale Bewegung des Fahrzeugs zu bestimmen.

In der Spur bleiben

Damit der LUX bei der Darpa Urban Challenge die Fahrspur lokalisieren und das Fahrzeug in seiner Fahrspur halten kann, setzt das Team einen speziellen Algorithmus zur Fahrspurerfassung ein. Der Rennwagen verwendet dafĂĽr drei verschiedene Informationsquellen:
– Fahrspurmarkierungen auf dem Boden
– Bodendaten
– Objekte auf und neben der Straße.
Ein Fusionsalgorithmus führt diese Daten zur abschließenden Positionsinformation zusammen und kombiniert sie zu einer Einschätzung über den vorausliegenden Straßenverlauf.