Autonomes Fahren ist kein Hexenwerk mehr: Mithilfe einer intelligenten Kombination aus entsprechenden Umgebungssensoren für den geplanten Einsatzbereich der Landmaschine, Vorabinformationen über die Umgebung und komplexen Algorithmen ist es einfach zu realisieren. Doch welche Vorteile bietet ein solches System? Einsätze von Landmaschinen und Personal können durch vorab definierte Einsatzwege und -zeiten optimiert werden. Eine effizientere Feldarbeit ist möglich. Denn durch klar vorgegebene Fahrwege werden große Überlappungen der Fahrspuren verhindert. Es sinken unter anderem der Kraftstoffverbrauch und der Verbrauch von Düngemitteln, was letztendlich auch zu einem Schutz der Umwelt beiträgt. Dank der Routenplanung wird der Einsatz automatisch und detailliert dokumentiert, was je nach Betreiberart der Landmaschine eine automatisierte Rechnungsstellung über den Einsatz ermöglicht. Damit die Landmaschine effizient und autonom arbeiten kann, muss sie ihre Umgebung sensoriell erfassen.
Für die Erfassung der Umgebung um die Arbeitsmaschine werden zumeist entfernungsgebende Sensoren wie Laserscanner oder Tiefenkamera-Systeme eingesetzt. Beide Sensorarten basieren auf dem Prinzip der Laufzeitmessung. Der Sensor strahlt eine Lichtenergie pulsförmig ab, um die an der Umgebung reflektierte Lichtmenge wieder im Sensor zu registrieren. Aus dem zeitlichen Versatz zwischen gesendetem Lichtimpuls und der empfangenen Reflexion wird über die bekannte Ausbreitungsgeschwindigkeit des Lichtes der Abstand zur Umgebung bestimmt. Aus dem betrachteten Raumwinkel berechnet der Sensor schließlich in seinem Erfassungsbereich eine dreidimensionale Abtastung der Umgebung um das Fahrzeug. Aufgrund der begrenzten Winkelauflösung des Sensors handelt es sich bei der Abtastung nicht um eine kontinuierliche Erfassung der Umgebungsoberfläche, sondern um eine diskrete Abtastung. Dabei werden nur Entfernungsmesswerte in einem bestimmten räumlichen Abstand zueinander erfasst.
Je nach Entfernung zu dem Sensor beträgt der Punktabstand wenige Zentimeter bis hin zu einem halben Meter. Diese resultierenden Sensormessdaten werden auch als 3D-Punktwolke bezeichnet. Je nachdem welcher Sensor auf der mobilen Landmaschine eingesetzt wird, liefern die dreidimensionalen Umgebungssensoren enorme Datenmengen. Beispielsweise erfasst der 3D-Laserscanner Velodyne HDL64 bis zu fünfzehnmal pro Sekunde ein neues Raumbild der Umgebung. Jede Sekunde liefert der Sensor knapp 2,2 Millionen Abstandsmesswerte. Der Sensor erfasst immer ein gesamtes Raumbild, das als Punktwolke ausgegeben wird. Ein bestimmter relevanter Umgebungsausschnitt ist bisher noch nicht möglich.
Witterung ist eine der großen Herausforderungen
Große Herausforderungen neben der zu verarbeitenden Datenmenge stellen auch die Witterungsverhältnisse im Außenbereich dar. Mit dem heutigen Stand der Sensortechnik können die optischen Sensoren zuverlässig bei Sonnenlicht und leichtem Regen eingesetzt werden. Erste Lasersensoren sind bereits mit einer Multi-Echotechnologie ausgestattet. Dabei können von dem an der Umgebung reflektierten Licht mehrere Reflexionen ausgewertet werden. Neben der Lichtenergie kann auch die Pulslänge der Reflexion bewertet werden. Dadurch sind die Multi-Echo-Sensoren in der Lage, auch zuverlässige Abstandsinformationen bei schlechten Sichtbedingungen wie Starkregen, Nebel, Staub oder Schnee zu liefern.
Für eine autonome Navigation der Landmaschine sind die Rohdaten, die die bisher verfügbaren Umgebungssensoren liefern, jedoch nicht ausreichend. Es wird eine Vielzahl an sogenannten höherwertigen Informationen benötigt, um eine zuverlässige autonome Navigation sicherzustellen. Dazu zählen zum Beispiel statische und dynamische Hindernisse, Landmarken, die zur Positionsbestimmung verwendet werden können, Informationen über die Befahrbarkeit des Untergrundes sowie die Geometrie der Straßen und Wege. Die Rohdatensensoren bildet die Basis mit abgetasteten, dreidimensionalen Entfernungsinformationen. Höherwertige Informationen müssen selber aufwendig aus den reinen Abstandsinformationen der 3D-Punktwolke extrahiert werden. Komplexe Algorithmen verarbeiten die Umgebungsmesswerte weiter.
Aufgrund der hohen Datenmenge der Umgebungssensoren stehen Datenverarbeitung und Algorithmen vor großen Herausforderungen. Gleichzeitig müssen die Daten schnell verarbeitet werden, damit das autonome mobile System sofort auf Hindernisse in der Umgebung reagieren kann. Dazu werden die Umgebungsdaten auf die zu dem Zeitpunkt relevanten Umfeldinformationen intelligent reduziert.
Sinn in die Punktewolke bringen
Der erste Verarbeitungsschritt bei der Aufarbeitung der sensoriell erfassten 3D-Punktwolke wird als Segmentierung bezeichnet. Über entsprechende Algorithmen wird versucht, in der 3D-Punktwolke räumlich zusammenhängende Bereiche zu identifizieren. Es wird zwischen befahrbarem Untergrund, positiven und negativen Hindernissen sowie vertikalen Flächen unterschieden. Für die Segmentierung wird der räumliche Abstand benachbarter Entfernungsmesswerte bewertet. Weiterhin geht die Krümmungsänderung der Oberflächennormalen mit ein.
Der befahrbare Untergrund bezeichnet die Bereiche der Sensordaten, in denen sich die Steigung des Bodens innerhalb eines Intervalls ändert, welches durch die mobile Landmaschine befahrbar ist. Negative Hindernisse bezeichnen Gräben und Abgründe, die nicht von dem Fahrzeug befahren werden dürfen. Positive Hindernisse sind Entfernungsmesswerte, die sich zwischen dem befahrbaren Bodenniveau und der maximalen gewünschten Durchfahrtshöhe des Fahrzeugs befinden. Brücken- und Tunneldurchfahrten sind ein positives Hindernis, wenn das Fahrzeug bei einer Durchfahrt damit kollidieren würde.
Die Segmentierung der Umgebungsdaten nach vertikalen Flächen ermöglicht es, markante Strukturen in den Umgebungsdaten zu finden, welche sich gut als Landmarken zur Positionsbestimmung eignen. Typische vertikale Flächen sind beispielsweise Hauswände. In einem nachfolgenden Lokalisationsschritt können die segmentierten vertikalen Flächen mit einer hinterlegten Gebäudekarte verglichen und daraus die Position des Fahrzeugs unabhängig vom GPS bestimmt werden; oder die GPS-Position wird durch diese zusätzlichen Informationen verbessert.
Auf die Segmentierung der Umgebungsdaten reduziert das System die Eingangsdaten auf die zur Navigation relevanten Informationen. Für jeden Raumwinkel werden aus der segmentierten Punktwolke diejenigen positiven und negativen Hindernispunkte identifiziert, die sich am dichtesten am Fahrzeug befinden. Dies geschieht unter der Annahme, dass die nächsten Hindernispunkte am Fahrzeug zu jedem Zeitschritt die höchste Relevanz für die autonome Navigation haben. Für die dichtesten Hindernispunkte erfolgt im nächsten Schritt eine Projektion auf das Bodenniveau. Dabei wird die Höhenkomponente über dem befahrbaren Boden entfernt. Die 3D-Punktwolke wird zu einer 2D-Punktwolke. Durch diesen Reduktionsschritt wird die Anzahl der Messwerte in der 3D-Punktwolke um etwa den Faktor 100 reduziert. Das heißt von 100.000 3D-Messwerten einer segmentierten 3D-Punktewolke bleiben schlussendlich 1000 Scanpunkte zur weiteren Verarbeitung übrig. Nach der Reduktion bleiben aber nur diejenigen Scanpunkte über, die zu dem Zeitpunkt die höchste Relevanz für das autonome Fahrzeug haben.
Hindernisse effektiv umschiffen
Die reduzierte 2D-Punktwolke kann direkt zur reaktiven Hindernisvermeidung der Landmaschine verwendet werden. Für Planungsaufgaben werden die Hindernisinformationen zusätzlich in Form einer digitalen Karte akkumuliert. Dabei werden typischerweise Rasterkarten, englisch Grid-Maps, genutzt. Vergleichbar mit einem karierten Blatt Papier wird die Umgebung um das Fahrzeug durch diskrete Rasterzellen repräsentiert. Üblicherweise werden dazu quadratische Raster mit einer Kantenlänge von etwa zehn mal zehn Zentimeter verwendet. Jede Rasterzelle trägt den Wahrscheinlichkeitswert, wie wahrscheinlich die Zelle mit einem Hindernis belegt ist. Zunächst ist die Wahrscheinlichkeit nicht bekannt und jede Zelle wird mit einer Hinderniswahrscheinlichkeit von 50 Prozent initialisiert.
Jeder Hindernispunkt der reduzierten 2D-Punktwolke wird nun in die Rasterkarte projiziert. Dabei wird in den Rasterzellen, in denen 2D-Messwerte liegen, die Hinderniswahrscheinlichkeit erhöht. Damit die Messwerte vom Umgebungssensor erfasst werden konnten, muss die Sichtverbindung zwischen Fahrzeug und Messwert frei sein. Daher wird für jede Rasterzelle, die sich auf der direkten Sichtverbindung vom Fahrzeug zu dem Messwert befindet, die Hinderniswahrscheinlichkeiten erhöht. Die Karte ist stets zentriert auf das Fahrzeug. Mit der Eigenbewegung des Fahrzeugs werden die bereits erfassten Informationen in der Karte verschoben. Durch die räumliche Akkumulation der Umgebungsdaten ergibt sich ein detailliertes Bild vom Umfeld um das Fahrzeug. Insbesondere die Kenntnis über die hindernisfreien Bereiche kann bei der Planung von komplexen Wendemanövern der intelligenten Landmaschine genutzt werden.
Durch die Fusion verschiedenartiger Sensorinformationen wie zum Beispiel 3D-Entfernungsmesswerte, Radar- und Farbkamerainformationen können die Umgebungsinformationen und damit die autonome Navigation weiter verbessert werden. Auch die Hinterlegung von Vorwissen zum Beispiel über die zur Verfügung stehenden Fahrwege führt zu einer gesteigerten Effizienz und Robustheit bei der autonomen Navigation. Ein wichtiger Schritt für teilautonome und bald autonome Landmaschinen auf dem Feld. hei