Häufige Mythen über LiDAR-Sensoren – Teil 1

Sep 11, 2023 Eine Nachricht hinterlassen

Während sich Wissenschaft und Technologie weltweit in Richtung Intelligenz und hoher Effizienz entwickeln,Lidar-Lasermodulund auch seine Anwendungen finden immer mehr Beachtung. Allerdings gibt es auch einige Missverständnisse über die Lidar-Technologie und -Leistung. In diesem Artikel werden fünf häufige Missverständnisse über Lidar aufgedeckt.


1. Die Technologie der Lidar-Anwendung ist komplex
Obwohl Lidar ein komplexer Sensor ist, der aus unterschiedlicher Hardware besteht, ist sein grundlegendes Funktionsprinzip eigentlich recht einfach. Der Sensor nutzt ein Time-of-Flight-Verfahren, ein Detektionsprinzip ähnlich wie Fledermäuse mittels Schallwellen oder Radar mittels Mikrowellen.
Wenn wir den Sensor in seine Komponenten Laser, Detektor und Strahlablenkeinheit zerlegen, ist Lidar keine abschreckende Technologie mehr. Die Laserquelle sendet zunächst Laserimpulse aus. Diese Impulse werden durch Mikrogalvanometer in die Szene gelenkt. Der Detektor erkennt das reflektierte Q-Licht und berechnet anhand der Emissionszeit und Rückkehrzeit des Laserimpulses genau die Entfernung.
Dieser Vorgang wird tausende oder sogar Millionen Mal pro Sekunde wiederholt, um in Echtzeit genaue 3D-Umgebungspunktwolken zu erzeugen. Diese 3D-Punktwolkendaten lassen sich leicht analysieren und beispielsweise für die Entscheidungsfindung beim autonomen Fahren nutzen.
Die Technologie wurde nach der Erfindung gepulster Laser in den frühen 1960er Jahren entwickelt, die statt kontinuierlicher Wellen wiederholte Lichtimpulse aussenden.

Lidar Laser Module

⒉. Bei Anwendungen für selbstfahrende Autos ist Lidar überflüssig
Elon Musk ignorierte auf einer Konferenz im Jahr 2019 den Einsatz von Lidar in selbstfahrenden Autos, ein Vorfall, der bis heute viele Mythen über Lidar hervorgebracht hat. Er behauptet, dass Lidar, unterstützt durch Kameras und intelligente Algorithmen, überflüssig sei und sich immer behaupten werde.
Kameras verwenden unterschiedliche Bilderkennungstechnologien, um visuelle Farbbilder zu erfassen. Mit nur einer Kamera können jedoch nur 2D-Daten erfasst werden, was leicht zu visuellen Täuschungen und Fehleinschätzungen der Entfernung führen kann. Es gibt tragische Beispiele dafür, dass diese Mängel gefährlich und manchmal tödlich sind.
Im Gegensatz dazu kann Lidar zuverlässig 3D-Daten erfassen und Entfernungen und Objektgrößen genau identifizieren.
Die Integration präziser 3D-Lidar-Daten hilft der Kamera, die Umgebung auch dann noch wahrzunehmen, wenn die Kamera „blind“ ist. Beispielsweise benötigt die Kamera nach dem Verlassen eines Tunnels einige Zeit, um sich an Lichtveränderungen anzupassen.
Darüber hinaus scheinen die von den Kameras erzeugten 2D-Bilder genau genug zu sein, um Algorithmen für selbstfahrende Autos zu trainieren. Sie weisen jedoch immer noch viele Ungenauigkeiten auf, die die Genauigkeit von Modellen für maschinelles Lernen und damit die Fähigkeit des Fahrzeugs zur Wahrnehmung, Vorhersage und Entscheidungsfindung beeinträchtigen. Maschinelle Lernfähigkeiten, die autonomes Fahren ermöglichen, müssen skalierbar sein und das „Long-Tail-Problem“ lösen. Dies bedeutet, dass es nicht ausreicht, 95 Prozent der Szenarien abzudecken, denen Fahrzeuge im Straßenverkehr ausgesetzt sind. Auch die auf maschinellem Lernen basierenden autonomen Fahrfähigkeiten müssen ein Ziel von 5 Prozent erreichen. Das Training in kniffligen Situationen bei gleichzeitiger kontinuierlicher Verbesserung der Leistung erfordert für das Training eine große Menge an reinen Kamerasystemdaten.
Im Gegensatz dazu kann Lidar mehr Vorhersagemodelle für maschinelles Lernen bereitstellen und gleichzeitig Trainingsdaten mit höherer Präzision generieren. Daher ist Lidar ein notwendiger Sensor für zuverlässigere und robustere autonome Fahrsysteme.

 

3. Lidar kann vollständig durch andere Sensoren ersetzt werden
Eines der häufigsten Missverständnisse über Lidar ist, dass es durch einen Kamera- oder Radarsensor ersetzt werden kann. Dieses Missverständnis beruht auf mangelndem Verständnis darüber, wie diese Sensortechnologien Objekte auf unterschiedliche Weise klassifizieren. Nachdem wir die unterschiedlichen Fähigkeiten dieser Sensoren und die von ihnen erzeugten Datentypen verstanden haben, werden wir sehen, wie sie sich in ihrer Funktionalität ergänzen. Was die Kamera aufnimmt, ist ein 2D-Bild, das Graustufen- oder Farbinformationen, Textur und Kontrast liefert. Um diese Daten weiter zu analysieren, ist eine Bilderkennungssoftware erforderlich. Da die Kamera ein passives Messprinzip nutzt, müssen Objekte zur Erkennung beleuchtet werden. Darüber hinaus sind für die Erstellung von 3D-Bildern zwei oder mehr Kameras sowie eine hohe Rechenleistung erforderlich.
Die dreidimensionalen Informationen der Radarsternmessung weisen eine äußerst hohe Genauigkeit bei der Bestimmung der Entfernung und Geschwindigkeit von Objekten auf. Allerdings ist die Auflösung gering und sie können Objekte nicht genau erkennen (im Zentimetermaßstab) oder klassifizieren.
LiDAR erstellt aus den gesammelten dreidimensionalen Daten eine Punktwolke. Basierend auf der Form und Größe der Punktwolke können Objekte genau erkannt und in verschiedene Kategorien wie Personen, Autos, Gebäude usw. eingeteilt werden.
LiDAR füllt die Lücken anderer Sensortechnologien, indem es hochdetaillierte und zuverlässige dreidimensionale Informationen sammelt. Es kann Ziele in verschiedenen Umgebungen erkennen und genau klassifizieren, wodurch es sich von den verschiedenen Sensortypen abhebt. Daten von Kameras können für eine tiefergehende Analyse genutzt werden, und vom Radar erfasste Entfernungs- und Geschwindigkeitsdaten können für eine höhere Genauigkeit mit LiDAR überprüft werden. Das bedeutet, dass künftig alle sensorbasierten Anwendungen Kameras, Radarsysteme, Lidar und andere Sensoren integrieren werden.

Lidar Laser Module

4. Lidar kann unter rauen Umgebungsbedingungen nicht funktionieren
Kameras können ohne ausreichende Umgebungsbeleuchtung nicht funktionieren, beispielsweise in Automobilanwendungen, bei denen der Erfassungsbereich der Kamera nur die Scheinwerferreichweite erreichen kann. Im Gegensatz dazu hat Lidar unabhängig von den Lichtintensitätsbedingungen eine Erkennungsreichweite von Hunderten von Metern, da es auf Infrarot-Laserstrahlen und nicht auf sichtbarem Licht beruht. Mit anderen Worten: Ein selbstfahrendes Auto, das mit einem Lidar-Sensor ausgestattet ist, kann im Dunkeln genauso reibungslos fahren wie am Tag, selbst wenn die Scheinwerfer ausgeschaltet sind.
Bei rauen Bedingungen wie Nebel, Regen oder Schnee zeigt LiDAR erneut einen klaren Leistungsvorteil und kann die Defizite anderer Sensoren (z. B. Kameras) im Wahrnehmungssystem ausgleichen.
Lidars sind bei Regen oft leistungsfähiger als Kameras, da ihre Strahlen groß sind. Dadurch kann der Strahl Hindernisse (z. B. Regentropfen) auf dem Sensorspiegel umgehen, sodass die Reichweite des Lidars bis zu einem gewissen Grad nicht beeinträchtigt wird. Im Vergleich dazu ist die Pixelgröße einer Kamera viel kleiner als die Größe eines Regentropfens, sodass ihre Sicht beeinträchtigt wird.
Der große Strahl ermöglicht es dem Lidar außerdem, mehrere Echos aus unterschiedlichen Entfernungen zu erkennen und nur das Echo mit dem stärksten Signal zu verarbeiten. Dies kann auch bei schlechten Wetterbedingungen, beispielsweise wenn es schneit, nützlich sein, da das Lidar die Auswirkungen von Reflexionen von Schneeflocken ignorieren kann. Eine Kamera ohne maschinelle Lernalgorithmen kann nicht zwischen Schneeflocken, nassen Linsen oder harten Objekten unterscheiden und liefert letztendlich ein verzerrtes Bild.
LiDAR hat außerdem kürzere Belichtungszeiten und Verschlusszeiten (Millionstelsekunden) als Kameras (Tausendstelsekunden), was bedeutet, dass Regentropfen nicht als Streifen erkannt werden, die sich über mehrere Pixel erstrecken, sondern als rohe Formen.
Da es sich bei Lidar um ein optisches Gerät handelt, kann seine Leistung auch bei Bedingungen wie starkem Nebel beeinträchtigt werden, es kann jedoch immer noch wertvollere Daten liefern als Sensoren wie Kameras und kann auf größere Entfernungen erkennen.

Lidar Laser Module

5. Lidar-Sensoren sind teuer
Es gab eine Zeit, in der die einzigen auf dem Markt verfügbaren Lidars rotierende Lidars waren, die sehr teuer und sperrig waren und nicht in großen Mengen hergestellt werden konnten. Daher ist es nur natürlich, dass die Menschen immer noch falsche Vorstellungen über Lidar und seinen hohen Preis haben. Doch seit dem Aufkommen von MEMS-Lidar (mikroelektromechanische Systeme) hat sich diese Aussage völlig geändert. MEMS-Komponenten bestehen aus Silizium und sind für die Produktion leicht skalierbar, was sie sehr kostengünstig macht.
Solid-State-LiDAR verwendet Standardkomponenten und erfordert keine regelmäßige Wartung, wodurch die Kosten gesenkt werden. In den letzten Jahren sind die Kosten für diese Lidar-Sensoren von Tausenden Dollar auf Hunderte Dollar gesunken, ein Trend, der sich auch in Zukunft fortsetzen wird. Tatsächlich können Mittelklasse-Sensoren bei hoher Stückzahl sogar zu dreistelligen Preisen verkauft werden.

Dies sind einige häufige Missverständnisse über die Lidar-Technologie und ihre Anwendungen. Im zweiten Teil dieser Serie werden wir weitere Missverständnisse über Lidar aufdecken, die die Leute übersehen.

 

Kontaktinformationen:

Wenn Sie Ideen haben, sprechen Sie uns gerne an. Egal wo unsere Kunden sind und welche Anforderungen wir haben, wir verfolgen unser Ziel, unseren Kunden hohe Qualität, niedrige Preise und den besten Service zu bieten.

Anfrage senden

whatsapp

Telefon

E-Mail

Anfrage