Skip to main content

Was sind Tiefenerkennungskameras und wie funktionieren sie?

FRAMOS

FRAMOS

April 14, 2023

Was sind Tiefenerkennungskameras und wie funktionieren sie?

Die Innovationen der letzten zwei Jahrzehnte in den Bereichen eingebettete Systeme, Robotik, industrielle Automatisierung und autonome Fahrzeuge haben alle eines gemeinsam. Sie alle hängen davon ab, dass Maschinen die Welt so „sehen“ können, wie wir es tun: in drei Dimensionen.

Das menschliche Auge und das Gehirn haben sich so entwickelt, dass wir auf natürliche Weise mit der Welt um uns herum interagieren können. Wir neigen also dazu, unsere 3-dimensionale Realität als selbstverständlich anzusehen. Damit jedoch Maschinen die Welt so wahrnehmen können wie wir, ist eine Art von Tiefensensortechnologie erforderlich.

Gerätetypen: Tiefenerkennungs-Kameras verstehen

Time-of-Flight und LiDAR sind Beispiele für mehrere häufig verwendete Technologien zur Tiefenmessung. Diese Tiefentechnologien sind die zentralen Methoden, die eine 3D-Wahrnehmung und -Messung in verschiedenen Anwendungen ermöglichen. Es gibt keine „Einheitslösung“, die für jede Anwendung perfekt ist, und in manchen Fällen ist es sinnvoll, mehrere Ansätze zur Tiefenerkennung zu kombinieren, um die Vorteile der einzelnen Ansätze zu nutzen. Zu den wichtigsten Arten der Tiefe gehören Stereosicht, Flugzeit, strukturiertes Licht und Linienlaser, die jeweils einzigartige Vorteile für die Echtzeit-Objekterkennung und autonome Systeme bieten.

Bei der Betrachtung der verschiedenen Kameratypen ist eine Tiefenkamera ein allgemeiner Begriff für Geräte, die 3D-Informationen mithilfe dieser Tiefentechnologien erfassen.

Einführung in die Tiefensensortechnologien

Tiefenerkennungs-Technologien sind das Herzstück des modernen maschinellen Sehens. Sie ermöglichen es Geräten, ihre Umgebung in drei Dimensionen wahrzunehmen und mit ihr zu interagieren. Diese Technologien sind in Bereichen wie der Robotik, autonomen Fahrzeugen und der industriellen Automatisierung, in denen präzise Messungen und räumliches Bewusstsein entscheidend sind, unverzichtbar. Die Tiefenerkundung umfasst eine Reihe von Ansätzen, darunter strukturierte Lichtkameras, Stereokameras, Flugzeitkameras (ToF) und LiDAR-Systeme. Jede Methode bietet einzigartige Vorteile: Kameras mit strukturiertem Licht bieten eine hohe Genauigkeit und Detailgenauigkeit und sind daher ideal für Anwendungen, die präzise Messungen erfordern, während ToF-Kameras sich durch eine schnelle Datenerfassung auszeichnen und effektiv über größere Entfernungen arbeiten können. LiDAR-Systeme sind in autonomen Fahrzeugen weit verbreitet, da sie Umgebungen mit hoher Genauigkeit abbilden können, und Stereokameras ahmen das menschliche Binokularsehen nach und liefern zuverlässige Tiefeninformationen in Echtzeit. Die Wahl der Tiefensensortechnologie hängt von den spezifischen Anforderungen der Anwendung ab, z. B. Erfassungsbereich, Geschwindigkeit und Umgebungsbedingungen.

Kamera-Sensoren

Kamerasensoren sind von grundlegender Bedeutung für den Betrieb von Tiefenerkennungs-Technologien. Diese Sensoren erkennen reflektiertes Licht oder Lasersignale aus der Umgebung und wandeln sie in elektrische Signale um, die zur Erzeugung von Tiefeninformationen verarbeitet werden können. Bei Stereo-Vision-Systemen nehmen zwei oder mehr Kameras ein linkes und ein rechtes Bild einer Szene auf, so dass das System die Tiefe durch Analyse der Unterschiede zwischen diesen Bildern berechnen kann. Mit fortschrittlichen Bildsensoren ausgestattete Kameras sind in der Lage, subtile Variationen in den Lichtmustern zu erfassen, die für eine genaue Tiefenberechnung unerlässlich sind. Ganz gleich, ob Sie strukturiertes Licht, Stereokameras oder ToF-Systeme verwenden, die Qualität und Empfindlichkeit der Kamerasensoren wirkt sich direkt auf die Zuverlässigkeit und Präzision der gewonnenen Tiefeninformationen aus.

Bildsensoren

Bildsensoren spielen eine zentrale Rolle bei Technologien zur Tiefenerkennung, indem sie die auf eine Szene projizierten Lichtmuster oder Lasersignale erfassen. Bei Kameras mit strukturiertem Licht wirft ein Lichtprojektor ein bestimmtes Muster auf Objekte, und die Bildsensoren erfassen, wie dieses Muster durch die Oberflächen, auf die es trifft, verzerrt wird. Diese Daten werden dann verwendet, um Tiefeninformationen mit hoher Präzision zu berechnen. ToF-Kameras verwenden modulierte Laserimpulse, und die Bildsensoren messen die Zeit, die diese Impulse nach der Reflexion an den Objekten benötigen, um zurückzukehren, was die Berechnung von Entfernungen ermöglicht. Stereokameras verwenden Bildsensoren, um linke und rechte Bilder zu erfassen, die dann verglichen werden, um Tiefeninformationen zu extrahieren. Die Effektivität der Tiefenerkennungs-Technologien hängt von der Leistung dieser Bildsensoren ab, da sie Lichtmuster, projizierte Muster und modulierte Laserpulse genau erkennen und verarbeiten müssen, um zuverlässige Tiefenkarten zu erstellen.

Strukturierte Lichtkameras

Eine Kamera mit strukturiertem Licht verwendet einen Projektor, um die Szene mit einem bekannten projizierten Lichtmuster zu beleuchten, z. B. mit Streifen, Balken oder Lichtpunkten. Durch die Beobachtung von Verzerrungen im reflektierten projizierten Lichtmuster kann die Kamera mit strukturiertem Licht die Tiefe und die Konturen von Objekten in der Szene berechnen.

Strukturierte Lichtkameras ähneln Stereokameras, da sie von der Basislinie oder dem Versatz zwischen dem Lichtprojektor und dem Kameraobjektiv abhängen, um die Tiefe jedes Punktes des reflektierten Musters in der Szene zu triangulieren.

Einige Kameras mit strukturiertem Licht scannen die Oberflächen in der Szene schnell mit Lichtmustern, die phasenverschoben sind, um Konturen genauer zu berechnen, die bei einem einzelnen Scan möglicherweise nicht zu erkennen sind. Einige 3D-Scanner mit strukturiertem Licht kombinieren einen Projektor mit Stereokameras für zusätzliche Präzision.

Strukturierte Lichtkameras liefern sehr genaue Tiefendaten und erstellen Tiefenkarten mit einer Genauigkeit von bis zu 100 Mikrometern. Sie sind jedoch in der Regel nur bei sehr kurzen Reichweiten nützlich und verlieren bei größeren Reichweiten schnell an Präzision. Strukturierte Lichtkameras werden häufig in der Qualitätskontrolle zur Überprüfung und Sicherstellung der Genauigkeit und Präzision von 3D-Modellen oder gefertigten Teilen eingesetzt.

Die daraus resultierenden Tiefenkarten sind außerdem rechenintensiv und benötigen im Vergleich zu anderen Tiefensensortechnologien mehr Zeit für die Erstellung. Aus diesem Grund sind sie nicht für Echtzeitanwendungen geeignet und funktionieren am besten mit einem stationären Objekt.

Auch das Umgebungslicht kann die projizierten Muster stören. Daher werden Kameras mit strukturiertem Licht im Allgemeinen nur in Innenräumen verwendet, wo die Lichtverhältnisse kontrolliert werden können.

Stereo-Tiefenkameras

Stereokameras Bildgebung

Stereo-Tiefenkameras (auch bekannt als stereoskopische Kameras), wie die hier gezeigten FRAMOS D400e Kameras, sind nützlich für Echtzeitanwendungen, einschließlich der Führung von autonomen Fahrzeugen, wie diesem Gabelstapler. (Bild mit freundlicher Genehmigung von Phase 3 Automation Ltd).

Stereo-Tiefenkameras funktionieren auf die gleiche Weise wie das menschliche Binokularsehen: Sie verwenden zwei oder mehr Linsen oder Kameras, die einige Zentimeter voneinander entfernt sind. Die Software in der Verarbeitungseinheit der Kamera erkennt die gleichen Merkmale in jedem Sensor. Jedes Merkmal hat in jedem Sensor eine leicht unterschiedliche Position. Die Software kann den daraus resultierenden Versatz verwenden, um die Tiefe dieses Punktes mithilfe der Triangulation zu berechnen.

Die meisten Stereotiefenkameras arbeiten auch mit aktiver Abtastung und enthalten einen gemusterten Lichtprojektor, der dabei hilft, entsprechende Punkte auf ansonsten flachen oder strukturlosen Oberflächen zu finden.

Diese Kameras verwenden in der Regel Nah-Infrarot-Sensoren (NIR), die neben dem sichtbaren Licht auch das projizierte Infrarotmuster erkennen können. Einige Tiefenkameras, wie z.B. die Intel RealSense™ Kamera, enthalten auch einen RGB-Kamerasensor, um Farbinformationen über die resultierende Tiefenkarte zu legen.

Das Erkennen und Korrelieren von Merkmalen in beiden Sensorbildern kann zwar rechenintensiv sein, aber Stereotiefenkameras sind recht effektiv bei der Bereitstellung von Tiefeninformationen in Echtzeit unter einer Vielzahl von Beleuchtungsbedingungen. Diese Systeme bieten eine Tiefenwahrnehmung, indem sie das menschliche beidäugige Sehen imitieren, so dass sie die Entfernung und die räumlichen Beziehungen von Objekten interpretieren können. Allerdings haben sie eine begrenzte effektive Reichweite, die von der Basislinie – dem Abstand zwischen den beiden Hauptbildsensoren – und der Auflösung der Bildsensoren abhängt. Denn je weiter Objekte von der Kamera entfernt sind, desto kleiner wird der Abstand zwischen den entsprechenden Merkmalen, den die Sensoren nicht mehr auflösen können.

Stereo-Tiefenkameras sind in der Regel in einer Entfernung von bis zu 6 Metern von der Kamera wirksam.

LiDAR-Sensoren

LiDAR-Systeme (Light Detection and Ranging) verwenden einen fokussierten Lasersender, der vor- und zurückfährt, um ein Rastermuster von Lichtpunkten auf die zu erfassende Szene zu projizieren, wobei die Laserstrahlen die Szene abtasten.

Jedes Mal, wenn ein Lichtimpuls vom LiDAR-System projiziert wird, zeichnet der Sensor im System das Intervall zwischen dem Zeitpunkt, an dem der Lichtimpuls ausgesendet wird, und dem Zeitpunkt, an dem er zum Sensor zurückreflektiert wird, auf. Anhand dieses Intervalls kann das System die Entfernung zum Zielobjekt, das das Licht zum Sensor reflektiert hat, auf der Grundlage der Lichtgeschwindigkeit berechnen.

LiDAR-Sensoren können die Szene scannen, um ein einzelnes „Bild“ von Daten auf der Grundlage der gemessenen Entfernung und der Richtung, in die der Strahl gerichtet war, zu erzeugen. Diese „Frames“ können zwischen einigen hundert und vielen tausend Einzelpunkten liegen. Jedes Mal, wenn das LiDAR-System einen Scan abschließt, erzeugt es eine „Punktwolke“ auf der Grundlage der Position dieser Punkte. LiDAR-Systeme können auch in einem kontinuierlichen Streaming-Modus verwendet werden. Diese Daten können verwendet werden, um eine 3D-Karte des erfassten Bereichs zu erstellen.

Die LiDAR-Systeme unterscheiden sich je nach Anwendungsbereich sehr stark. Da sie einen kollimierten und fokussierten Laserstrahl verwenden, um das Zielgebiet zu scannen, können LiDAR-Sensoren bei extrem großen Entfernungen von bis zu mehreren hundert Metern effektiv sein, aber kleine LiDAR-Sensoren mit geringer Leistung werden auch für die Tiefenmessung bei kurzen Entfernungen verwendet. Sie eignen sich für eine Vielzahl von Lichtverhältnissen. Wie alle aktiven Sensortechnologien reagieren sie jedoch empfindlich auf das Umgebungslicht, wenn sie im Freien eingesetzt werden.

LiDAR-Sensoren verwenden in der Regel Infrarotlaser mit einer von zwei Wellenlängen: 905 Nanometer und 1550 Nanometer. Die Laser mit den kürzeren Wellenlängen werden weniger wahrscheinlich von Wasser in der Atmosphäre absorbiert und eignen sich besser für die Vermessung großer Entfernungen, während die Infrarotlaser mit den längeren Wellenlängen eher für augensichere Anwendungen geeignet sind, z.B. um Robotern die Navigation um Menschen herum zu ermöglichen.

ToF-Kamerasysteme

Eine weitere aktive Tiefenerkennungs-Technologie, die weit verbreitet ist, sind Time-of-Flight-Kameras. Es gibt zwei verschiedene Ansätze für Time-of-Flight-Tiefenerkennungssysteme, die jeweils ihre spezifischen Vorteile für eine bestimmte Anwendung haben: Direkte Time-of-Flight-Kameras (manchmal auch „dToF“-Kameras genannt) und indirekte Time-of-Flight- oder iToF-Kameras.

Direkte Flugzeit (dToF)

Wie LiDAR-Sensoren arbeiten direkte ToF-Kameras, indem sie die Szene mit Impulsen von unsichtbarem Infrarot-Laserlicht abtasten und dann das Licht beobachten, das von den Objekten in der Szene reflektiert wird. Die Entfernung zu jedem Punkt kann anhand der Zeit berechnet werden, die ein Lichtimpuls benötigt, um vom Sender zu einem Objekt in der Szene und wieder zurück zu gelangen.

Direkte ToF-Kameras verwenden eine besondere Art von Sensorpixeln, die so genannten SPAD-Pixel (Single Photon Avalanche Diode), die die plötzliche Photonenspitze erfassen, wenn ein Lichtimpuls zu ihnen zurückreflektiert wird, und dieses Intervall aufzeichnen. Diese Sensorelemente sind vergleichsweise groß und werden in Gruppen ausgelesen, wenn der Laserscan fortschreitet.

Aufgrund der Funktionsweise dieser Sensoren haben direkte ToF-Kameras in der Regel eine relativ geringe Auflösung. Direkte ToF-Kameras sind jedoch kompakt, relativ preiswert und nützlich für eine Vielzahl von Anwendungen, bei denen keine hohe Auflösung oder Echtzeitleistung erforderlich ist.

Indirekte Lichtlaufzeit (iToF)

Indirekte Time-of-Flight- oder „iToF“-Kameras verwenden diffuses Infrarot-Laserlicht von einem oder mehreren Emittern, um die gesamte Szene in einer Reihe von modulierten Laserpulsen oder Blitzen zu beleuchten. Das Licht wird kontinuierlich moduliert, indem die Laseremitter mit einer hohen Frequenz gepulst werden.

Anstatt das Intervall zwischen jedem Lichtimpuls und dem Zeitpunkt, an dem er zur Kamera zurückreflektiert wird, direkt zu messen, zeichnen iToF-Kameras die Phasenverschiebung der Wellenform auf, die in jedem Pixel des Sensors aufgezeichnet wird, und vergleichen diese. Indem man vergleicht, um wie viel die Wellenform in jedem Pixel phasenverschoben ist, kann man die Entfernung zu dem entsprechenden Punkt in der Szene errechnen.

Die indirekte ToF-Sensortechnologie ermöglicht es, die Entfernung zu allen Punkten des Motivs in einer einzigen Aufnahme zu bestimmen.

Vorteile und Nachteile von ToF

Alle Tiefensensortechnologien haben ihre eigenen Vor- und Nachteile. Es gibt keine „Einheits“-Technologie, die perfekt für jede Anwendung geeignet ist. Die Time-of-Flight-Kameras bieten jedoch Vorteile, die sie im richtigen Kontext sehr nützlich machen.

Vorteile von ToF-Kameras

ToF-Kameras haben in der Regel keine beweglichen Teile. Dies gilt für alle indirekten ToF-Kameras, die eine diffuse Laserbeleuchtung verwenden. Einige direkte Timer-of-Flight-Kameras verwenden jedoch MEMS-Chips (Micro Electro-Mechanical Systems) oder andere bewegliche Teile zur Ausrichtung des Lasers.

Alle ToF-Kameras sind kompakt, leicht und relativ preisgünstig. Je nach der für ihre Laseremitter benötigten Leistung können sie so klein gemacht werden, dass sie in sehr kleine Geräte, einschließlich Smartphones, eingebaut werden können.

Alle ToF-Kameras können bei sehr schlechten Lichtverhältnissen oder sogar in völliger Dunkelheit betrieben werden, da sie über eine eigene Beleuchtung verfügen. Die Genauigkeit von ToF-Kameras ist jeder anderen Tiefenerkennungs-Technologie überlegen, mit Ausnahme von strukturierten Lichtkameras, und kann eine Genauigkeit von 1 mm bis 1 cm bieten, je nach Betriebsbereich der Kamera.

Insbesondere indirekte ToF-Kameras liefern sehr hochauflösende, detailgetreue Tiefeninformationen mit bis zu 640×480 Pixeln (VGA-Auflösung).

Da sie die gesamte Szene in einem einzigen Bild scannen, arbeiten iToF-Kameras auch sehr schnell und liefern Tiefenerkennungsdaten mit bis zu 60 Bildern pro Sekunde. Aus diesem Grund sind iToF-Kameras für eine Vielzahl von Hochgeschwindigkeits- oder Echtzeitanwendungen sehr nützlich.

ToF-Kameras sind im Vergleich zu anderen Tiefenerkennungs-Technologien wie strukturierten Lichtkameras und LiDAR-Sensoren auch relativ kostengünstig zu bauen und zu beschaffen.

Nachteile von ToF-Kameras

ToF-Kameras haben auch einige Nachteile. In hell beleuchteten Situationen oder im Freien kann das Licht der Laseremitter durch das Umgebungslicht verwischt werden. Insbesondere indirekte ToF-Kameras können auch durch stark reflektierende Oberflächen oder retroreflektierende Materialien verwirrt werden, und alle ToF-Kameras können durch das einfallende Licht anderer ToF-Kameras, die im gleichen Sichtfeld arbeiten, verwirrt werden.

Aus diesem Grund sind andere Tiefenerkennungs-Technologien wie Stereo-Tiefenkameras möglicherweise effektiver für Anwendungen, die im Freien betrieben werden müssen, oder in Situationen, in denen Sie möglicherweise mehrere Tiefenkameras in demselben Bereich einsetzen möchten.

Mit der Weiterentwicklung der ToF-Technologie wird diese jedoch immer robuster und flexibler. Sony Semiconductor Solutions hat vor kurzem den IMX570 ToF-Sensor auf den Markt gebracht, der über einen „Pixel Drive“-Verarbeitungsschaltkreis verfügt, um die Auswirkungen von unerwünschtem Umgebungslicht zu reduzieren. Dies verbessert die Genauigkeit und den effektiven Betriebsbereich des Sensors in stark beleuchteten Umgebungen oder im Freien bei hellem Sonnenschein.

Anwendungen der Time-of-Flight Technologie

Wie jede Tiefenerkennungs-Technologie hat auch die Time-of-Flight-Kamera einige Einschränkungen und Nachteile. Dank ihrer Flexibilität und einfachen Handhabung sind sie jedoch für eine Vielzahl von Anwendungen geeignet.

ToF-Kameras werden für die Tiefenerfassung in Industrie- und Robotikanwendungen eingesetzt, z. B. für die maschinelle Bildverarbeitung bei Pick-and-Place-Robotern, für die Objekterkennung an Fließbändern, für die Objektklassifizierung in der Robotik und für die Bereitstellung von Navigationsfunktionen für mobile Roboter oder Autonomous Guided Vehicles (AGVs). Ein gutes Beispiel hierfür ist ein Leitsystem für autonome Gabelstapler in einem automatischen Lager.

Da ToF-Kameras ihre eigene Beleuchtung bereitstellen, können sie in einer Vielzahl von Umgebungen und Lichtverhältnissen eingesetzt werden – sowohl in Innenräumen als auch im Freien.

Logistik und Lagerautomatisierung

Einer der Vorteile von ToF-Kameras ist, dass sie hochauflösende Tiefendaten in hoher Geschwindigkeit mit Bildraten von bis zu 60 Bildern pro Sekunde erzeugen. Das bedeutet, dass eine einzige ToF-Kamera, die beispielsweise über einem Förderband angebracht ist, Pakete genau nach Größe sortieren kann – mit präzisen Messungen in allen drei Dimensionen – und das genauso schnell, wie das Förderband betrieben werden kann.

Aus diesem Grund erfreuen sich ToF-Kameras einer breiten Akzeptanz in der Logistik und Lagerautomatisierung, wo sie zum Sortieren von Paketen eingesetzt werden oder es Robotern ermöglichen, Pakete schnell und präzise zu handhaben, zu stapeln und zu palettieren.

Mobilität und Automotive

ToF-Kameras halten Einzug in die Bereiche Mobilität und Transport sowie in Automobilanwendungen – sowohl innerhalb als auch außerhalb des Fahrzeugs. Aufgrund der präzisen Echtzeit-Tiefeninformationen, die sie liefern, sind ToF-Kameras nützlich, um das Situationsbewusstsein rund um das Fahrzeug zu verbessern.

ToF-Kameras werden eingesetzt, um Navigation und Situationsbewusstsein für selbstfahrende Autos zu ermöglichen, oder um genaue Entfernungsdaten für Assistenzsysteme wie automatische Einparkhilfen zu liefern.

ToF-Kameras finden sich auch in Fahrzeugen, wo sie für die Aufmerksamkeitsverfolgung (um sicherzustellen, dass der Fahrer die Straße im Auge behält), die Gestenerkennung und die Überwachung der Insassen (um sicherzustellen, dass alle sicher auf ihren Sitzen sitzen) eingesetzt werden.

Automatisierung im Einzelhandel

Neue Anwendungen für ToF-Kameras entstehen im aufstrebenden Bereich der Einzelhandelsautomatisierung. Aufgrund ihrer Fähigkeit, Tiefe wahrzunehmen, sind ToF-Kameras nicht verwirrt, wenn Menschen dicht beieinander stehen. Sie sind daher nützlich für Anwendungen wie Personenzählung, Verfolgung und Lokalisierung sowie für die Analyse von Personenströmen (um zu beobachten, wie sich Menschen durch einen Verkaufsraum bewegen).

ToF-Kameras werden auch für nahtlose Kassensysteme verwendet, da sie Gesten erkennen und feststellen können, ob Personen Gegenstände in der Hand halten oder nicht.

Unterhaltung und Spiele

Ein neuer Markt für die Anwendung von ToF-Kamerasystemen ist die Unterhaltung. ToF-Kameras können so preiswert und kompakt gebaut werden, dass sie in eine Vielzahl von Geräten für Verbraucher, einschließlich Mobiltelefonen, eingebaut werden können. Da sie über eine eigene Beleuchtung verfügen, werden ToF-Kameras bereits in Mobiltelefone eingebaut, um bei schlechten Lichtverhältnissen ein Fokus-Assistenzsystem für Kameras mit sichtbarem Licht zu bieten.

Da sie Tiefeninformationen aufzeichnen, sind ToF-Kameras auch sehr nützlich für die Gestenerkennung, da sie nicht verwirrt werden, wenn die Hände der Person vor dem Körper vorbeigehen. Die nächste Generation von Videospielkonsolen und Virtual-Reality-Systemen verwendet ToF-Kameras, um die Hand- und Körperpositionen der Spieler zu verfolgen und so ein noch intensiveres Spielerlebnis zu ermöglichen.

Computer Vision Anwendungen

Tiefenerkennungs-Technologien sind ein wesentlicher Bestandteil einer Vielzahl von Computer Vision Anwendungen. Durch die Bereitstellung detaillierter Tiefeninformationen ermöglichen diese Technologien fortschrittliche Funktionen wie Objekterkennung, Hinderniserkennung und Gesichtserkennung. In autonomen Fahrzeugen werden LiDAR-Systeme und ToF-Kameras eingesetzt, um die Umgebung zu erfassen, Hindernisse zu erkennen und eine sichere Navigation zu gewährleisten. Algorithmen des maschinellen Lernens verbessern die Genauigkeit der Tiefeninformationen weiter, insbesondere bei schwierigen Bedingungen wie schwachem Licht oder komplexen Szenen. So können ToF-Kameras in Kombination mit maschinellem Lernen die Objekterkennung und die Tiefenschätzung verbessern, was sie zu wertvollen Werkzeugen sowohl für industrielle als auch für Verbraucheranwendungen macht. Die Synergie zwischen Tiefenerkennung und Computer Vision treibt Innovationen in Bereichen wie Robotik, Sicherheit und intelligente Geräte voran.

Robotik und maschinelles Lernen

Robotik und maschinelles Lernen sind eng mit Tiefensensortechnologien verwoben, die es Robotern ermöglichen, ihre Umgebung intelligent wahrzunehmen und mit ihr zu interagieren. Tiefeninformationen ermöglichen es Robotern, Aufgaben wie das Aufnehmen und Platzieren von Objekten und die Navigation mit hoher Genauigkeit durchzuführen. Strukturierte Lichtkameras werden häufig in kontrollierten Umgebungen eingesetzt, in denen präzise Tiefendaten erforderlich sind, während ToF-Kameras für Anwendungen bevorzugt werden, die eine schnelle Datenerfassung erfordern. LiDAR-Systeme liefern hochpräzise Tiefeninformationen und sind daher ideal für komplexe Robotikaufgaben und autonome Navigation. Algorithmen für maschinelles Lernen verarbeiten die Tiefendaten dieser Sensoren und verbessern so die Fähigkeit des Roboters, Objekte zu erkennen, Hindernissen auszuweichen und sich an dynamische Umgebungen anzupassen. Die Kombination von Tiefensensortechnologien und maschinellem Lernen verändert die Robotik und macht die Maschinen leistungsfähiger, flexibler und autonomer.

Vergleich der Tiefenerkennungs-Technologien

Die folgende Tabelle vergleicht die Vor- und Nachteile der in diesem Dokument besprochenen Tiefensensortechnologien:

3D-Kameras mit strukturiertem Streifenlicht sind dafür bekannt, dass sie aufgrund ihrer Musterprojektion und Triangulationsmethoden eine höhere Genauigkeit bei Messungen im Nahbereich bieten.

EigentumStrukturiertes LichtStereo VisionLiDARdToFiToF
PrinzipBeobachtet Verzerrungen im projizierten MusterVergleicht Merkmale in zwei StereobildernMisst die Transitzeit des von einem Objekt reflektierten LichtsMisst die Transitzeit des von einem Objekt reflektierten LichtsMisst die Phasenverschiebung von modulierten Lichtimpulsen
Software-KomplexitätSehr hochHochNiedrigNiedrigMedium
Relative KostenHochNiedrigVariiertNiedrigMedium
Genauigkeitµm – mmcmAbhängig von der Reichweitemm-cmmm-cm
ReichweiteNiedrig, aber skalierbar~6mSehr skalierbarSkalierbarskalierbar
Schwaches LichtGutSchwachGutGutGut
DraußenSchwachGutGutMesseMesse
Scan-GeschwindigkeitLangsamMediumLangsamSchnellSehr schnell
KompaktheitMediumNiedrigNiedrigHochMedium
StromverbrauchHochSkalierbar – NiedrigSkalierbar – HochMediumSkalierbar – Mittel

Was sind Tiefenerkennungskameras und wie funktionieren sie?

Bewerten Sie iToF für Ihre Anwendung

Das FSM-IMX570 Entwicklungskit bietet ein kalibriertes iToF-Kameramodul und eine einfache Integration mit NVIDIA Jetson Xavier und Orin Produkten

FRAMOS hat ein ToF-Kamera-Entwicklungskit für Bildverarbeitungssystem-Ingenieure vorgestellt, die sich mit der Time-of-Flight-Technologie beschäftigen oder ToF-Kameras für Machine-Vision-Anwendungen entwickeln wollen. Das Entwicklungskit FSM-IMX570 bietet Bildverarbeitungssystem-Ingenieuren ein einfaches, kohärentes Rahmenwerk für die schnelle Entwicklung eines funktionierenden Prototyps eines indirekten Time-of-Flight (iToF) Kamerasystems auf der Grundlage der branchenführenden iToF-Technologie von Sony.

Wenn Sie daran interessiert sind, die Time-of-Flight-Technologie für eine neue Anwendung zu evaluieren, oder wenn Sie ein Kameraentwicklungsprojekt planen, bietet Ihnen das FSM-IMX570 Entwicklungskit eine einfache Möglichkeit, mit der Technologie zu experimentieren oder Ihren eigenen Prototyp eines Kamerasystems zu entwickeln. Sehen Sie sich die Produktinformationsseite zum Entwicklungskit an.

NEU

FSM:GOIhre Vision App, Ready to GOOptical Sensormodul für eingebettete Bildverarbeitungssysteme mit der besten Bildqualität von der Stange.

ENTDECKEN SIE FSM:GO