3D-Kollisionsvermeidung: Wie maschinelles Sehen funktioniert

Maschinelles Sehen und 3D-Kollisionsvermeidung sind Schlüsseltechnologien für die sichere Navigation von Fahrerlosen Transportsystemen (FTS) in komplexen Industrieumgebungen. Die Kombination aus Kameras, Sensoren und KI ermöglicht es, Hindernisse präzise zu erkennen – auch solche, die über dem Boden schweben oder hervorstehen. Dadurch wird nicht nur die Sicherheit erhöht, sondern auch die Effizienz in der Intralogistik gesteigert.

Hauptpunkte:

Die Integration von 3D-Sehsystemen in FTS verbessert den Materialfluss, reduziert Ausfallzeiten und erfüllt höchste Sicherheitsanforderungen. Mit wachsender Marktnachfrage und stetiger Weiterentwicklung wird diese Technologie immer relevanter für die Intralogistik.

Automatisierungslösungen für landwirtschaftliche Maschinen

Kerntechnologien im 3D-maschinellen Sehen

Die präzise 3D-Kollisionsvermeidung basiert auf einer Kombination aus Sensortechnologie, KI-Algorithmen und Systemintegration. Diese Bausteine ermöglichen es Fahrerlosen Transportsystemen (FTS), ihre Umgebung räumlich genau wahrzunehmen. Im Folgenden werfen wir einen genaueren Blick auf die wesentlichen Komponenten und ihre Funktionen.

3D-Sensortypen für die Kollisionsvermeidung

Stereo-Sensoren simulieren das menschliche Sehen mithilfe von zwei Kameras. Sie berechnen die Tiefe aus den Unterschieden zwischen den Bildern. Diese Sensoren sind preiswert, benötigen jedoch ausreichend Umgebungslicht, um zuverlässig zu funktionieren. In dunklen Umgebungen stoßen sie schnell an ihre Grenzen.

Structured-Light-Sensoren projizieren ein Muster auf die Oberfläche eines Objekts und analysieren dessen Verzerrung, um Tiefendaten zu gewinnen. Sie bieten eine gute Balance zwischen Kosten und Datenqualität, reagieren jedoch empfindlich auf direkte Sonneneinstrahlung oder starke Beleuchtung.

Time-of-Flight-Sensoren (ToF) messen, wie lange ein Lichtimpuls benötigt, um zu einem Objekt und zurückzukehren. Diese Technologie ermöglicht bis zu neun Millionen Distanzmessungen pro Sekunde mit millimetergenauer Präzision. ToF-Sensoren sind weniger anfällig für Probleme durch helles Sonnenlicht und bieten oft größere Reichweiten.

Ein Beispiel für den Einsatz von ToF-Sensoren liefert Infineon Technologies: Seit dem 8. Oktober 2024 spielen deren REAL3™ 3D-Time-of-Flight-Sensoren, die in Zusammenarbeit mit pmdtechnologies entwickelt wurden, eine zentrale Rolle in Fahrzeugüberwachungssystemen. Diese Sensoren sind die ersten hochauflösenden 3D-Bildsensoren, die den ISO 26262-Standard für Automobilanwendungen erfüllen, und verbessern sowohl die Sicherheit als auch den Komfort in Fahrzeugen.

LiDAR-Technologie arbeitet ähnlich wie ToF-Sensoren, wird jedoch oft als „Lichtradar“ bezeichnet. Während 2D-LiDAR häufig in Sicherheitsanwendungen eingesetzt wird, um Objekte in einer Ebene zu scannen und Entfernungen zu messen, ist die 3D-LiDAR-Technologie ideal für größere Reichweiten und komplexe Umgebungen.

Sensortyp Vorteile Nachteile Beste Anwendung
Stereo Günstig, natürliche Tiefenwahrnehmung Lichtabhängig, begrenzte Reichweite Innenräume mit stabiler Beleuchtung
Structured Light Hohe Präzision, kosteneffizient Empfindlich bei Sonnenlicht Kontrollierte Industrieumgebungen
Time-of-Flight Extrem präzise und schnell Höhere Kosten Präzisionsanwendungen
LiDAR Große Reichweite, robust Teuer, komplexe Integration Außenbereiche, große Lagerhallen

KI- und Algorithmus-Methoden

Künstliche Intelligenz erweitert die Fähigkeiten von 3D-Sehsystemen erheblich. KI-Algorithmen ermöglichen dynamische Pfadplanung, Hinderniserkennung, Echtzeitentscheidungen und autonome Lastenhandhabung. Auch das Flottenmanagement von FTS wird durch diese Technologien optimiert.

Deep Learning hat die maschinelle Wahrnehmung im autonomen Fahren revolutioniert. Es wird für Aufgaben wie Objekterkennung, semantische Segmentierung und Verkehrsprognosen eingesetzt. Zudem verbessert es die Genauigkeit bei der Erkennung und Verfolgung von Paletten.

Praktische Beispiele zeigen, wie Unternehmen wie Amazon und Tesla KI-gestützte FTS in Fulfillment-Centern und Gigafactories nutzen, um Warenregale zu bewegen und Komponenten zwischen Produktionslinien zu transportieren.

Eine Statistik der National Highway Traffic Safety Administration verdeutlicht, warum diese Technologien so wichtig sind: 94 % aller Unfälle werden durch menschliche Fehler verursacht. KI-gestützte Sicherheitssysteme können hier Abhilfe schaffen, indem sie die menschliche Fehlerquote drastisch reduzieren. Die enge Abstimmung dieser Algorithmen mit FTS-Steuerungen wird im nächsten Abschnitt behandelt.

Integration in FTS-Steuerungssysteme

Die Verbindung von präziser Sensortechnik und KI bildet die Grundlage, um FTS sicher durch variierende Lagerumgebungen zu navigieren. Für die Integration von 3D-Sehsystemen in FTS-Steuerungen sind jedoch spezifische Anpassungen notwendig. Die Systeme müssen in der Lage sein, sowohl statische als auch bewegliche Objekte zu erkennen, mehrere Perspektiven zu koordinieren und sich an wechselnde Lagerlayouts anzupassen.

Die Interoperabilität zwischen unterschiedlichen Sehtechnologien gestaltet sich häufig komplex, da sie verschiedene Kommunikations- und Konfigurationsmethoden erfordern. Zudem müssen Bildverarbeitungsprogramme individuell angepasst werden, um mehrere Sensoren effizient zu integrieren.

„Einer der größten Treiber für diese Veränderung ist die Kommoditisierung von 2D-maschinellen Sehsystemen... Anspruchsvolle und fähige Integratoren für maschinelles Sehen befinden sich nun in einer Position, in der es zunehmend schwierig wird, einem gewöhnlichen 2D-maschinellen Sehsystem einen Mehrwert hinzuzufügen." – Markus Tarin, Präsident und CEO von MoviMed und MoviTHERM

Die effektivste Lösung für die Hinderniserkennung bei mobilen Robotern ist derzeit eine Kombination aus 3D-Sehsensoren und LiDAR. Während 3D-Sensoren Hindernisse im Nah- und Mitteldistanzbereich präzise erfassen, übernimmt LiDAR die weitreichende, zweidimensionale Erkennung.

Forschungsergebnisse: Leistung und Herausforderungen

Die Nutzung von 3D-Sehsystemen in der Intralogistik zeigt sowohl beeindruckende Fortschritte als auch klare Grenzen. Aktuelle Studien liefern wertvolle Einblicke in die Leistungsfähigkeit dieser Technologien und beleuchten die größten Hürden für ihren industriellen Einsatz.

Erkennungsgenauigkeit und Reaktionszeiten

Die Leistungsfähigkeit moderner 3D-Systeme hängt stark von der verwendeten Technologie ab. Systeme, die auf Deep Learning basieren, erreichen eine um 20 % höhere Klassifizierungsgenauigkeit als traditionelle Ansätze. In der industriellen Inspektion erzielen maschinelle Sehsysteme eine Präzision von über 99,5 %, während herkömmliche Methoden nur auf 85–90 % kommen.

Ein Beispiel aus der Praxis: Beim Bin-Picking konnte eine spezielle 3D-Kamera sowohl die Bilderfassung als auch die Objekterkennung in weniger als 0,5 Sekunden abschließen. Der gesamte Greifvorgang dauerte dabei lediglich 4 Sekunden pro Zyklus.

Die verschiedenen Sensortechnologien haben ihre eigenen Stärken, wenn es um Genauigkeit und Geschwindigkeit geht:

Sensortechnologie Erkennungsgenauigkeit Reaktionszeit Optimale Bedingungen
Kamera + Deep Learning Sehr hoch Schnell Gute Beleuchtung, statische Objekte
Radar Hoch Sehr schnell Alle Wetterbedingungen, bewegte Objekte
LiDAR Extrem hoch Mittel 3D-Kartierung, präzise Lokalisierung
Sensorfusion Höchste Variabel Komplexe, dynamische Umgebungen

Sensorfusion, die mehrere Sensortechnologien kombiniert, gleicht Schwächen einzelner Systeme aus, erhöht jedoch die Systemkomplexität und den Rechenaufwand. Diese Leistungsdaten sind entscheidend, um Strategien für den Einsatz in dynamischen Lagerumgebungen zu entwickeln. Gleichzeitig bleiben die wechselnden Umgebungsbedingungen eine große Herausforderung.

Umgebungsbedingte Betriebsherausforderungen

Die Leistung von 3D-Sensoren wird stark von den Eigenschaften der Umgebung beeinflusst. Materialien, Reflexionen und Transparenz können die Effizienz der Sensorik beeinträchtigen, während gleichzeitig hohe Anforderungen an Abdeckung, Auflösung und Leistung bestehen.

Zu den wichtigsten Umweltfaktoren gehören:

Für den Einsatz in rauen Industrieumgebungen empfiehlt sich der Einsatz von robusten Sensorgehäusen mit IP65-Schutzart. Kontrollierte Lichtverhältnisse und Schutzmaßnahmen gegen Staub können zudem die Betriebszeiten verbessern und Ausfälle reduzieren.

Aktuelle Forschung und Entwicklung

Der Markt für 3D-maschinelle Sehsysteme wächst schnell: Von 1,55 Milliarden USD im Jahr 2021 wird ein Anstieg auf 3,46 Milliarden USD bis 2027 erwartet, was einer jährlichen Wachstumsrate von 14,7 % entspricht.

Ein Schwerpunkt der Forschung liegt auf der Kombination von LiDAR und Kameratechnologien für autonome Anwendungen. Eine interessante Entwicklung ist der Ansatz „Parallel Structured Light“, der die vollständige Erfassung bewegter Objekte ermöglicht und Bewegungsartefakte minimiert.

"The high-quality capture and 3D reconstruction of dynamic scenes has been an unconquered mountain until recently but technological advancements and thirst for innovation gave rise to unprecedented robotic capabilities. Let's see what comes next." – Andrea Pufflerova, Public Relations Specialist bei Photoneo

Deutsche Forschungseinrichtungen setzen zunehmend auf Simulationen und Testumgebungen, um 3D-Sehsysteme zu validieren. Dabei kommen Deep Learning-Modelle und fortschrittliche Sensoranordnungen zum Einsatz, um die Algorithmen zu verbessern und den Übergang in die Praxis zu erleichtern.

Die Logistikbranche gilt als „späte Anwenderin“ dieser Technologien, was großes Potenzial für zukünftiges Wachstum bietet. Dennoch bleiben hohe Kosten für Produktanpassungen und die unzureichende Entwicklung von Hardware die größten Hindernisse für eine breitere Marktakzeptanz. Diese Herausforderungen und Fortschritte bilden die Grundlage für neue Sicherheitslösungen in der Intralogistik.

Sicherheits- und Funktionsanforderungen für die deutsche Intralogistik

Die Integration von 3D-maschinellen Sehsystemen in fahrerlose Transportsysteme (FTS) erfordert in Deutschland die Einhaltung strenger Sicherheitsvorschriften. Ziel ist es, sowohl die Effizienz als auch den Schutz von Mensch und Maschine zu gewährleisten. Dafür müssen Sensorik, Künstliche Intelligenz (KI) und regulatorische Standards nahtlos miteinander verbunden werden. Im Folgenden werden die wichtigsten regulatorischen Anforderungen sowie die eingesetzten Sicherheitsmerkmale näher beleuchtet.

Regulatorische Compliance für FTS-Sicherheit

Die EN ISO 13849-1 bildet die Grundlage für die Sicherheitsbewertung komplexer Maschinensteuerungssysteme. Diese Norm legt international einheitliche Anforderungen an die Risikobeurteilung fest. Dabei werden Faktoren wie die Schwere einer möglichen Verletzung (S), die Häufigkeit der Exposition (F) und die Möglichkeit, Gefahren zu vermeiden (P) berücksichtigt. Das Ergebnis ist eine Einstufung in fünf Performance Levels von „a“ (niedrig) bis „e“ (hoch).

Zusätzlich ergänzen die Maschinenrichtlinie (MD) und die neue Maschinenverordnung (MR) diese Anforderungen. Die jüngste, vierte Ausgabe der EN ISO 13849-1 aus dem Jahr 2023 integriert zudem Validierungsanforderungen aus Teil 2. Für die praktische Umsetzung werden Sicherheitsfunktionen in der Sicherheitsanforderungsspezifikation (SRS) dokumentiert. Tools wie das IFA SISTEMA-Tool unterstützen dabei, die Sicherheitsintegrität der Systeme zu bewerten.

Sicherheitsmerkmale maschineller Sehsysteme

3D-Sehsysteme in FTS setzen auf eine Kombination aus aktiven und passiven Maßnahmen zur Risikominderung. Zu den aktiven Maßnahmen gehören:

Passiv eingesetzte Maßnahmen umfassen Not-Aus-Einrichtungen, Warnleuchten und akustische Alarme, die zusätzliche Sicherheit bieten.

Vergleich der 3D-Vision-Technologien

Beim Vergleich von 3D-Vision-Technologien steht die Erfüllung der erforderlichen Performance Levels im Mittelpunkt. Mit dem IFA SISTEMA-Tool können Sicherheitsfunktionen wie die FBLG2360T STO-Funktion (Safe Torque Off, PL e) oder der Safety Brake Switch (PL d) bewertet werden. Dabei wird zwischen Safety Integrity Level (SIL) und Performance Level (PL) differenziert.

Die Einhaltung dieser Sicherheitsstandards ist nicht nur gesetzlich vorgeschrieben, sondern auch wirtschaftlich sinnvoll. Sie minimiert Ausfallzeiten und steigert die Betriebssicherheit. Diese präzisen Bewertungen bilden die Basis für die Integration maßgeschneiderter 3D-Lösungen in FTS, wie im nächsten Abschnitt näher erläutert wird.

sbb-itb-9beb1a0

3D-Maschinenvision in kundenspezifischen FTS-Anwendungen

Die Integration von 3D-Sehsystemen in maßgeschneiderte Fahrerlose Transportsysteme (FTS) verbessert die Kollisionsvermeidung und sorgt für einen reibungslosen Materialfluss. Ein Beispiel dafür ist die SICK Visionary‑T DT, die mithilfe der Time-of-Flight-Technologie dreidimensionale Räume analysiert und selbst bei schlechten Lichtverhältnissen potenzielle Kollisionen erkennt. Bei CEIT wird die 3D-Erkennungszone in mehrere Detektionsbereiche unterteilt, um ein abgestuftes Verzögerungsverhalten zu ermöglichen und den Wechsel zwischen verschiedenen Betriebsmodi zu beschleunigen.

"Die Snapshot-Kamera nutzt die 3D-Time-of-Flight-Technologie, um Informationen in Echtzeit zu erfassen und ein vollständiges 3D-Bild des Bereichs in Fahrtrichtung zu erstellen. FTS können daher Objekte auf oder über dem Boden erkennen und entsprechend reagieren."
– Jan Donoval, Product Manager bei SICK Czech Republic

"Um das relevante 3D-Volumen vor dem Fahrzeug abzudecken, wurde die 3D-Erkennungszone in mehrere Detektionsgruppen unterteilt, was zu einem abgestuften Verzögerungsverhalten führt. Beispielsweise können wir über die diskreten Eingänge schnell zwischen einer Konfiguration für Wegfahrt und für Kurven wechseln."
– Michal Lorencovič, Electric Designer bei CEIT

Die wirtschaftlichen Vorteile sind ebenfalls nicht zu übersehen: Ungeplante Stillstände durch Kollisionen können über 350 USD pro Sekunde kosten. 3D-Sensoren von ifm reduzieren die Zeit für Missionszyklen von über 5 Sekunden auf lediglich 200 Millisekunden. Durch die präzisen Erkennungsmechanismen und die Integration mit IT- und ERP-Systemen lässt sich der Materialfluss effizient steuern.

IT- und ERP-System-Integration

Eine nahtlose Verbindung von 3D-Vision-Systemen mit bestehenden IT- und ERP-Infrastrukturen ist entscheidend, um den Materialfluss zu optimieren. Warehouse Management Systeme (WMS) bieten vollständige Transparenz über Bestände, Standorte und Mengen. Über die API des FTS-Systems können Fahrtrouten und Aufgaben in Echtzeit übermittelt werden, was sich ideal für Just-in-Time-Fertigungskonzepte wie KanBan eignet. Ein Beispiel: Nestlé setzt in Biessenhofen FTS ein, um Paletten effizient zu transportieren und zu lagern, wodurch der Warenfluss verbessert und Lagerbestände minimiert werden.

Emm! solutions: Ein modularer Ansatz für FTS

Emm! solutions

Emm! solutions verfolgt einen modularen Ansatz, der maximale Flexibilität bei der Entwicklung von FTS für Innen- und Außenbereiche bietet. Dieser Ansatz ist besonders relevant, da rund 70 % der Produktionszeit für interne Logistikprozesse aufgewendet werden. Das Unternehmen setzt auf SLAM-Navigation mit Laserscannern, die während der Inbetriebnahme eine Karte der Umgebung erstellen. Dadurch wird eine automatische Navigation ermöglicht, die sich schnell an Änderungen in der Produktion oder Logistik anpassen lässt.

Die drei Hauptserien von Emm! solutions verdeutlichen diese Flexibilität:

Ein zentrales Master-Kontrollsystem koordiniert mehrere FTS zu einem synchronisierten Schwarm. Das steigert die Produktivität, minimiert Betriebsunterbrechungen und senkt die Produktionskosten.

Durch die Kombination moderner 3D-Vision-Technologie mit einem flexiblen, modularen Design lassen sich selbst die komplexesten Herausforderungen im Materialfluss lösen – und das bei höchsten Sicherheitsstandards.

Fazit und wichtigste Erkenntnisse

Die 3D-Kollisionsvermeidung durch maschinelles Sehen revolutioniert die Sicherheit und Effizienz von Fahrerlosen Transportsystemen (FTS). Mit präziser Tiefenwahrnehmung und Entscheidungen in Echtzeit können diese Systeme ihre Umgebung „sehen“, interpretieren und darauf reagieren. Diese Fähigkeiten bilden die Basis für zukünftige Entwicklungen in der Intralogistik.

Punktwolkenbasierte Systeme liefern beeindruckende Ergebnisse: Sie erreichen Erkennungsraten von über 99,5 % und bieten Messwerte von 91,91 BEVAP40 sowie 84,90 3DAP40. Das entspricht einer Verbesserung von bis zu 14,38 Punkten bei einer Echtzeiterkennung von 24,86 Hz .

Im Vergleich zu manuellen Inspektionen (87 %) übertreffen KI-gesteuerte 3D-Systeme diese mit einer Genauigkeit von über 99,5 %. Gleichzeitig senken sie die Kosten für die Positionierung von FTS um satte 90 % .

Für die deutsche Intralogistik ist die Einhaltung von Sicherheitsstandards ein Muss. Hier punkten 3D-Vision-Systeme, indem sie Schwächen anderer Sensoren ausgleichen. Während Ultraschallsensoren häufig Fehlalarme auslösen und einzeilige LiDAR-Systeme mit toten Winkeln kämpfen, bieten 3D-Sensoren eine zuverlässigere Alternative.

"It's better to design in safety from the start, rather than try to tack on safety features to an otherwise-completed design, or worse, apply a fix to an existing system after someone was injured" - Carole Strait Franklin, the director of standards development, A3

Diese Worte verdeutlichen, wie wichtig es ist, Sicherheit von Beginn an in die Planung zu integrieren. Die nahtlose Verbindung zu IT- und ERP-Systemen sowie der modulare Ansatz von Emm! solutions (EDDY, IGOR, TONI) verbessern sowohl den Materialfluss als auch die Sicherheitsstandards erheblich.

Ein Blick in die Zukunft zeigt, dass Deep-Reinforcement-Learning-Algorithmen und dezentrale Systeme die Flexibilität und Skalierbarkeit der 3D-Kollisionsvermeidung weiter steigern werden .

FAQs

Welche 3D-Sensortypen werden für die Kollisionsvermeidung in Fahrerlosen Transportsystemen (FTS) eingesetzt und welche Vorteile bieten sie?

Für die 3D-Kollisionsvermeidung in Fahrerlosen Transportsystemen (FTS) werden unterschiedliche Sensoren verwendet, darunter LiDAR, Ultraschall und Radar. Jeder dieser Sensortypen hat eigene Stärken, die je nach Einsatzgebiet optimal genutzt werden können.

Die Entscheidung für einen bestimmten Sensortyp hängt von den Anforderungen der Umgebung und dem benötigten Präzisionsgrad ab. Mit diesen Technologien können FTS sicher und effizient navigieren, was sowohl die Produktivität als auch die Betriebssicherheit erhöht.

Wie verbessert Künstliche Intelligenz die Sicherheit und Effizienz von Fahrerlosen Transportsystemen (FTS) in der Intralogistik?

Künstliche Intelligenz in Fahrerlosen Transportsystemen

Künstliche Intelligenz (KI) spielt eine Schlüsselrolle bei der Weiterentwicklung von Fahrerlosen Transportsystemen (FTS) in der Intralogistik. Mit moderner Sensorik und Bildverarbeitung können FTS ihre Umgebung in Echtzeit analysieren, Hindernisse erkennen und flexibel auf unerwartete Situationen reagieren. Das Ergebnis? Mehr Sicherheit in Arbeitsbereichen und ein deutlich reduziertes Unfallrisiko.

Doch das ist nicht alles. KI verbessert auch die Routenplanung und Navigation. Transportwege werden effizienter genutzt, und die Durchlaufzeiten verkürzen sich spürbar. Das steigert nicht nur die Produktivität, sondern sorgt auch für einen klügeren Einsatz von Ressourcen.

Mit diesen Vorteilen macht KI FTS nicht nur sicherer und zuverlässiger, sondern auch wirtschaftlicher. Für Unternehmen, die ihre Intralogistik zukunftssicher gestalten möchten, ist das ein klarer Wettbewerbsvorteil.

Welche Herausforderungen treten bei der Integration von 3D-Sehsystemen in bestehende Fahrerlose Transportsysteme (FTS) auf, und wie können diese gelöst werden?

Die Einbindung von 3D-Sehsystemen in bestehende Fahrerlose Transportsysteme (FTS) bringt einige Hürden mit sich. Dazu gehören anspruchsvolle Umweltbedingungen, die komplexe Architektur der Systeme und mögliche Schwierigkeiten bei der Kompatibilität mit vorhandenen Steuerungssystemen. Diese Aspekte können sowohl die Leistungsfähigkeit als auch die Zuverlässigkeit der Systeme beeinträchtigen.

Um diese Herausforderungen zu meistern, braucht es durchdachte Systemdesigns, die Faktoren wie wechselnde Lichtverhältnisse oder physische Hindernisse einbeziehen. Ebenso entscheidend ist die Entwicklung einheitlicher Schnittstellen, die eine reibungslose Kommunikation zwischen den verschiedenen Systemkomponenten ermöglichen. Ergänzend dazu tragen moderne Ansätze zur Kalibrierung und Fehlerkorrektur dazu bei, die Genauigkeit und Stabilität der 3D-Sehsysteme sicherzustellen.

Mit diesen Maßnahmen können Unternehmen die Integration vereinfachen und gleichzeitig die Effizienz und Sicherheit ihrer FTS in industriellen Anwendungen erheblich steigern.

Related posts