Wie Sensorfusion es AMRs ermöglicht, effizient in Fabrikhallen zu manövrieren

Update: 17. April 2024

Da immer mehr Menschen und autonome mobile Roboter (AMRs), auch industrielle mobile Roboter (IMRs) im selben Bereich arbeiten, müssen mehrere inhärente Sicherheitsrisiken angegangen werden. Der sichere und effiziente Betrieb von AMRs ist zu wichtig, als dass man sich auf einen einzigen Sensor verlassen könnte Technologie.

Multisensorfusion oder einfach „Sensorfusion“ kombiniert Technologien wie Laser-Entfernungsmessung (LIDAR), Kameras, Ultraschallsensoren, Laser-Hindernissensoren und Radiofrequenzidentifikation (RFID), um eine Reihe von AMR-Funktionen zu unterstützen, einschließlich Navigation und Pfad Planung, Kollisionsvermeidung, Bestandsverwaltung und Logistikunterstützung. Die Senor-Fusion umfasst auch die Alarmierung von Menschen in der Nähe auf das Vorhandensein des AMR.

Um dem Bedarf an einem sicheren und effizienten Betrieb von AMRs gerecht zu werden, entwickeln das American National Standards Institute (ANSI) und die Association for Advancing Automation (A3), ehemals Robotic Industries Association (RIA), die ANSI/A3 R15.08-Serie von Standards. R15.08-1 und R15.08-2 wurden veröffentlicht und konzentrieren sich auf grundlegende Sicherheitsanforderungen und die Integration von AMRs in einen Standort. R15.08-3 befindet sich derzeit in der Entwicklung und wird die Sicherheitsanforderungen für AMRs erweitern, einschließlich detaillierterer Empfehlungen für den Einsatz von Sensorfusion.

Im Vorfeld von R15.08-3 werden in diesem Artikel einige der heutigen Best Practices im Zusammenhang mit Sicherheit und Sensorfusion in AMRs besprochen. Der Artikel beginnt mit einem kurzen Überblick über die Anforderungen an die funktionale Sicherheit, die derzeit bei AMRs verwendet werden, einschließlich allgemeiner Industriesicherheitsstandards wie IEC 61508 und ISO 13849 und IEC 62061 sowie die Sicherheitsanforderungen für die Erfassung menschlicher Anwesenheit wie IEC 61496 und IEC 62998. Anschließend wird ein typisches AMR-Design mit einer detaillierten Beschreibung der zahlreichen Sensortechnologien vorgestellt, repräsentative Geräte vorgestellt und untersucht, wie sie Funktionen wie Navigation, Pfadplanung, Lokalisierung, Kollisionsvermeidung und Unterstützung bei der Bestandsverwaltung/Logistik.

Gut besser am besten

AMR-Entwickler müssen eine Reihe von Sicherheitsstandards berücksichtigen, angefangen bei allgemeinen funktionalen Sicherheitsstandards wie IEC 61508, ISO 13849 und IEC 62061. Es gibt auch spezifischere Sicherheitsstandards im Zusammenhang mit der Erkennung menschlicher Anwesenheit, wie z. B. IEC 61496 und IEC 62998 und die Normenreihe ANSI/A3 R15.08.

IEC 61496 bietet Leitlinien für verschiedene Sensortypen. Es bezieht sich auf IEC 62061, das Anforderungen spezifiziert und Empfehlungen für den Entwurf, die Integration und die Validierung von elektrosensibler Schutzausrüstung (BWS) für Maschinen, einschließlich Sicherheitsintegritätsniveaus (SILs), gibt, und ISO 13849, das die Sicherheit von Maschinen und sicherheitsbezogene Aspekte abdeckt Teile von Steuerungssystemen, einschließlich Sicherheitsleistungsniveaus (PLs) (Tabelle 1).

Anforderung Typ
1 2 3 4
Sicherheitsleistung gemäß IEC 62061 und/oder ISO 13849-1 N / A SIL 1 und/oder PL c SIL 2 und/oder PL d SIL 3 und/oder PL e
SIL = Sicherheitsintegritätslevel; PL = Leistungsniveau

Tabelle 1: Sicherheitsanforderungen für BWS nach Typ gemäß IEC 61496. (Quelle der Tabelle: Analog Devices)

IEC 62998 ist neuer und kann oft die bessere Wahl sein, da es Anleitungen zur Implementierung von Sensorfusion, zum Einsatz künstlicher Intelligenz (KI) in Sicherheitssystemen und zur Verwendung von auf beweglichen Plattformen montierten Sensoren außerhalb des Geltungsbereichs von IEC 61496 enthält.

R15.08 Teil 3 könnte bei seiner Veröffentlichung die R15.08-Serie zur besten machen, da es Sicherheitsanforderungen für Benutzer von AMR-Systemen und AMR-Anwendungen hinzufügt. Mögliche Themen könnten die Sensorfusion und umfassendere Tests und Validierungen der AMR-Stabilität sein.

Sensorfusionsfunktionen

Die Kartierung der Anlage ist ein wesentlicher Aspekt der AMR-Inbetriebnahme. Aber es ist keine einmalige Aktivität. Es ist auch Teil eines laufenden Prozesses namens Simultaneous Localization and Mapping (SLAM), manchmal auch synchronisierte Lokalisierung und Mapping genannt. Dabei wird die Karte eines Gebiets kontinuierlich auf etwaige Änderungen hin aktualisiert und gleichzeitig der Standort des Roboters verfolgt.

Sensorfusion ist erforderlich, um SLAM zu unterstützen und den sicheren Betrieb von AMRs zu ermöglichen. Nicht alle Sensoren funktionieren unter allen Betriebsbedingungen gleich gut und unterschiedliche Sensortechnologien erzeugen unterschiedliche Datentypen. KI kann in Sensorfusionssystemen verwendet werden, um Informationen über die lokale Betriebsumgebung (ist es dunstig oder rauchig, feucht, wie hell ist das Umgebungslicht usw.) zu kombinieren und durch die Kombination der Ergebnisse verschiedener Sensortechnologien ein aussagekräftigeres Ergebnis zu ermöglichen.

Sensorelemente können sowohl nach Funktion als auch nach Technologie kategorisiert werden. Beispiele für Sensorfusionsfunktionen in AMRs sind (Abbildung 1):

  • Abstandssensoren wie Encoder auf Rädern und Trägheitsmesseinheiten mit Gyroskopen und Beschleunigungsmessern helfen dabei, die Bewegung zu messen und den Bereich zwischen Referenzpositionen zu bestimmen.
  • Bildsensoren wie dreidimensionale (3D) Kameras und 3D-LiDAR werden verwendet, um Objekte in der Nähe zu identifizieren und zu verfolgen.
  • Kommunikationsverbindungen, Rechenprozessoren und Logistiksensoren wie Barcode-Scanner und Radiofrequenz-Identifikationsgeräte (RFID) verbinden den AMR mit anlagenweiten Managementsystemen und integrieren Informationen von externen Sensoren in das Sensorfusionssystem des AMR, um die Leistung zu verbessern.
  • Näherungssensoren wie Laserscanner und zweidimensionale (2D) LiDAR erkennen und verfolgen Objekte in der Nähe des AMR, einschließlich der Bewegung von Personen.

Abbildung 1: Beispiele für gängige Sensortypen und zugehörige Systemelemente, die in AMR-Sensorfusionsdesigns verwendet werden. (Bildquelle: Qualcomm)

2D-LiDAR, 3D-LiDAR und Ultraschall

2D- und 3D-LiDAR und Ultraschall sind gängige Sensortechnologien, die SLAM und Sicherheit in AMRs unterstützen. Die Unterschiede zwischen diesen Technologien ermöglichen es einem Sensor, die Schwächen der anderen auszugleichen, um Leistung und Zuverlässigkeit zu verbessern.

2D-LiDAR nutzt eine einzelne Laserbeleuchtungsebene, um Objekte anhand der X- und Y-Koordinaten zu identifizieren. 3D-LiDAR verwendet mehrere Laserstrahlen, um eine hochdetaillierte 3D-Darstellung der Umgebung, eine sogenannte Punktwolke, zu erstellen. Beide Arten von LiDAR sind relativ immun gegen Umgebungslichtbedingungen, erfordern jedoch, dass zu erkennende Objekte einen Mindestreflexionsschwellenwert der vom Laser emittierten Wellenlänge aufweisen. Im Allgemeinen kann 3D-LiDAR Objekte mit geringem Reflexionsvermögen zuverlässiger erkennen als 2D-LiDAR.

Der 3D-LiDAR-Sensor HPS-160D3 von Seeed Technology integriert leistungsstarke 850-nm-Infrarot-VCSEL-Emitter (Vertical-Cavity Surface Emitting Laser) und ein hochlichtempfindliches CMOS. Der eingebettete Hochleistungsprozessor umfasst Filter- und Kompensationsalgorithmen und kann mehrere gleichzeitige LiDAR-Vorgänge unterstützen. Das Gerät hat eine zentimetergenaue Reichweite von bis zu 12 Metern.

Wenn eine 2D-LiDAR-Lösung benötigt wird, können Entwickler auf den TIM781S-2174104 von SICK zurückgreifen. Es verfügt über einen Öffnungswinkel von 270 Grad mit einer Winkelauflösung von 0.33 Grad und einer Scanfrequenz von 15 Hz. Der sicherheitsrelevante Arbeitsbereich beträgt 5 Meter (Abbildung 2).

Abbildung 2: Dieser 2D-LiDAR-Sensor hat einen Öffnungswinkel von 270 Grad. (Bildquelle: SICK)

Ultraschallsensoren können durchlässige Objekte wie Glas und lichtabsorbierende Materialien, die LiDAR nicht immer erkennen kann, genau erkennen. Ultraschallsensoren sind außerdem weniger anfällig für Störungen durch hohen Staub-, Rauch-, Feuchtigkeitsgehalt und andere Bedingungen, die LiDAR stören können. Allerdings reagieren Ultraschallsensoren empfindlich auf Störungen durch Umgebungsgeräusche und ihre Erfassungsbereiche können eingeschränkter sein als bei LiDAR.

Ultraschallsensoren wie der TSPC-30S1-232 von Senix können LiDAR und andere Sensoren für AMR SLAM und Sicherheit ergänzen. Die optimale Reichweite beträgt 3 Meter, verglichen mit 5 Metern beim 2D-LiDAR und 12 Metern beim oben beschriebenen 3D-LiDAR. Dieser temperaturkompensierte Ultraschallsensor hat die Schutzart IP68 und ist in einem gegen Umwelteinflüsse abgedichteten Edelstahlgehäuse untergebracht (Abbildung 3).

Abbildung 3: Umweltgeschützter Ultraschallsensor mit einer optimalen Reichweite von 3 Metern. (Bildquelle: DigiKey)

Unter Sensorfusion versteht man in der Regel die Verwendung mehrerer diskreter Sensoren. In manchen Fällen werden jedoch mehrere Sensoren als eine Einheit verpackt.

Drei Sensoren in einem

Die visuelle Wahrnehmung mithilfe eines Kamerapaars zur Erzeugung stereoskopischer Bilder sowie einer auf KI und ML basierenden Bildverarbeitung kann es dem AMR ermöglichen, den Hintergrund zu erkennen und Objekte in der Nähe zu identifizieren. Es sind Sensoren erhältlich, die Stereo-Tiefenkameras, eine separate Farbkamera und eine IMU in einer Einheit umfassen.

Stereo-Tiefenkameras wie die Intel RealSense D455 RealSense-Tiefenkameras Verwenden Sie zwei Kameras, die durch eine bekannte Basislinie getrennt sind, um die Tiefe zu erfassen und die Entfernung zu einem Objekt zu berechnen. Ein Schlüssel zur Präzision ist die Verwendung eines stabilen Stahlrahmens, der auch in anspruchsvollen Industrieumgebungen einen exakten Abstand zwischen den Kameras gewährleistet. Die Genauigkeit des Tiefenwahrnehmungsalgorithmus hängt von der Kenntnis des genauen Abstands zwischen den beiden Kameras ab.

Beispielsweise wurde die Tiefenkamera Modell 82635DSD455MP für AMRs und ähnliche Plattformen optimiert und der Abstand zwischen den Kameras auf 95 mm erweitert (Abbildung 4). Dadurch kann der Tiefenberechnungsalgorithmus den Schätzfehler auf weniger als 2 % bei 4 Metern reduzieren.

Abbildung 4: Dies Modulen umfasst Stereo-Tiefenkameras mit einem Abstand von 95 mm, eine separate Farbkamera und eine IMU. (Bildquelle: DigiKey)

D455-Tiefenkameras verfügen außerdem über eine separate Farbkamera (RGB). Ein Global Shutter für bis zu 90 Bilder pro Sekunde an der RGB-Kamera, abgestimmt auf das Sichtfeld (FOV) des Tiefenbildgebers, verbessert die Übereinstimmung zwischen den Farb- und Tiefenbildern und verbessert so die Fähigkeit, die Umgebung zu verstehen. D455-Tiefenkameras integrieren eine IMU mit sechs Freiheitsgraden, die es dem Tiefenberechnungsalgorithmus ermöglicht, die Bewegungsrate des AMR einzubeziehen und dynamische Tiefenerkennungsschätzungen zu erstellen.

Den Weg erhellen und erklingen lassen

Blinkende Lichter und akustische Warnungen für Personen in der Nähe eines AMR sind wichtig für die AMR-Sicherheit. Die Leuchten liegen meist in Form eines Lichtmastes oder Lichtstreifens an den Seiten des AMR vor. Sie helfen dem Roboter, den Menschen seine beabsichtigte(n) Aktion(en) mitzuteilen. Sie können auch Statusanzeigen wie das Laden der Batterie, Be- oder Entladeaktivitäten, die Absicht, in eine neue Richtung abzubiegen (z. B. die Blinker eines Autos), Notfallbedingungen usw. anzeigen.

Es gibt keine Standards für Lichtfarben, Blinkgeschwindigkeiten oder akustische Alarme. Sie können je nach AMR-Hersteller variieren und werden häufig so entwickelt, dass sie die spezifischen Aktivitäten in der Einrichtung widerspiegeln, in der der AMR tätig ist. Lichtleisten sind mit und ohne eingebauten akustischen Alarmmechanismus erhältlich. Beispielsweise verfügt das Modell TLF100PDLBGYRAQP von Banner Engineering über ein versiegeltes akustisches Element mit 14 wählbaren Tönen und Lautstärkeregelung (Abbildung 5).

Abbildung 5: Dieser Lichtbalken-Melder enthält ein versiegeltes akustisches Element (oberer schwarzer Kreis). (Bildquelle: DigiKey)

Logistikunterstützung

AMRs sind Teil größerer Betriebsabläufe und müssen häufig in die Software Enterprise Resource Planning (ERP), Manufacturing Execution System (MES) oder Warehouse Management System (WMS) integriert werden. Das Kommunikationsmodul des AMR in Verbindung mit Sensoren wie Barcode- und RFID-Lesegeräten ermöglicht die enge Integration von AMRs in Unternehmenssysteme.

Wenn ein Barcode-Lesegerät benötigt wird, können Designer auf den V430-F000W12M-SRP von Omron zurückgreifen, der 1D- und 2D-Barcodes auf Etiketten oder Direct Part Mark (DPM)-Barcodes dekodieren kann. Es verfügt über einen Autofokus mit variabler Entfernung, ein Objektiv mit großem Sichtfeld, einen 1.2-Megapixel-Sensor, ein integriertes Licht und eine Hochgeschwindigkeitsverarbeitung.

Das DLP-RFID2 von DLP Design ist ein kostengünstiges, kompaktes Modul zum Lesen und Beschreiben von Hochfrequenz-(HF)-RFID-Transponder-Tags. Es kann auch die eindeutigen Identifikatoren (UDI) von bis zu 15 Tags gleichzeitig lesen und kann für die Verwendung einer internen oder externen Antenne konfiguriert werden. Der Betriebstemperaturbereich liegt zwischen 0 °C und +70 °C und eignet sich somit für den Einsatz in Industrie 4.0-Fertigungs- und Logistikanlagen.

Zusammenfassung

Die Sensorfusion ist ein wichtiges Werkzeug zur Unterstützung von SLAM und Sicherheit bei AMRs. Im Vorgriff auf R15.08-3, der möglicherweise Hinweise auf Sensorfusion und umfassendere AMR-Stabilitätstests und -validierung enthält, wurden in diesem Artikel einige aktuelle Standards und Best Practices für die Implementierung der Sensorfusion bei AMRs untersucht. Dies ist der zweite Artikel einer zweiteiligen Serie. Teil eins befasste sich mit der sicheren und effizienten Integration von AMRs in Industrie-4.0-Abläufe mit größtmöglichem Nutzen.