Entwicklung sicherer, intelligenter und effizienter autonomer Roboter

Update: 9. November 2021

Autonome Roboter sind intelligente Maschinen, die ihre Umgebung ohne menschliche Kontrolle oder Eingriff verstehen und durch sie navigieren können. Obwohl autonomer Roboter Technologie ist relativ jung, es gibt viele verschiedene Anwendungsfälle autonomer Roboter in Fabriken, Lagerhäusern, Städten und Privathäusern. Beispielsweise können autonome Roboter zum Transport von Waren in Lagerhäusern eingesetzt werden, beispielsweise in Figure 1, oder führen die Zustellung auf der letzten Meile durch, während andere Arten von autonomen Robotern Häuser saugen oder Rasen mähen können.

Entwicklung sicherer, intelligenter und effizienter autonomer Roboter

Abbildung 1: Ein Roboter führt Aufgaben in einem Lager aus. (Quelle: Texas Instruments)

Autonomie erfordert, dass Roboter eine kartierte Umgebung wahrnehmen und sich darin orientieren können, Hindernisse um sie herum dynamisch erkennen, diese Hindernisse verfolgen, ihre Route zu einem bestimmten Ziel planen und das Fahrzeug so steuern, dass es diesem Plan folgt. Darüber hinaus darf der Roboter diese Aufgaben nur dann ausführen, wenn dies sicher ist, um Situationen zu vermeiden, die Gefahren für Mensch, Eigentum oder das autonome System selbst darstellen.

Da Roboter so nah wie nie zuvor am Menschen arbeiten, müssen sie nicht nur autonom, mobil und energieeffizient sein, sondern auch die Anforderungen an die funktionale Sicherheit erfüllen. Sensoren, Prozessoren und Steuergeräte können Designern dabei helfen, die strengen Anforderungen funktionaler Sicherheitsstandards wie der International Electrotechnical Commission (IEC) 61508 zu erfüllen.

Überlegungen zur Sensorik in autonomen Robotern

Ein Roboter ohne Sensoren kollidiert unweigerlich mit Hindernissen, einschließlich Wänden, anderen Robotern oder Menschen, und kann möglicherweise zu schweren Verletzungen führen. Es gibt verschiedene Arten von Sensoren, die helfen können, die Herausforderungen autonomer Roboter zu lösen.

Vision-Sensoren emulieren das menschliche Sehen und die Wahrnehmung genau. Bildverarbeitungssysteme können die Herausforderungen der Lokalisierung, Hinderniserkennung und Kollisionsvermeidung lösen, da sie über eine hochauflösende räumliche Abdeckung verfügen und Objekte nicht nur erkennen, sondern auch klassifizieren können. Vision-Sensoren sind im Vergleich zu Sensoren wie LiDAR auch kostengünstiger. Vision-Sensoren sind jedoch sehr rechenintensiv.

Stromhungrige Zentraleinheiten (CPUs) und Grafikprozessoren (GPUs) können in autonomen Robotersystemen mit eingeschränkter Leistung eine Herausforderung darstellen. Bei der Entwicklung eines energieeffizienten Robotersystems sollte die CPU- oder GPU-basierte Verarbeitung minimal sein.

Das System-on-Chip (SoC) in einem effizienten Bildverarbeitungssystem soll die Bildsignalkette mit hohen Geschwindigkeiten und geringem Stromverbrauch bei optimierten Systemkosten verarbeiten. Der SoC muss auch rechenintensive Aufgaben wie Rohbildverarbeitung, Entzerrung, Stereotiefenschätzung, Skalierung, Bildpyramidengenerierung und Deep Learning für maximale Systemeffizienz entlasten. Für die Bildverarbeitung verwendete SoCs müssen intelligent, sicher und energieeffizient sein, was durch eine hohe On-Chip-Integration in einer heterogenen SoC-Architektur erreicht werden kann.

Schauen wir uns als Beispiel die Verwendung der Millimeterwellen-Radarerfassung (mmWave) von Texas Instruments (TI) in autonomen Robotern genauer an. Der Einsatz von TI mmWave-Radar in Roboteranwendungen ist ein relativ neues Konzept, aber die Idee, TI mmWave-Sensoren für die Autonomie zu verwenden, gibt es schon seit einiger Zeit. In Automobilanwendungen ist das mmWave-Radar von TI eine der Schlüsselkomponenten von fortschrittlichen Fahrerassistenzsystemen (ADAS) und wurde zur Überwachung der Umgebung eines Fahrzeugs verwendet. Sie können einige der gleichen ADAS-Konzepte, wie die Rundumsicht-Überwachung oder die Kollisionsvermeidung, auf autonome Roboter anwenden.

Das mmWave-Radar von TI ist aus Sicht der Sensortechnologie einzigartig, da diese Sensoren Informationen zu Reichweite, Geschwindigkeit und Einfallswinkel von Objekten liefern und den Roboter besser anweisen, wie er zur Kollisionsvermeidung navigieren soll. Radar verwenden Sensor Daten kann der Roboter je nach Position, Geschwindigkeit und Flugbahn einer sich nähernden Person oder eines Objekts entscheiden, ob er seine Bahn sicher fortsetzt oder langsamer oder sogar anhält, wie in . gezeigt Figure 2.

Es ist wichtig zu beachten, dass das mmWave-Radar von TI die Umgebung in drei Dimensionen betrachtet, wodurch der Sensor Objekte erkennen kann, die sich möglicherweise nicht direkt im Fahrweg des Roboters befinden. Aufgrund dieser 3D-Erkennung können die mmWave-Radarsensoren von TI zusätzlich Höheninformationen liefern, die nicht nur für die Erkennung von auf dem Boden liegenden Objekten, sondern auch von Objekten, die von oben in die Bahn eines Roboters hineinragen, entscheidend sind.

TI mmWave-Sensoren können auch Glas und andere transparente Materialien zuverlässig erkennen, die andere Sensoren wie Kameras und LiDAR möglicherweise durch das transparente Objekt „sehen“ und nicht genau erkennen können. Das mmWave-Radar von TI ist auch unter schwierigen Umgebungsbedingungen robuster, bei denen optische Sensoren eher Schwierigkeiten haben. Da das mmWave-Radar von TI zur Erkennung von Objekten Funkwellen anstelle von Licht verwendet, ist es immun gegen Umgebungsfaktoren wie schwache Beleuchtung, Regen, Nebel, Staub und Rauch.

Abbildung 2: Ein Lagerroboter verwendet Radarsensorik. (Quelle: Texas Instruments Inc.)

Bewältigung komplexer autonomer Roboterprobleme mit Sensorfusion und KI

Bei komplizierteren autonomen Roboteranwendungen reicht ein einzelner Sensor allein möglicherweise nicht aus, um die Autonomie unabhängig von der Art des Sensors zu ermöglichen. Unterschiedliche Erfassungsmodalitäten haben unterschiedliche Stärken und Grenzen.

Radar eignet sich gut für die Objekterkennung und bietet eine große Sichtweite in schwierigen Umgebungen, hat jedoch Einschränkungen bei der Objektklassifizierung oder Objektkantenpräzision. LiDAR-Sensoren können Präzision und Genauigkeit bieten, können jedoch teuer und energiehungrig sein. Vision-Sensoren können Objektklassifizierung und Szenenintelligenz mit hoher Auflösung bereitstellen, können jedoch rechenintensiv sein und für den Betrieb eine externe Lichtquelle erfordern. Letztendlich sollen sich Sensoren wie Kamera oder Radar in einem System ergänzen. Die Nutzung der Stärken verschiedener Sensormodalitäten durch Sensorfusion kann dazu beitragen, einige der komplexeren Herausforderungen an autonome Roboter zu lösen.

Während die Sensorfusion autonomen Robotern hilft, genauer zu sein, kann der Einsatz von künstlicher Intelligenz am Edge dazu beitragen, Roboter intelligent zu machen. Die Integration von KI in autonome Robotersysteme kann dazu beitragen, dass Roboter intelligent wahrnehmen, Entscheidungen treffen und Aktionen ausführen.

Ein autonomer Roboter mit KI kann das Objekt und seine Position intelligent erkennen, das Objekt klassifizieren und entsprechend handeln. Wenn ein Roboter beispielsweise durch ein geschäftiges Lagerhaus navigiert, kann die KI dem Roboter helfen, abzuleiten, welche Arten von Objekten – einschließlich Menschen, Kisten, Maschinen oder sogar andere Roboter – sich auf seinem Weg befinden, und zu entscheiden, welche Aktionen angemessen sind, um sie zu umgehen.

KI kann Robotern auch dabei helfen, bestimmte Aufgaben autonomer auszuführen. Wenn ein Roboter beispielsweise einen Transportwagen in einem Lagerhaus bewegt, hilft ihm die bildbasierte KI dabei, die Pose und Position des Transportwagens zu erkennen und abzuleiten, sodass der Roboter sich selbst genau positionieren, am Transportwagen befestigen und ihn dann bewegen kann rund um den Lagerboden.

Bei der Entwicklung eines Robotersystems mit KI sollten Designüberlegungen sowohl für Hardware als auch für Software berücksichtigt werden. Idealerweise sollte der SoC über Hardwarebeschleuniger für KI-Funktionen verfügen, um rechenintensive Aufgaben in Echtzeit ausführen zu können. Der Zugriff auf eine benutzerfreundliche KI-Softwareentwicklungsumgebung kann dazu beitragen, die Anwendungsentwicklungs- und Hardwarebereitstellungsprozesse zu vereinfachen und zu beschleunigen.

Zusammenfassung

Die Entwicklung intelligenterer und autonomer Roboter ist eine Notwendigkeit, um die Automatisierung weiter zu verbessern. Roboter können in Lagern und in der Auslieferung eingesetzt werden, um mit dem Wachstum des E-Commerce Schritt zu halten und es zu steigern. Roboter können alltägliche Haushaltsaufgaben wie Staubsaugen und Mähen ausführen. Der Einsatz autonomer Roboter setzt Produktivität und Effizienz frei, die dazu beiträgt, unser Leben zu verbessern und aufzuwerten.

Über die Autoren

Manisha Agrawal ist Produktmarketing-Ingenieurin für die Jacinto-Prozessor-Produktlinie. Sie hat jahrelange Erfahrung in der End-to-End-Bildsignalverarbeitung auf TI-SoCs durch verschiedene Rollen in der Software-, Anwendungs- und Systementwicklung. Ihr aktueller Schwerpunkt und Interessensgebiet liegt auf KI und Robotik. Manisha hat einen MS in Elektrotechnik vom IIT Kanpur, Indien, und hält drei Patente in ihrem Namen.

Jitin George ist Produktmarketing-Ingenieur für industrielle mmWave-Radarsensoren bei Texas Instruments. Seit 2019 leitet er die weltweiten Marketingaktivitäten für Industrieradar in der Fabrikautomation mit besonderem Fokus auf das wachsende Geschäft im Robotikmarkt.

Sam Visalli ist der Systemmanager für die Sitara MCU-Produktlinie. Sam hat die letzten Jahre als Manager für funktionale Sicherheit für die Produktlinien Jacinto und Sitara Prozessoren gearbeitet. Er hat TI geholfen, Produkte und Systeme für so unterschiedliche funktionale Sicherheitsanwendungen wie autonomes Fahren, Fabrikautomatisierung und Robotik zu entwickeln. Sam ist auch in den US-Ausschüssen für die funktionalen Sicherheitsstandards IEC61508 und ISO26262 tätig und arbeitet mit mehreren TI-weiten Initiativen zur funktionalen Sicherheit zusammen.

über Texas Instruments