+49 6221 672 19-00 info@hdvisionsystems.com

Edge Computing für die industrielle Bildverarbeitung – ein Glücksfall für die effiziente Automation

Die Möglichkeiten der industriellen Bildverarbeitung haben in den letzten Jahren durch leistungsstarke Vision Controller deutlich zugenommen. Damit sind heute Aufnahmen, Messungen und Prüfaufgaben möglich, die viele sich so vor wenigen Jahren kaum vorzustellen gewagt hätten. Doch diese Performance-Kapazität kam mit einem Preis: Die Gehäuse der Vision Controller sind seitdem deutlich umfangreicher geworden. Wohin also mit der software-basierten Bildverarbeitung in beengten Produktionsanlagen?

Eine sichere Unternehmens-Cloud wäre möglicherweise die Lösung der Wahl. Allerdings – diese ist aus verschiedenen Gründen in vielen Unternehmen noch nicht praktikabel. Doch damit ist das Thema nicht vom Tisch: denn es gibt eine weitere Option, um Sicherheit und volle Kontrolle mit einem Vision Controller außerhalb der eigentlichen Produktionsanlage zu verbinden:

Edge Computing.

Edge Computing bedeutet eine zeitnahe Datenverarbeitung am Rand des eigenen Netzwerks, aber immer noch in der Nähe der Datenquelle. Praktisch gesprochen: Die Verarbeitung findet nicht in der Produktionsanlage, sondern im nahegelegenen Schaltschrank der Werkhalle statt.

 

Die Edge bietet eine robuste Datenübertragung

Anfallende Daten verlassen so nicht das eigene Unternehmen – häufig ein wichtiger Sicherheitsaspekt. Ebenfalls essenziell für die automatisierte Produktion: Würde die Verarbeitung stattdessen in der Cloud stattfinden, käme es neben einer starken Auslastung des Datennetzwerks auch zu höheren Latenzen. Wie Ingenieure des University College Cork (Irland) herausfanden, verringert die Edge diese im Vergleich zur Cloud spürbar: Je nach Test-Setup übertraf die Edge die Cloud um 67,7 bis 99,4 %. Gleichzeitig erwies sich die Edge als äußert robust. In keinem der Stresstests konnten die Forscher die Edge-Kommunikation unterbrechen. In der Cloud gelang dies – abhängig vom Stresslevel – in 0,11 bis 6,6 % der (jeweils 900.000 simulierten) Anfragen. (Quelle)

Übertragen in die tatsächliche Anwendung bedeutet dies: Gerade in ländlichen Regionen Deutschlands mangelt es hier noch an entsprechender Bandbreite, sodass jeder zu durchlaufende Netzwerkknoten wertvolle Millisekunden kostet. Das würde sich in vielen Gegenden Deutschlands in niedrigeren Taktzeiten niederschlagen.

Eine Bildverarbeitung mittels Edge Computing umgeht diese Hürde und erlaubt trotzdem eine dezentrale Verarbeitung. Ein ebenfalls nicht zu unterschätzender Vorteil ist die Sicherheit gegenüber Internet-Ausfällen: Da Edge-Lösungen in der Bildverarbeitung meist per Kabel verbunden sind (eine drahtlose Kommunikation wäre unter geringen Zeitverlusten ebenfalls denkbar), beeinträchtigen solche Ausfälle oder Schwankungen das System nicht.

 

Schnell und zuverlässig produzieren

Schließlich ermöglicht die Edge, dass alle anfallenden Bilddaten zu jeder Zeit im eigenen Unternehmen verbleiben. Gerade für Prüfteile, die unter Geheimhaltung stehen, ein nicht zu unterschätzender Aspekt. Zwar ist auch mit Cloud-Lösungen inzwischen ein sehr hohes Sicherheitsniveau möglich, doch dieses geht häufig noch mit aufwendigen Maßnahmen zur Verschlüsselung von Daten und Übertragung einher. Manches Unternehmen scheut daher aus gutem Grund noch diese Lösung.

Edge Computing erfreut sich wachsenden Interesses aber auch aus einem anderen Grund: Der Bedarf an Echtzeitanalysen nimmt in der gesamten Industrie, aber auch in der Bildverarbeitung zu. Intelligente Anlagen von heute sind so z.B. in der Lage, aufwendige Qualitätsinspektionen komplexer Teile in wenigen (Milli-)Sekunden zu verarbeiten. Schlechtteile identifiziert die Anlage damit bereits frühzeitig – und kann sie etwa für eine anschließende Nachbearbeitung direkt aussortieren. Ausschuss und Müll werden so drastisch reduziert. Im Gegensatz zur Cloud kann die Edge bei diesen hohen Taktzeiten problemlos mithalten; ein wichtiger Vorteil in Sachen Effizienz.

 

Verdrängt Edge Computing die Cloud?

Ganz klar: Zum aktuellen Zeitpunkt kann Edge Computing der industriellen Bildverarbeitung zuverlässigeren Nutzen mit geringerem Aufwand bieten als die Cloud. Doch letztere disqualifiziert sich deswegen noch lange nicht für die automatisierte Industrie.

Bereits jetzt sind hybride Lösungen denkbar, die das Beste aus Edge und Cloud Computing miteinander vereinen: So kann in der KI-basierten Qualitätsinspektion die Edge die zeitkritische Prüfung der durchlaufenden Werkstücke mithilfe vortrainierter neuronaler Netze übernehmen. Eine angeschlossene Cloud kann dann die dauerhafte Dokumentation aller Teile übernehmen – zur Absicherung etwaiger Garantieansprüche eine möglicherweise wichtige Funktion. Außerdem könnten spezielle Cloud-Dienste nach Produktionsschluss die angefallenen Bilddaten des Tages nutzen, um die bestehenden neuronalen Netze weiter zu optimieren.

Sind die Bilddaten zu groß oder zeigen eine zu große Szene, kann die Edge diese Daten vorverarbeiten und beispielsweise zuschneiden. Über diesen einfachen Schritt lassen sich auf mittlere Sicht Kosten vermeiden, denn durch die kleineren Bilddateien verringert sich auch der Speicherbedarf in der Cloud. Cloud und Edge werden so zum dynamischen Duo, das sich seine Bälle gegenseitig zuspielt.

 

Vielfältige Einsatzgebiete für Edge Computing in der Bildverarbeitung

Aufgrund ihrer Eigenschaften findet die Edge für die industrielle Bildverarbeitung inzwischen in den verschiedensten Bereichen Anwendung. So finden sich Edge-verbundene Kamerasysteme häufig:

  • In der Sicherheitsüberwachung,
  • Bei der Aufnahme verschiedenster Bild-basierter Daten aus IoT und IIoT,
  • In autonomen Fahrzeugen,
  • In der Dokumentation industriell gefertigter (Teil-)Produkte,
  • In der Qualitätssicherung von automatisierten Produktionen.

Grundsätzlich lassen sich jedoch alle Bildverarbeitungs-Aufgaben auch in der Edge lösen – vorausgesetzt, ihre Verarbeitung gestaltet sich so aufwendig, dass ein umfangreicher Vision-Controller notwendig ist bzw. die integrierte Lösung unwirtschaftlich oder unpassend ist. Andernfalls könnte Embedded Vision die Lösung der Wahl darstellen – hier ist die Verarbeitung direkt in die Kamera integriert.

 

Edge Computing in immer mehr Vision-Systemen

Zunehmende Effizienz, höhere Anforderungen, wenig Platz. Die Gründe für ein Edge-basiertes Vision-Systems sind vielfältig, schließlich bietet das Setup zahlreiche Vorteile. Auch deswegen setzen immer mehr Produktionen auf eine industrielle Bildverarbeitung über die Edge. Die ursprünglich ausschlaggebenden Raumprobleme in der Anlage rücken dabei zunehmend in den Hintergrund und machen Platz für eine effiziente und sichere Automatisierung.

In der sich rasant entwickelnden Welt der industriellen Automatisierung ist eine zuverlässige und flexible Objekterkennung ein Grundpfeiler für Vision-Guided Robotics (VGR) und Qualitätssicherung. Bei HD Vision Systems ist es unsere Mission, die Grenzen des Möglichen in der Automatisierung neu zu definieren. Als Vision-Partner auf der Bosch Rexroth CtrlX-Plattform bringen wir modernste Bildverarbeitungstechnologie durch leistungsstarke Apps auf den Fabrikboden, die Konnektivität vereinfachen und die Leistung verbessern.

Pattern Matching: Ein traditioneller Ansatz

Eine der häufigsten Fragen beim Entwurf von Automatisierungslösungen ist, ob traditionelle Pattern-Matching-Techniken oder moderne KI-basierte Objekterkennung verwendet werden sollen. Pattern Matching ist regelbasiert und nutzt manuell definierte Vorlagen oder geometrische Formen zur Objekterkennung. Obwohl es lange ein fester Bestandteil klassischer Bildverarbeitung war, stößt es unter realen Bedingungen oft an seine Grenzen. Änderungen in Beleuchtung, Ausrichtung, Maßstab oder selbst kleine Verdeckungen können zu Erkennungsfehlern führen. Zudem ist die Einrichtung aufwändig, erfordert Expertenwissen und lässt sich nur schwer an Veränderungen in der Produktionslinie anpassen.

Deep Learning: Intelligent und anpassungsfähig

Im Gegensatz dazu nutzt die KI-basierte Objekterkennung datengetriebene Modelle, die auf großen und vielfältigen Datensätzen trainiert wurden. Diese Modelle erkennen Objekte anhand abstrakter Muster und sind dadurch wesentlich robuster und flexibler. Sie kommen mit unterschiedlichsten Abweichungen und Unregelmäßigkeiten in industriellen Umgebungen zurecht. Mithilfe von Transfer Learning und Datenaugmentation lassen sich Modelle zudem schnell auf neue Objekte oder Bedingungen anpassen – ganz ohne komplexes Regelwerk.

Integrierte KI auf CtrlX

Wir bei HD Vision Systems setzen konsequent auf diesen modernen Ansatz und haben ihn direkt in die Bosch Rexroth CtrlX-Plattform integriert. Unsere Apps ermöglichen den Anschluss von Standard-Industriekameras gemäß dem GenICam-Standard via Ethernet. Die aufgenommenen Bilder werden von KI-Modellen direkt im CtrlX-Ökosystem verarbeitet. Die Ergebnisse sind nicht nur präzise, sondern werden auch automatisch aus 2D-Bildkoordinaten in 3D-Weltkoordinaten überführt – entscheidend für präzise Roboterführung und Qualitätssicherung.

Vor-Ort-Training und Individualisierung

Neben vortrainierten Modellen bieten wir Frameworks an, mit denen Nutzer eigene Bilddaten annotieren und individuelle Objekterkennungsnetzwerke trainieren können – komplett vor Ort, ohne Daten in die Cloud zu senden. So behalten Sie die volle Kontrolle über Datenschutz und Datensicherheit. Integratoren und Endanwender können so hochspezialisierte Erkennungslösungen entwickeln – exakt zugeschnitten auf ihre Anwendung.

Zukunftsausblick: KI für moderne Fertigung

Pattern Matching hatte seine Zeit, aber die zunehmende Komplexität moderner Fertigungsprozesse verlangt intelligentere, flexiblere Systeme. Deep Learning liefert genau das. Mit den fortschrittlichen Vision-Tools von HD Vision Systems und der Modularität der Bosch Rexroth CtrlX-Plattform stehen Herstellern leistungsstarke Objekterkennungslösungen zur Verfügung, die mit ihren Anforderungen wachsen.

Egal ob Nachrüstung bestehender Anlagen oder Neuplanung – jetzt ist der richtige Zeitpunkt, die Kraft KI-gesteuerter Bildverarbeitung zu nutzen. Wir freuen uns, Sie dabei zu begleiten.

Continue reading:

Share This