+49 6221 672 19-00 info@hdvisionsystems.com

Wie entstehen präzise 3D-Modelle?

Dieser Beitrag ist in Zusammenarbeit mit unserem Experten Dr. Silvan Lindner entstanden.

 

Lediglich einzelne Produktionsschritte miteinander zu verbinden reicht in einer zunehmend digitalen Industrie nicht mehr aus. Um Anforderungen an Qualität, Sicherheit und Dokumentation gerecht zu werden, wird immer häufiger ein digitaler Zwilling – ein 3D-Modell – genutzt. Doch wie entsteht aus einem real vorhandenen Werkstück ein digitales 1:1 Abbild?

Um aus einem echten Objekt ein zuverlässiges 3D-Modell zu erstellen, sind vor allem zwei Schritte im Digitalisierungsprozess essentiell:

  1. Hochwertige Ausgangsinformationen (die Punktwolke)
  2. Zuverlässige Verarbeitung der Informationen zum eigentlichen 3D-Modell

Doch bevor wir uns diese Aspekte anschauen können, muss eine Frage noch geklärt werden. Sie hilft einzuordnen, wo sich Schwierigkeiten in der 3D-Modellierung verbergen können:

 

Woraus besteht ein 3D-Modell?

Im Prinzip handelt es sich bei einer digitalen 3D-Objektdarstellung um ein sehr engmaschiges Gitter (engl. Mesh). Dieses besteht meist aus kleinteiligen Drei- oder Vierecken, den Polygonen. Aus diesem Grund wird das Gitternetz auch Polygonnetz genannt. Die einzelnen Polygone bzw. deren Knotenpunkte ergeben sich wiederum aus den Punkten der aufgenommenen Punktwolken.

Damit dieses Ergebnis nicht kantig oder ungenau wird, gibt es zahlreiche verschiedene Verfahren, um das sog. Meshing (Bilden eines Objekt-Gitters) zu optimieren und kleinere Aufnahme-Ungenauigkeiten auszubessern.

Doch bevor es um die Gitterbildung geht, muss die aufgenommene Punktwolke möglichst hohe Qualität aufweisen…

 

Grundvoraussetzung für exakte 3D-Modelle: Die perfekte Punktwolke 

Zugegeben: Die perfekte Punktwolke durch eine makellose Aufnahmemethode existiert nicht. Noch dazu bringen die unterschiedlichen Verfahren jeweils spezielle Eigenschaften mit. Je nach benötigter Präzision im 3D-Modell eignen sie sich unterschiedlich gut:

 

  • Stereoskopie: Das wohl häufigste Verfahren zur Bildgebung punktet durch seine hohe Standardisierung. Es bietet eine solide Tiefenschärfe und Datengenauigkeit.
  • Structure from Motion: SfM arbeitet präziser als Stereo-Ansätze. Dabei bewegt sich die Kamera in zunächst unbekannten Positionen um das zu vermessende Objekt herum. Diese Präzision erkauft sich das Verfahren mit seiner langen Aufnahmedauer und der aufwendigen Berechnung der Punktwolke.
  • Lichtfeld: Ähnlich wie Stereo arbeitet das Lichtfeld mit einer punktuellen Aufnahme. Im Gegensatz dazu erhöht diese Technologie jedoch ihre Präzision durch den Einsatz eines Kamera-Arrays. Dadurch kann das Lichtfeld es problemlos mit SfM aufnehmen – punktet jedoch durch eine schnellere Aufnahme.

 

Bei allen Verfahren gilt es, das System vorab genau zu kalibrieren. Nur so lassen sich etwaige Messungenauigkeiten für ein präzises 3D-Modell bestmöglich vermeiden. Auch der Messabstand sollte deswegen nicht zu stark variieren.

 

Von der Punktwolke zur Modellierung

Sobald diese Daten aufgenommen sind, gilt es, sie zu einem festen 3D-Modell zu wandeln. Dazu gibt es verschiedene Verfahren, um ungenaue Polygone, Ausreißer im Netz oder schlichtweg fehlende Bildinformationen zu kompensieren. Für diesen Schritt bieten sich zahlreiche Optionen an. Doch nicht immer hilft die jeweilige Methode, das Endergebnis tatsächlich wie gewünscht zu verbessern.

In Abwägung mit den Zielen des 3D-Modells gilt es also, sorgfältig die richtigen Verfahren auf das Mesh anzuwenden. Häufig lassen sich die einzelnen Ansätze sogar untereinander kombinieren, um so ein noch besseres Endergebnis zu generieren. Die Möglichkeiten sind Legion. Daher beschränken wir uns an dieser Stelle auf eine Auswahl der drei wichtigsten Methoden für diesen sog. Regression Fit.

 

Poisson Surface Reconstruction 

Das wohl bekannteste Verfahren dürfte die Poisson Surface Reconstruction sein. Da der Poisson Algorithmus sehr genaue und schöne 3D-Modelle liefert und gleichzeitig als Open Source Implementierung verfügbar ist, spricht dies für eine Verwendung dieser Methode. Er nutzt zur Berechnung nicht nur die verfügbaren Punkte aus der Punktwolke, sondern auch deren Normalen – und zwar in einem Schritt. So erzielt die Poisson Surface Reconstruction ein rauscharmes Ergebnis.

 

Marching Cubes

Ebenfalls häufig genutzt ist das Marching Cubes Verfahren. Auch hier soll aus der Punktwolke ein zuverlässiges Mesh extrahiert werden. Die Marching Cubes verwenden dabei jedoch einen anderen Ansatz: Der Algorithmus teilt die Punktwolke zunächst in ein Gitter ein, um aus den einzelnen Gitterfeldern zu bestimmen, welche sich innerhalb oder außerhalb des Objekts – oder an der Objektgrenze ­– befinden. Diese Schritte führen die Marching Cubes mehrmals zur Verfeinerung des Ergebnisses durch. Das schlägt sich natürlich auf die Laufzeit des Algorithmus nieder. Zusätzlich funktioniert dieser Ansatz für unscharfe Objekte oder Objektlücken nur mäßig gut.

 

Radiale Basis Funktionen 

Ein dritter, ebenfalls beliebter Ansatz ist die Anwendung von Radialen Basisfunktionen (RBF). Sie erschaffen durch die lineare Kombination radialsymmetrischer Basisfunktionen sehr glatte Oberflächen bei 3D-Objekten. Dabei eignen sich RBF besonders gut für die Interpolation verstreuter Daten – also Punktwolken mit ungleichmäßig verteilten Punkten. So kommen RBF auch mit unebenen Oberflächen und sogar Datenlücken zurecht. Diese Fähigkeiten erkauft sich das RBF-Verfahren allerdings durch seine Störanfälligkeit: Bereits mäßiges Rauschen stellt eine deutliche Herausforderung für die RBF dar.

Daneben gibt es unzählige weitere Verfahren und Algorithmen. Ihre Existenzberechtigung ziehen sie aus ihren jeweils unterschiedlichen Problemoptimierungen: Die Vielzahl an Objektbeschaffenheiten und die Qualität der Punktwolken machen es bisher schwer, nur eine einzige Operation auf die Punktwolken durchzuführen. Für detailgetreue 3D-Modelle bleibt die Verkettung verschiedener Verfahren – und die Verfeinerung der Aufnahme von Punktwolken – weiterhin Standard.

In der sich rasant entwickelnden Welt der industriellen Automatisierung ist eine zuverlässige und flexible Objekterkennung ein Grundpfeiler für Vision-Guided Robotics (VGR) und Qualitätssicherung. Bei HD Vision Systems ist es unsere Mission, die Grenzen des Möglichen in der Automatisierung neu zu definieren. Als Vision-Partner auf der Bosch Rexroth CtrlX-Plattform bringen wir modernste Bildverarbeitungstechnologie durch leistungsstarke Apps auf den Fabrikboden, die Konnektivität vereinfachen und die Leistung verbessern.

Pattern Matching: Ein traditioneller Ansatz

Eine der häufigsten Fragen beim Entwurf von Automatisierungslösungen ist, ob traditionelle Pattern-Matching-Techniken oder moderne KI-basierte Objekterkennung verwendet werden sollen. Pattern Matching ist regelbasiert und nutzt manuell definierte Vorlagen oder geometrische Formen zur Objekterkennung. Obwohl es lange ein fester Bestandteil klassischer Bildverarbeitung war, stößt es unter realen Bedingungen oft an seine Grenzen. Änderungen in Beleuchtung, Ausrichtung, Maßstab oder selbst kleine Verdeckungen können zu Erkennungsfehlern führen. Zudem ist die Einrichtung aufwändig, erfordert Expertenwissen und lässt sich nur schwer an Veränderungen in der Produktionslinie anpassen.

Deep Learning: Intelligent und anpassungsfähig

Im Gegensatz dazu nutzt die KI-basierte Objekterkennung datengetriebene Modelle, die auf großen und vielfältigen Datensätzen trainiert wurden. Diese Modelle erkennen Objekte anhand abstrakter Muster und sind dadurch wesentlich robuster und flexibler. Sie kommen mit unterschiedlichsten Abweichungen und Unregelmäßigkeiten in industriellen Umgebungen zurecht. Mithilfe von Transfer Learning und Datenaugmentation lassen sich Modelle zudem schnell auf neue Objekte oder Bedingungen anpassen – ganz ohne komplexes Regelwerk.

Integrierte KI auf CtrlX

Wir bei HD Vision Systems setzen konsequent auf diesen modernen Ansatz und haben ihn direkt in die Bosch Rexroth CtrlX-Plattform integriert. Unsere Apps ermöglichen den Anschluss von Standard-Industriekameras gemäß dem GenICam-Standard via Ethernet. Die aufgenommenen Bilder werden von KI-Modellen direkt im CtrlX-Ökosystem verarbeitet. Die Ergebnisse sind nicht nur präzise, sondern werden auch automatisch aus 2D-Bildkoordinaten in 3D-Weltkoordinaten überführt – entscheidend für präzise Roboterführung und Qualitätssicherung.

Vor-Ort-Training und Individualisierung

Neben vortrainierten Modellen bieten wir Frameworks an, mit denen Nutzer eigene Bilddaten annotieren und individuelle Objekterkennungsnetzwerke trainieren können – komplett vor Ort, ohne Daten in die Cloud zu senden. So behalten Sie die volle Kontrolle über Datenschutz und Datensicherheit. Integratoren und Endanwender können so hochspezialisierte Erkennungslösungen entwickeln – exakt zugeschnitten auf ihre Anwendung.

Zukunftsausblick: KI für moderne Fertigung

Pattern Matching hatte seine Zeit, aber die zunehmende Komplexität moderner Fertigungsprozesse verlangt intelligentere, flexiblere Systeme. Deep Learning liefert genau das. Mit den fortschrittlichen Vision-Tools von HD Vision Systems und der Modularität der Bosch Rexroth CtrlX-Plattform stehen Herstellern leistungsstarke Objekterkennungslösungen zur Verfügung, die mit ihren Anforderungen wachsen.

Egal ob Nachrüstung bestehender Anlagen oder Neuplanung – jetzt ist der richtige Zeitpunkt, die Kraft KI-gesteuerter Bildverarbeitung zu nutzen. Wir freuen uns, Sie dabei zu begleiten.

6. Dezember 2020

Continue reading:

Share This