Varianzen bei Cobot Applikationen durch MIRAI lösen
Umgang mit Varianzen durch Eine KI basierte Steuerung
Künstliche Intelligenz an einem Cobot um neue Applikationen zu realisieren und mit verschieden Varianzen in der Produktion umzugehen
MIRAI von Micropsi Industries ist eine Computer Vision-basierte Robotersteuerung, die es Cobots ermöglicht, mit Varianzen in Position, Form, Bewegung und wechselnden Lichtverhältnissen umzugehen. Mit Hilfe von maschinellem Lernen erzeugt MIRAI Roboterbewegungen direkt und in Echtzeit.
Die FAuDE Tec bringt das MIRAI System zum Einsatz bei Varianzen in der Montage, Qualitätsprüfung, Maschinenbeschickung sowie der Konturverfolgung. Der Größe Vorteil liegt dabei das ohne viel Aufwand für neue Aufgaben neu trainiert werden, da keine fest vorprogrammierten Bewegungen, sondern Fähigkeiten erlernt werden. Für das Einlernen sind keine nötig KI-Kenntnisse notwendig, sondern es ist vergleichbar mit der Beobachtung menschlicher Bewegungen in einigen Tagen.
Vorteile des MIRAI System an einem Cobot
- Einfacher Umgang mit Varianzen, insbesondere dort wo es unmöglich ist die Programmierung von Hand zu implementieren.
- Einfacher Einsatz, da Roboterbewegungen in wenigen Tagen trainiert werden.
- Einfache Cobot Programmierkenntnisse sind ausreichend, um ein stabiles System zu implementieren
- Flexibilität in der Anwendung, da Cobots die mit MIRAI ausgestattete sind, Aufgaben leicht „erlernen“ können.
- Kosteneffiziente Gesamtlösung, da für komplexe Aufgaben keine kostspielige Spezialsysteme notwendig sind.
Funktionsweise
Das MIRAI System erweitert die Steuerung des Cobots und ermöglicht so die Arbeitsumgebung mit seinen Varianzen wahrzunehmen. Dank künstlicher Intelligenz können mit MIRAI-gesteuerte Roboter die Bewegungen menschlicher Werker beobachten und imitieren. Alle Beobachtungen werden von einer Kamera aufgezeichnet, die am Gelenk des Roboters angebracht ist. Der Roboter wird trainiert, indem ein Mensch eine Aufgabe wiederholt durchführt, wobei er den Roboter manuell am Werkzeug führt. Die Aufnahmen werden dann in ein Computer Visionbasiertes Echtzeit- Robotersteuerungsschema umgewandelt.
Applikationsbeispiel Reagenzglas
Bei dieser Applikation soll das System immer nur das blaue Reagenzglas greifen und alle anderen ignorieren. Interessant zu sehen wie der Cobot dem blauen Reagenzglas folgt, auch nachdem die Position verändert wird. In kürzester Zeit kann so eine Applikation dem System beigebracht werden. Die KI hat dann die Information „gelernt“ und folgt dieser.
Somit können Varianzen von Lichteinfall, Farbe, Position usw. ignoriert werden, da die Intelligenz aus dem erlernten erfolgt.





