Sie können den AI Vision Sensor verwenden, um Spielobjekte (Blöcke) auf dem V5RC 25-26 Push Back Playground in VEXcode VR mithilfe von KI-Klassifizierungen zu identifizieren.
Wenn Sie mit physischen Version des AI Vision Sensors vertraut sind, wissen Sie dass der physische Sensor auch die Fähigkeit besitzt, Informationen über AprilTags und konfigurierte Farbsignaturen zu melden. Da in VEXcode VR keine Roboterkonfiguration erforderlich ist und auf dem V5RC 25-26 Push Back Field keine AprilTags vorhanden sind, meldet der virtuelle Sensor nur Informationen über die vorkonfigurierten Spielelemente: Rote Blöcke und Blaue Blöcke.
Wie der KI-Vision-Sensor in V5RC Push Back in VEXcode VR funktioniert
Der KI-Vision-Sensor ist eine Kamera, die Spielelemente automatisch erkennen und unterscheiden kann, sodass sich Ihr Roboter autonom auf bestimmte Objekte ausrichten kann. Der Sensor ist bereits darauf trainiert, die Push-Back-Spielelemente des diesjährigen V5RC zu erkennen, sodass er Blöcke automatisch erkennt.
Zur Erkennung dieser Objekte ist der KI-Vision-Sensor an der Vorderseite des Roboters angebracht (wie hier gezeigt).
Datenerfassung vom KI-Vision-Sensor
Die vom KI-Vision-Sensor gemeldeten Daten können Sie über das Snapshot-Fenster, die Monitorkonsole oder die Druckkonsole in VEXcode VR anzeigen.
Um das Snapshot-Fenster anzuzeigen und die vom AI Vision Sensor gemeldeten Daten einzusehen, wählen Sie die Schaltfläche AI Vision Sensor.
Wählen Sie erneut die SchaltflächeAI Vision Sensor , um das Snapshot-Fenster auszublenden.
Das Snapshot-Fenster erscheint in der oberen linken Ecke des Playground-Fensters und identifiziert alle Spielelemente innerhalb des Sichtfelds des KI-Vision-Sensors.
Für jedes erkannte Objekt werden wichtige Daten angezeigt, darunter die Klassifizierung, die X- und Y-Koordinaten des Mittelpunkts sowie Breite und Höhe.
Erläuterungen zu den vom AI Vision Sensor gemeldeten Datentypen, einschließlich der zugehörigen VEXcode-Befehle, finden Sie in den Blöcken und der Python VEX API.
Mithilfe dieser Befehle in der Monitor- und/oder Druckkonsole können Sie die Daten aus jedem Snapshot visualisieren, der während der Projektausführung erstellt wird. Erfahren Sie mehr über die Verwendung der Monitor- und Druckkonsolen mit Blöcken, mit Python, oder Verwendung der Druckkonsole.
Einsatz des KI-Vision-Sensors zur Unterstützung von Dex bei der Objekterkennung
Mithilfe des KI-Vision-Sensors können Sie Dex dabei unterstützen, bestimmte Objekte anzusteuern, indem Sie die Daten des Sensors interpretieren. Mit dieser Technologie kann Dex Spielelemente gezielt ansteuern und einsammeln.
Der KI-Vision-Sensor meldet nur die Daten der aktuellsten Momentaufnahme, daher muss Dex diese Momentaufnahme während der Fahrt ständig aktualisieren.
Dieses Beispielprojekt zeigt, wie Dex mithilfe des KI-Vision-Sensors autonom einen Block ansteuern und aufheben kann.
Erfahren Sie mehr über den Zugriff auf und die Ausführung von Beispielprojekten mit Blocks oder mit Python.
Gemeinsame Nutzung der Sensoren von Dex
Der KI-Vision-Sensor kann mit anderen Sensoren am Roboter kombiniert werden, um Aufgaben auf dem Spielfeld zu erledigen. Eine vollständige Liste der Sensoren in der virtuellen Version von Dex finden Sie auf Seite der VEX-API Dies sind nur ein paar Ideen, die Ihnen den Einstieg in die Programmierung erleichtern sollen:
- Verwenden Sie den KI-Vision-Sensor um ein Spielelement zu finden und anzuvisieren, und verwenden Sie dann den GPS-Sensorum zu einem Ziel zu fahren.
- Verwenden Sie den-Vision-Sensor , um mehrere Spielelemente zu finden und anzuvisieren, und verwenden Sie dann den Sensor um die Farbe des Blocks auf dem Förderband zu bestimmen, bevor Sie ihn freigeben.
Denken Sie daran, dass zusätzliche Informationen zu spezifischen Befehlen, dem V5RC Push Back Field und dem Hero Bot, Dex, in der VEX API und in der integrierten Hilfe in VEXcode VR (Blöcke und Python) zu finden sind.