Sie können den AI Vision Sensor verwenden, um Spielobjekte (Ringe und mobile Ziele) auf dem VEX V5 Robotics Competition (V5RC) Over Under Playground in VEXcode VR mithilfe von AI-Klassifizierungen zu identifizieren.
Wenn Sie mit der physischen Version des AI Vision Sensors vertraut sind, wissen Sie, dass der physische Sensor auch Informationen über AprilTags und konfigurierte Farbsignaturen melden kann. Da in VEXcode VR keine Roboterkonfiguration erforderlich ist und auf dem V5RC High Stakes Field keine AprilTags vorhanden sind, meldet der virtuelle Sensor nur Informationen zu den vorkonfigurierten Spielelementen: Rote Ringe, blaue Ringe und mobile Ziele.
So funktioniert der AI Vision Sensor in V5RC High Stakes in VEXcode VR
Der AI Vision Sensor ist eine Kamera, die automatisch zwischen Spielelementen unterscheiden kann, sodass sich der Roboter selbstständig an bestimmten Spielelementen orientieren kann. Die Kamera wurde auf die Spielelemente für das diesjährige V5RC-Spiel „High Stakes“ trainiert, sodass Ringe und mobile Ziele automatisch erkannt werden.
Um diese Objekte zu erkennen, ist der AI Vision Sensor an der Vorderseite des Roboters montiert (wie hier gezeigt).
Sammeln von Daten vom AI Vision Sensor
Sie können die vom AI Vision Sensor gemeldeten Daten über das Snapshot-Fenster, die Monitorkonsole oder die Druckkonsole in VEXcode VR anzeigen.
Hinweis:Der Arm von Axel muss angehoben werden, um das Sichtfeld des AI Vision Sensors freizugeben. Wenn der Arm nicht angehoben ist, nimmt er einen großen Teil der Kameramitte ein.
Um das Snapshot-Fenster anzuzeigen und die vom AI Vision Sensor gemeldeten Daten anzuzeigen, wählen Sie die Schaltfläche AI Vision Sensor.
Wählen Sie die SchaltflächeAI Vision Sensor erneut aus, um das Snapshot-Fenster auszublenden.
Das Snapshot-Fenster wird in der oberen linken Ecke des Playground-Fensters angezeigt. Der Snapshot identifiziert alle Spielelemente im Sichtfeld des AI Vision Sensors und die zugehörigen Daten.
Zu den im Snapshow-Fenster für jedes Objekt gedruckten Daten zählen der X-Mittelpunkt, der Y-Mittelpunkt, die Breite und Höhe sowie die Klassifizierung des Objekts.
Erläuterungen zu den vom AI Vision Sensor gemeldeten Datentypen, einschließlich der zugehörigen VEXcode-Befehle, finden Sie in der VEX-API. Als Referenz stehen sowohl Block-spezifische als auch Python-spezifische Seiten zur Verfügung.
Diese Befehle können in den Monitor- und/oder Druckkonsolen verwendet werden, um die Daten aus jedem Snapshot zu visualisieren, der während der Ausführung Ihres Projekts erstellt wird. In diesen Artikeln erfahren Sie mehr über die Verwendung der Monitor- und Druckkonsolen.
- Überwachung von Variablen und Sensorwerten in VEXcode VR mit Blöcken
- Überwachen von Variablen- und Sensorwerten in VEXcode VR mit Python
- Verwenden der Druckkonsole in VEXcode VR
Mithilfe des KI-Vision-Sensors kann Axel Objekte identifizieren
Mithilfe des AI Vision Sensors können Sie Axel dabei helfen, zu bestimmten Objekten zu navigieren, indem Sie die vom Sensor gemeldeten Daten verstehen. Mithilfe des AI Vision Sensors kann Axel ein Spielelement anvisieren und dorthin fahren, um das Objekt aufzuheben.
Der AI Vision Sensor meldet nur die Daten des aktuellsten Schnappschusses, daher muss Axel diesen Schnappschuss während der Fahrt ständig aktualisieren.
In diesem Beispielprojekt wird Axel den AI Vision Sensor verwenden, um zu bestimmen, ob sich ein roter Ring davor befindet. Er wird drehen, bis der Mittelpunkt X des roten Rings kleiner als 150 ist, und dann weiter zum Ring fahren. Um bis zum Roten Ring vorzufahren, wird der AI Vision Sensor verwendet, um die Breite des Objekts im Schnappschuss des Sensors zu messen. Sobald die Breite groß genug ist, weiß der Roboter, dass er sich in Reichweite befindet, um den roten Ring aufzunehmen.
In diesen Artikeln erfahren Sie mehr über den Zugriff auf und die Ausführung von Beispielprojekten:
Axels Sensoren gemeinsam nutzen
Der AI Vision Sensor kann mit anderen Sensoren am Roboter kombiniert werden, um Aufgaben auf dem Feld zu erledigen. Eine vollständige Liste der Sensoren der virtuellen Version von Axel finden Sie auf dieser Seite der VEX-API. Dies sind nur einige Ideen, die Ihnen den Einstieg in Ihren Code erleichtern sollen.
- Verwenden Sie den AI Vision Sensor um ein Spielelement zu finden und anzuvisieren, und verwenden Sie dann den Front Distance Sensorum zu fahren, bis sich das Objekt in der Nähe des Roboters befindet.
- Verwenden Sie denAI Vision Sensor um ein mobiles Ziel zu finden und dorthin zu navigieren, und verwenden Sie dann den GPS Sensor , um das mobile Ziel in die Ecken des Feldes zu bewegen.
- Verwenden Sie denAI Vision Sensorum einen roten Ring und ein mobiles Ziel zu finden und dorthin zu navigieren. Verwenden Sie dann den Rotationssensor um den Pusher zu positionieren und den Ring auf dem Ziel zu platzieren.
Denken Sie daran, dass weitere Informationen zu bestimmten Befehlen, dem V5RC High Stakes Field und dem Hero Bot Axel in der VEX API und in der integrierten Hilfe in VEXcode VR (Blöcke und Python) zu finden sind.