Verstehen der Daten im AI Vision Utility in VEXcode V5

Mit demAI Vision Utility können Sie IhrenAI Vision Sensoranschließen und konfigurieren. Um zu erfahren, wie das geht, können Sie diese Artikel hier lesen:

Wenn Sie verstehen, wie der AI Vision Sensor Objekte erkennt und misst, können Sie diese Messungen besser in Ihren Codierungsprojekten nutzen. Mit diesem Wissen können Sie Ihre Programmierfähigkeiten verbessern und präzisere Lösungen für Aufgaben wie Objekterkennung und räumliche Analyse erstellen.

Farbton und Sättigung verstehen

Farbanpassungen.png

Beim Konfigurieren einer Farbsignatur werden Optionen für Farbton- und Sättigungsbereiche angezeigt. Diese ermöglichen es Ihnen, die Farbsignatur so abzustimmen, dass sie widerstandsfähigerist. Eine Farbsignatur wird als beständig angesehen, wenn das Objekt bewegt werden kann und weiterhin vom AI Vision Utility verfolgt werden kann.

vex-regenbogen-kreis-grafik_2.jpg

Der erste Schieberegler ist der Farbtonbereich. Der Farbton ist die wahrgenommene Farbe, definiert durch ihre Position auf dem Farbkreis. Dieses Farbrad hat einen Bereich von 0 bis 359,9 Grad und jede Farbe auf dem Rad hat einen definierten Gradwert. 

Mit dem Farbtonbereich können Sie die Grade über und unter der konfigurierten Farbe auswählen, die als diese Farbe gemeldet werden. Beispielsweise kann ein dunkles Blau einen Farbtonwert von 240 Grad haben. Bei einem Farbtonbereich von 20 Grad wird alles zwischen 220 und 260 Grad als die konfigurierte dunkelblaue Farbe gemeldet.

saturation@2x.png

Der zweite Schieberegler ist der Sättigungsbereich. Sättigung ist die Intensität oder Reinheit der Farbe. Je heller die Farbe, desto gesättigter ist sie. Die Sättigung ist eine relative Skala, die in Prozenten von 0 % (gedämpfter Grauton) bis 100 % (intensive Version dieses Farbtons) gemessen wird. 

Mit dem Sättigungsbereich können Sie den Sättigungsprozentsatz über und unter der konfigurierten Farbe auswählen, der als diese Farbe gemeldet wird. Beispielsweise kann ein roter Ball bei gedämpfter Beleuchtung mit einer Sättigung von 50 % erscheinen. Bei einem Sättigungsbereich von 0,25 (das Dezimaläquivalent von 25 %) wird alles zwischen 25 % und 75 % Sättigung als die konfigurierte rote Farbe gemeldet.

Pixel und Auflösung verstehen

Gitter-Gekritzel-Haus.png

Stellen Sie sich vor, Sie zeichnen ein Bild auf ein Stück Rasterpapier. Jedes kleine Quadrat auf dem Papier ist wie ein Pixel. Wenn Sie diese Quadrate ausmalen, entsteht Ihr eigenes Bild.

Niedrige Auflösung Hohe Auflösung

Lassen Sie uns jetzt über Auflösungsprechen. Auflösung ist die Anzahl der Pixel in einem Bild. Wenn Ihr kariertes Papier viele kleine Quadrate (xPixel) enthält, sieht Ihr Bild scharf und detailliert aus. Wenn Sie jedoch nur über wenige Pixelverfügen, sieht Ihr Bild möglicherweise unscharf und nicht sehr klar aus.

Der AI Vision Sensor hat eine Auflösung von 320 Pixeln horizontal und 240 Pixeln vertikal. Das bedeutet, dass das genaue Erkennungszentrum an den Koordinaten 160 auf der X-Achse und 120 auf der Y-Achse ausgerichtet ist.

Wie misst der AI Vision Sensor Objekte?

Vom Sensor gemeldete Daten

Der AI Vision Sensor sammelt Daten zu konfigurierten Farben, AprilTags und AI-Klassifizierungen. Einige dieser Daten werden im AI Vision Utility angezeigt und können bei der Planung und Erstellung eines VEXcode-Projekts hilfreich sein. 

Das Bild zeigt einen blauen Buckyball mit einem weißen quadratischen Umriss, der ihn verfolgt. In der oberen linken Ecke befindet sich eine Beschriftung, die darauf hinweist, dass es sich um ein blaues Objekt mit den Koordinaten X:176, Y:117 und den Abmessungen B:80, H:78 handelt. Rote Pfeile markieren die Breite und Höhe des Objekts.

Breite und Höhe

Dies ist die Breite oder Höhe des erkannten Objekts in Pixeln.

Die Breiten- und Höhenangaben helfen dabei, unterschiedliche Objekte zu identifizieren. Beispielsweise ist ein Buckyball höher als ein Ring.

 

Ein blauer Buckyball, der von einem Computer-Vision-System verfolgt wird. Das Objekt ist mit einem weißen Quadrat umrandet und innerhalb der Umrandung befindet sich ein kleineres rotes Quadrat, das ein weißes Kreuz in der Mitte umgibt. In der oberen linken Ecke des Bildes zeigt eine Beschriftung an, dass das Objekt blau ist, mit den Koordinaten X:176, Y:117 und den Abmessungen B:80, H:78.

CenterX und CenterY

Dies sind die Mittelpunktskoordinaten des erkannten Objekts in Pixeln.

Die Koordinaten CenterX und CenterY helfen bei der Navigation und Positionierung. Der AI Vision Sensor hat eine Auflösung von 320 x 240 Pixeln.

Winkel

Winkel ist eine Eigenschaft, die nur fürFarbcodes undAprilTagsverfügbar ist. Dies stellt dar, ob der erkannteFarbcodeoder AprilTag anders ausgerichtet ist.

 

Ein blauer Buckyball, der von einem Sichtsystem verfolgt wird. Ein weißer Umriss umgibt das Objekt, mit einem zentrierten weißen Kreuz innerhalb des Umrisses. Das Etikett oben links gibt die Farbe des Objekts als Blau an, zusammen mit den Koordinaten X:176, Y:117 und den Abmessungen B:80, H:78. Ein kleines rotes Quadrat hebt die obere linke Ecke des Objekts hervor.

OriginX und OriginY

OriginX und OriginY sind die Koordinate an der oberen linken Ecke des erkannten Objekts in Pixeln.

OriginX- und OriginY-Koordinaten helfen bei der Navigation und Positionierung. Durch Kombinieren dieser Koordinate mit der Breite und Höhe des Objekts können Sie die Größe des Begrenzungsrahmens des Objekts bestimmen. Dies kann beim Verfolgen bewegter Objekte oder beim Navigieren zwischen Objekten hilfreich sein.

 

Drei quadratische Karten mit AprilTags, die von einem Bildverarbeitungssystem verfolgt werden. Jede Karte ist mit einer ID-Nummer und den zugehörigen Trackingdaten versehen. Die Karte links trägt die Bezeichnung ID:0 und zeigt die Koordinaten A:350°, X:110, Y:96, W:41, H:41. Die mittlere Karte mit der Bezeichnung ID:3 hat die Koordinaten A:1°, X:187, Y:180, W:57, H:57. Die Karte rechts trägt die Bezeichnung ID:9 und die Koordinaten A:3°, X:237, Y:89, W:38, H:38. Jede Karte hat einen weißen Umriss und das System verfolgt ihre Positionen und Ausrichtungen.

Tag-ID

Die Tag-ID ist nur für AprilTagsverfügbar. Dies ist die ID-Nummer für den angegebenen AprilTag.

Durch die Identifizierung spezifischer AprilTags ist eine selektive Navigation möglich. Sie können Ihren Roboter so programmieren, dass er sich auf bestimmte Markierungen zubewegt und andere ignoriert, und diese so effektiv als Wegweiser für die automatisierte Navigation nutzt.

Das Bild zeigt vier Objekte, die von einem Sichtsystem verfolgt werden: zwei Bälle und zwei Ringe. Der rote Ball ist mit den Koordinaten X:122, Y:84, W:67, H:66 und einer Punktzahl von 99 % gekennzeichnet. Der blaue Ball hat X:228, Y:86, W:70, H:68 und eine Punktzahl von 99 %. Der grüne Ring hat die Koordinaten X:109, Y:186, W:98, H:92 und eine Punktzahl von 99 %. Der rote Ring ist mit X:259, Y:187, W:89, H:91 beschriftet und hat eine Punktzahl von 99 %. Jedes Objekt ist weiß umrandet, was die Tracking-Genauigkeit anzeigt.

Punktzahl

Die Score-Eigenschaft wird verwendet, wennKI-Klassifizierungen mit dem KI-Vision-Sensor erkannt werden.

Der Vertrauenswert gibt an, wie sicher sich der AI Vision Sensor bei seiner Erkennung ist. In diesem Bild ist die Identifizierung der KI-Klassifizierungen dieser vier Objekte zu 99 % sicher. Mit diesem Score können Sie sicherstellen, dass sich Ihr Roboter nur auf Erkennungen mit hoher Sicherheit konzentriert.

For more information, help, and tips, check out the many resources at VEX Professional Development Plus

Last Updated: