Die Daten im KI-Vision-Utility in VEXcode V5 verstehen

Mit demAI Vision Utility können Sie IhrenAI Vision Sensorverbinden und konfigurieren. Wie das geht, erfahren Sie in diesen Artikeln:

Wenn Sie verstehen, wie der KI-Vision-Sensor Objekte erkennt und misst, können Sie diese Messungen besser in Ihren Programmierprojekten nutzen. Mit diesem Wissen können Sie Ihre Programmierkenntnisse verbessern und präzisere Lösungen für Aufgaben wie Objekterkennung und räumliche Analyse erstellen.

Farbton und Sättigung verstehen

Farbanpassungen.png

Bei der Konfiguration einer Farbsignatur werden Optionen sowohl für den Farbton- als auch für den Sättigungsbereich angezeigt. Diese ermöglichen es Ihnen, die Farbsignatur so einzustellen, dass sie ist Eine Farbsignatur gilt als robust, wenn das Objekt bewegt werden kann und dennoch von der KI-Vision-Software verfolgt wird.

vex-rainbow-circle-graphic_2.jpg

Der erste Schieberegler ist der Farbtonbereich. Der Farbton ist die wahrgenommene Farbe, definiert durch ihre Position auf dem Farbkreis. Dieser Farbkreis hat einen Bereich von 0 bis 359,9 Grad, und jede Farbe auf dem Kreis hat einen definierten Gradwert. 

Mit der Funktion „Farbtonbereich“ können Sie die Abstufungen ober- und unterhalb der konfigurierten Farbe auswählen, die als diese Farbe angezeigt werden sollen. Ein dunkles Blau kann beispielsweise einen Farbtonwert von 240 Grad haben. Bei einem Farbtonbereich von 20 Grad wird alles zwischen 220 und 260 Grad als die konfigurierte dunkelblaue Farbe angezeigt.

saturation@2x.png

Der zweite Schieberegler ist der Sättigungsbereich . Die Farbsättigung beschreibt die Intensität oder Reinheit der Farbe. Je leuchtender die Farbe, desto gesättigter ist sie. Die Farbsättigung ist eine relative Skala, die in Prozent gemessen wird, wobei 0 % einem gedämpften Grauton entspricht und 100 % eine intensive Variante dieses Farbtons darstellt. 

Mit dem Sättigungsbereich können Sie den Prozentsatz der Sättigung ober- und unterhalb der konfigurierten Farbe auswählen, der als diese Farbe angezeigt werden soll. Beispielsweise kann ein roter Ball bei schwachem Licht so erscheinen, als wäre er zu 50 % gesättigt. Bei einem Sättigungsbereich von 0,25 (dem Dezimaläquivalent von 25 %) wird jede Sättigung zwischen 25 % und 75 % als die konfigurierte rote Farbe angezeigt.

Pixel und Auflösung verstehen

grid-doodle-house.png

Stell dir vor, du zeichnest ein Bild auf ein Stück Millimeterpapier. Jedes winzige Quadrat auf dem Papier entspricht einem Pixel. Wenn du diese Quadrate ausmalst, gestaltest du dein Bild.

Niedrige Auflösung Hohe Auflösung

Kommen wir nun zur Auflösung . Auflösung ist die Anzahl der Pixel in einem Bild. Wenn Sie viele kleine Quadrate (Pixel) auf Ihrem Millimeterpapier haben, wird Ihr Bild scharf und detailreich aussehen. Wenn Sie aber nur wenige Pixelhaben, könnte Ihr Bild verschwommen und nicht sehr klar aussehen.

Der KI-Vision-Sensor hat eine horizontale Auflösung von 320 Pixeln und eine vertikale Auflösung von 240 Pixeln. Dies bedeutet, dass der genaue Mittelpunkt der Detektion mit den Koordinaten 160 auf der X-Achse und 120 auf der Y-Achse übereinstimmt.

Wie misst der KI-Vision-Sensor Objekte?

Vom Sensor gemeldete Daten

Der KI-Vision-Sensor sammelt Daten zu konfigurierten Farben, AprilTags und KI-Klassifizierungen. Einige dieser Daten werden im AI Vision Utility angezeigt und können bei der Planung und Erstellung eines VEXcode-Projekts hilfreich sein. 

Das Bild zeigt einen blauen Buckyball, der von einem weißen quadratischen Umriss umgeben ist. In der oberen linken Ecke befindet sich eine Beschriftung, die darauf hinweist, dass es sich um ein blaues Objekt handelt, mit den Koordinaten X:176, Y:117 und den Abmessungen B:80, H:78. Rote Pfeile markieren die Breite und Höhe des Objekts.

Breite und Höhe

Dies ist die Breite oder Höhe des erkannten Objekts in Pixeln.

Die Breiten- und Höhenangaben helfen bei der Identifizierung verschiedener Objekte. Ein Buckyball ist beispielsweise höher als ein Ring.

 

Ein blauer Buckyball wird von einem Computer-Vision-System verfolgt. Das Objekt ist mit einem weißen Quadrat umrandet, und innerhalb der Umrandung befindet sich ein kleineres rotes Quadrat, das ein zentriertes weißes Kreuz umschließt. In der oberen linken Ecke des Bildes befindet sich eine Beschriftung, die darauf hinweist, dass das Objekt blau ist, mit den Koordinaten X:176, Y:117 und den Abmessungen B:80, H:78.

CenterX und CenterY

Dies sind die Mittelpunktkoordinaten des erkannten Objekts in Pixeln.

Die CenterX- und CenterY-Koordinaten helfen bei der Navigation und Positionierung. Der KI-Vision-Sensor hat eine Auflösung von 320 x 240 Pixeln.

Winkel

Angle ist eine Eigenschaft, die nur fürFarbcodes undAprilTagsverfügbar ist. Dies stellt dar, ob der erkannte Farbcodeoder AprilTag anders ausgerichtet ist.

 

Ein blauer Buckyball wird von einem Bildverarbeitungssystem verfolgt. Das Objekt ist von einem weißen Rahmen umgeben, innerhalb dessen sich mittig ein weißes Kreuz befindet. Die Beschriftung oben links gibt die Farbe des Objekts als blau an, zusammen mit den Koordinaten X:176, Y:117 und den Abmessungen W:80, H:78. Ein kleines rotes Quadrat markiert die linke obere Ecke des Objekts.

OriginX und OriginY

OriginX und OriginY sind die Koordinaten in der oberen linken Ecke des erkannten Objekts in Pixeln.

Die Koordinaten OriginX und OriginY helfen bei der Navigation und Positionierung. Durch die Kombination dieser Koordinate mit der Breite und Höhe des Objekts lässt sich die Größe des Begrenzungsrahmens des Objekts bestimmen. Dies kann beim Verfolgen sich bewegender Objekte oder beim Navigieren zwischen Objekten hilfreich sein.

 

Drei quadratische Karten mit AprilTags, die von einem Bildverarbeitungssystem erfasst werden. Jede Karte ist mit einer ID-Nummer und zugehörigen Tracking-Daten versehen. Die Karte links ist mit ID:0 beschriftet und zeigt die Koordinaten A:350°, X:110, Y:96, W:41, H:41. Die mittlere Karte mit der Bezeichnung ID:3 hat die Koordinaten A:1°, X:187, Y:180, W:57, H:57. Die Karte rechts ist mit ID:9 beschriftet, mit den Koordinaten A:3°, X:237, Y:89, W:38, H:38. Jede Karte hat einen weißen Rand, und das System erfasst ihre Positionen und Ausrichtungen.

Tag-ID

Die Tag-ID ist nur für AprilTagsverfügbar. Dies ist die ID-Nummer für den angegebenen AprilTag.

Durch die Identifizierung spezifischer AprilTags wird eine gezielte Navigation ermöglicht. Sie können Ihren Roboter so programmieren, dass er sich auf bestimmte Markierungen zubewegt, während er andere ignoriert, und diese somit effektiv als Wegweiser für die automatisierte Navigation nutzen.

Das Bild zeigt vier Objekte, die von einem Bildverarbeitungssystem verfolgt werden: zwei Kugeln und zwei Ringe. Der rote Ball ist mit den Koordinaten X:122, Y:84, W:67, H:66 und einer Punktzahl von 99% gekennzeichnet. Der blaue Ball hat die Werte X:228, Y:86, W:70, H:68 und eine Punktzahl von 99%. Der grüne Ring hat die Koordinaten X:109, Y:186, W:98, H:92 und eine Punktzahl von 99%. Der rote Ring ist mit X:259, Y:187, W:89, H:91 beschriftet und hat eine Punktzahl von 99%. Jedes Objekt ist weiß umrandet, was die Genauigkeit der Verfolgung verdeutlicht.

Punktzahl

Die Score-Eigenschaft wird verwendet, wenn mit dem KI-Vision-SensorKI-Klassifizierungen erkannt werden.

Der Konfidenzwert gibt an, wie sicher sich der KI-Vision-Sensor bei seiner Erkennung ist. In diesem Bild ist die KI-Klassifizierung dieser vier Objekte zu 99 % sicher. Mithilfe dieser Punktzahl können Sie sicherstellen, dass sich Ihr Roboter nur auf Erkennungen mit hoher Treffsicherheit konzentriert.

For more information, help, and tips, check out the many resources at VEX Professional Development Plus

Last Updated: