Die Daten im KI-Vision-Utility in VEXcode EXP verstehen

Mit demAI Vision Utility können Sie IhrenAI Vision Sensorverbinden und konfigurieren. Wie das geht, erfahren Sie in diesen Artikeln:

Das Verständnis dafür, wie der KI-Vision-Sensor Objekte erkennt und misst, kann Ihnen helfen, diese Messungen besser in Ihren Programmierprojekten zu nutzen. Mit diesem Wissen können Sie Ihre Programmierkenntnisse verbessern und präzisere Lösungen für Aufgaben wie Objekterkennung und räumliche Analyse erstellen.

Farbton und Sättigung verstehen

AI Vision Utility mit Anzeige der Optionen für eine Farbsignatur. Die Farbsignatur trägt den Namen Blau und hat einen Farbtonbereichswert von 32 und einen Sättigungsbereichswert von 0,57.

Bei der Konfiguration einer Farbsignatur werden Optionen sowohl für den Farbton- als auch für den Sättigungsbereich angezeigt. Diese ermöglichen es Ihnen, die Farbsignatur so einzustellen, dass sie ist Eine Farbsignatur gilt als robust, wenn das Objekt bewegt werden kann und dennoch von der KI-Vision-Utility verfolgt wird.

Farbkreis zur Veranschaulichung, wie der 360-Grad-Kreis einem Farbtonwert entspricht. Die Farbe Rot hat einen Wert von 0, die Farbe Grün einen Wert von 120 und die Farbe Blau einen Wert von 240.

Der erste Schieberegler ist der Farbtonbereich. Der Farbton ist die wahrgenommene Farbe, definiert durch ihre Position auf dem Farbkreis. Dieser Farbkreis hat einen Bereich von 0 bis 359,9 Grad, und jede Farbe auf dem Kreis hat einen definierten Gradwert. 

Mit der Funktion „Farbtonbereich“ können Sie die Abstufungen ober- und unterhalb der konfigurierten Farbe auswählen, die als diese Farbe angezeigt werden sollen. Ein dunkles Blau kann beispielsweise einen Farbtonwert von 240 Grad haben. Bei einem Farbtonbereich von 20 Grad wird alles zwischen 220 und 260 Grad als die konfigurierte dunkelblaue Farbe angezeigt.

Graphische Darstellung eines Sättigungswertes, der von 0 % auf 100 % ansteigt. Der Sättigungswert von 0 % entspricht der Farbe Grau, der Sättigungswert von 100 % der Farbe Hellrot.

Der zweite Schieberegler ist der Sättigungsbereich. Die Farbsättigung beschreibt die Intensität oder Reinheit der Farbe. Je leuchtender die Farbe, desto gesättigter ist sie. Die Farbsättigung ist eine relative Skala, die in Prozent gemessen wird, wobei 0 % einem gedämpften Grauton entspricht und 100 % eine intensive Variante dieses Farbtons darstellt. 

Mit dem Sättigungsbereich können Sie den Prozentsatz der Sättigung ober- und unterhalb der konfigurierten Farbe auswählen, der als diese Farbe angezeigt werden soll. Beispielsweise kann ein roter Ball bei schwachem Licht so erscheinen, als wäre er zu 50 % gesättigt. Bei einem Sättigungsbereich von 0,25 (dem Dezimaläquivalent von 25 %) wird jede Sättigung zwischen 25 % und 75 % als die konfigurierte rote Farbe angezeigt.

Pixel und Auflösung verstehen

Schema eines Comichauses, gezeichnet auf Millimeterpapier, wobei einige Quadrate vollständig ausgemalt sind, um Pixel darzustellen.

Stell dir vor, du zeichnest ein Bild auf ein Stück Millimeterpapier. Jedes winzige Quadrat auf dem Papier entspricht einem Pixel. Wenn du diese Quadrate ausmalst, gestaltest du dein Bild.

Niedrige Auflösung Hohe Auflösung
Der VEX 123-Roboter wird mit einer sehr niedrigen Auflösung gezeigt, um die einzelnen Pixel auf niedrigauflösenden Bildschirmen zu demonstrieren. Der VEX 123-Roboter wird in hoher Auflösung gezeigt, um die schärfere Bildqualität auf hochauflösenden Bildschirmen zu demonstrieren.

Kommen wir nun zur Auflösung . Auflösung ist die Anzahl der Pixel in einem Bild. Wenn Sie viele kleine Quadrate (Pixel) auf Ihrem Millimeterpapier haben, wird Ihr Bild scharf und detailreich aussehen. Wenn Sie aber nur wenige Pixelhaben, könnte Ihr Bild verschwommen und nicht sehr klar aussehen.

Diagramm der Auflösung des KI-Vision-Sensors. Die obere linke Ecke ist mit 0, 0 beschriftet, die obere rechte Ecke mit 320, 0 und die untere linke Ecke mit 0, 240. Die Mitte des Bildschirms ist mit 160, 120 beschriftet.

Der KI-Vision-Sensor hat eine Auflösung von 320 Pixeln horizontal und 240 Pixeln vertikal. Dies bedeutet, dass der genaue Mittelpunkt der Detektion mit den Koordinaten 160 auf der X-Achse und 120 auf der Y-Achse übereinstimmt.

Wie misst der KI-Vision-Sensor Objekte?

Vom Sensor gemeldete Daten

Der KI-Vision-Sensor sammelt Daten zu konfigurierten Farben, AprilTags und KI-Klassifizierungen. Einige dieser Daten werden im AI Vision Utility angezeigt und können bei der Planung und Erstellung eines VEXcode-Projekts hilfreich sein. 

Der KI-Vision-Sensor verfolgt einen blauen Fullerene. Der Buckyball ist von einem Tracking-Rechteck umgeben, und die Beschriftung darüber zeigt, dass er eine Breite von 80 Pixeln und eine Höhe von 78 Pixeln hat. Rote Pfeile markieren das Tracking-Rechteck, um dessen Breite und Höhe zu verdeutlichen.

Breite und Höhe

Dies ist die Breite oder Höhe des erkannten Objekts in Pixeln.

Die Breiten- und Höhenangaben helfen bei der Identifizierung verschiedener Objekte. Ein Buckyball ist beispielsweise höher als ein Ring.

 

Der KI-Vision-Sensor verfolgt einen blauen Fullerene. Der Buckyball ist von einem Tracking-Rechteck umgeben, und die Beschriftung darüber zeigt, dass er eine X-Position von 176 und eine Y-Position von 117 hat. Der Mittelpunkt des Tracking-Rechtecks ist hervorgehoben, um zu verdeutlichen, dass die Position vom Mittelpunkt aus gemessen wird.

CenterX und CenterY

Dies sind die Mittelpunktkoordinaten des erkannten Objekts in Pixeln.

Die CenterX- und CenterY-Koordinaten helfen bei der Navigation und Positionierung. Der KI-Vision-Sensor hat eine Auflösung von 320 x 240 Pixeln.

Animation eines roten und eines grünen Quadrats, die gemeinsam gedreht werden, um den Wert von 360 Grad eines Winkels zu veranschaulichen.

Winkel

Angle ist eine Eigenschaft, die nur fürFarbcodes undAprilTagsverfügbar ist. Dies stellt dar, ob der erkannte Farbcodeoder AprilTag anders ausgerichtet ist.

 

Der KI-Vision-Sensor verfolgt einen blauen Fullerene. Der Buckyball ist von einem Tracking-Rechteck umgeben, und die Beschriftung darüber zeigt, dass er eine X-Position von 176 und eine Y-Position von 117 hat. Die obere linke Ecke des Tracking-Rechtecks ist hervorgehoben, um zu verdeutlichen, dass die Ursprungsposition von dieser oberen linken Ecke aus gemessen wird.

OriginX und OriginY

OriginX und OriginY sind die Koordinaten in der oberen linken Ecke des erkannten Objekts in Pixeln.

Die Koordinaten OriginX und OriginY helfen bei der Navigation und Positionierung. Durch die Kombination dieser Koordinate mit der Breite und Höhe des Objekts lässt sich die Größe des Begrenzungsrahmens des Objekts bestimmen. Dies kann beim Verfolgen sich bewegender Objekte oder beim Navigieren zwischen Objekten hilfreich sein.

 

Drei AprilTags werden von der KI-Vision-Utility verfolgt. Jedes Tag wird identifiziert, lokalisiert und umrissen, wodurch seine Verfolgung durch das System angezeigt wird. Die AprilTag-IDs in diesem Beispiel lauten 0, 9 und 3.

Tag-ID

Die Tag-ID ist nur für AprilTagsverfügbar. Dies ist die ID-Nummer für den angegebenen AprilTag.

Durch die Identifizierung spezifischer AprilTags wird eine gezielte Navigation ermöglicht. Sie können Ihren Roboter so programmieren, dass er sich auf bestimmte Markierungen zubewegt, während er andere ignoriert, und diese somit effektiv als Wegweiser für die automatisierte Navigation nutzen.

Das KI-Vision-Tool verfolgt vier Objekte: zwei Buckyballs und zwei Ringe. Jedes Objekt wird identifiziert, lokalisiert und umrissen, wodurch seine Verfolgung durch das System angezeigt wird. Das Tool listet außerdem die KI-Klassifizierungspunktzahl jedes Objekts auf; in diesem Beispiel beträgt die Punktzahl jeweils 99 %.

Punktzahl

Die Score-Eigenschaft wird verwendet, wenn mit dem KI-Vision-SensorKI-Klassifizierungen erkannt werden.

Der Konfidenzwert gibt an, wie sicher sich der KI-Vision-Sensor bei seiner Erkennung ist. In diesem Bild ist die KI-Klassifizierung dieser vier Objekte zu 99 % sicher. Mithilfe dieser Punktzahl können Sie sicherstellen, dass sich Ihr Roboter nur auf Erkennungen mit hoher Treffsicherheit konzentriert.

For more information, help, and tips, check out the many resources at VEX Professional Development Plus

Last Updated: