Verstehen der Daten im AI Vision Utility

Mit demAI Vision Utility können Sie IhrenAI Vision Sensorverbinden und konfigurieren. Um zu erfahren, wie das geht, können Sie die folgenden Artikel lesen:

Wenn Sie verstehen, wie der AI Vision Sensor Objekte erkennt und misst, können Sie diese Messungen in Ihren Codierungsprojekten besser nutzen. Mit diesem Wissen können Sie Ihre Programmierkenntnisse verbessern und präzisere Lösungen für Aufgaben wie Objekterkennung und räumliche Analyse erstellen.

Pixel und Auflösung verstehen

Gitter-Gekritzel-Haus.png

Stellen Sie sich vor, Sie zeichnen ein Bild auf ein kariertes Blatt Papier. Jedes kleine Quadrat auf dem Papier ist wie ein Pixel. Wenn Sie diese Quadrate ausmalen, erstellen Sie Ihr Bild.

Niedrige Auflösung Hohe Auflösung

Lassen Sie uns jetzt über Auflösungsprechen. Auflösung ist die Anzahl der Pixel in einem Bild. Wenn Ihr kariertes Papier viele kleine Quadrate (xPixel) enthält, sieht Ihr Bild scharf und detailliert aus. Wenn Sie jedoch nur wenige Pixelhaben, sieht Ihr Bild möglicherweise unscharf und nicht sehr klar aus.

Der AI Vision Sensor hat eine Auflösung von 320 Pixeln horizontal und 240 Pixeln vertikal. Dies bedeutet, dass der genaue Erkennungsmittelpunkt bei den Koordinaten 160 auf der X-Achse und 120 auf der Y-Achse liegt.

Wie misst der AI Vision Sensor Objekte

Der AI Vision Sensor sammelt Daten zu konfigurierten Farben, AprilTags und AI-Klassifizierungen. Einige dieser Daten werden im AI Vision Utility angezeigt und können bei der Planung und Erstellung eines VEXcode-Projekts hilfreich sein. 

Ein blaues Fass, das von einem Sichtsystem verfolgt wird. Ein weißer Umriss umgibt das Objekt, mit einem zentrierten weißen Kreuz innerhalb des Umrisses. Das Etikett oben links gibt an, dass es sich bei dem Objekt um ein blaues Fass handelt, zusammen mit den Mittelpunktskoordinaten CX:174, CY:95 und den Abmessungen B:50, H:57.

Breite und Höhe

Dies ist die Breite oder Höhe des erkannten Objekts in Pixeln.

Die Breiten- und Höhenangaben helfen dabei, unterschiedliche Objekte zu identifizieren. Beispielsweise ist ein Fass höher als ein Sportball.

Ein blaues Fass, das von einem Sichtsystem verfolgt wird. Ein weißer Umriss umgibt das Objekt, mit einem zentrierten weißen Kreuz innerhalb des Umrisses. Das Etikett oben links gibt an, dass es sich bei dem Objekt um ein blaues Fass handelt, zusammen mit den Mittelpunktskoordinaten CX:163, CY:95 und den Abmessungen B:50, H:57.

CenterX und CenterY

Dies sind die Mittelpunktskoordinaten des erkannten Objekts in Pixeln.

Die Koordinaten CenterX und CenterY helfen bei der Navigation und Positionierung. Der AI Vision Sensor hat eine Auflösung von 320 x 240 Pixeln.

Winkel

Winkel ist eine Eigenschaft, die nur fürFarbcodes undAprilTagsverfügbar ist. Dies stellt dar, ob der erkannteFarbcodeoder AprilTag anders ausgerichtet ist.

Ein blaues Fass, das von einem Sichtsystem verfolgt wird. Ein weißer Umriss umgibt das Objekt, mit einem zentrierten weißen Kreuz innerhalb des Umrisses. Das Etikett oben links gibt an, dass es sich bei dem Objekt um ein blaues Fass handelt, zusammen mit den Mittelpunktskoordinaten CX:176, CY:95 und den Abmessungen B:50, H:57. Ein kleines rotes Quadrat hebt die obere linke Ecke des Objekts hervor.

OriginX und OriginY

OriginX und OriginY sind die Koordinate an der oberen linken Ecke des erkannten Objekts in Pixeln.

OriginX- und OriginY-Koordinaten helfen bei der Navigation und Positionierung. Durch Kombinieren dieser Koordinate mit der Breite und Höhe des Objekts können Sie die Größe des Begrenzungsrahmens des Objekts bestimmen. Dies kann beim Verfolgen bewegter Objekte oder beim Navigieren zwischen Objekten hilfreich sein.

Ein blaues Fass, das von einem Sichtsystem verfolgt wird. Ein weißer Umriss umgibt das Objekt, mit einem zentrierten weißen Kreuz innerhalb des Umrisses. Das Etikett oben links gibt an, dass es sich bei dem Objekt um ein blaues Fass handelt, zusammen mit den Mittelpunktskoordinaten CX:178, CY:95 und den Abmessungen B:50, H:57. Ein violetter AprilTag wird von einem Bildverarbeitungssystem verfolgt. Der AprilTag trägt die Bezeichnung ID:3 und zeigt die Koordinaten A:350°, X:206, Y:47, W:29, H:29. Jede Karte hat einen weißen Umriss und das System verfolgt ihre Positionen und Ausrichtungen.

TagID

Die Tag-ID ist nur für AI Classification und AprilTagsverfügbar. Die KI-Klassifizierung zeigt ihren richtigen Namen an.

AprilTags zeigt die tatsächliche ID-Nummer an.

Durch die Identifizierung spezifischer AprilTags ist eine selektive Navigation möglich. Sie können Ihren Roboter so programmieren, dass er sich auf bestimmte Markierungen zubewegt und andere ignoriert, und diese so effektiv als Wegweiser für die automatische Navigation nutzt.

alt

Punktzahl

Die Score-Eigenschaft wird verwendet, wennKI-Klassifizierungen mit dem KI-Vision-Sensor erkannt werden.

Der Vertrauenswert gibt an, wie sicher sich der AI Vision Sensor bei seiner Erkennung ist. In diesem Bild ist die Identifizierung der KI-Klassifizierungen dieser vier Objekte zu 99 % sicher. Mit diesem Score können Sie sicherstellen, dass sich Ihr Roboter nur auf Erkennungen mit hoher Sicherheit konzentriert.

Weitere Informationen zum Codieren Ihres VEX AIM Coding Robot mit diesen Daten finden Sie unter VEXcode API Reference - AIM.

For more information, help, and tips, check out the many resources at VEX Professional Development Plus

Last Updated: