Mit demAI Vision Utility können Sie IhrenAI Vision Sensorverbinden und konfigurieren. Wie das geht, erfahren Sie in diesen Artikeln:
- Aktivierung von KI-Klassifizierungen und AprilTag-ID-Erkennung in VEXcode IQ
- Farbsignaturen mit dem KI-Vision-Sensor in VEXcode IQ konfigurieren
- Farbcodes mit dem KI-Vision-Sensor in VEXcode IQ konfigurieren
Wenn Sie verstehen, wie der KI-Vision-Sensor Objekte erkennt und misst, können Sie diese Messungen besser in Ihren Programmierprojekten nutzen. Mit diesem Wissen können Sie Ihre Programmierkenntnisse verbessern und präzisere Lösungen für Aufgaben wie Objekterkennung und räumliche Analyse erstellen.
Pixel und Auflösung verstehen
Stell dir vor, du zeichnest ein Bild auf ein Stück Millimeterpapier. Jedes winzige Quadrat auf dem Papier entspricht einem Pixel. Wenn du diese Quadrate ausmalst, gestaltest du dein Bild.
| Niedrige Auflösung | Hohe Auflösung |
|
|
|
Kommen wir nun zur Auflösung . Auflösung ist die Anzahl der Pixel in einem Bild. Wenn Sie viele kleine Quadrate (Pixel) in Ihrem haben, wird Ihr Bild scharf und detailreich aussehen. wenn Sie nur haben, könnte Ihr Bild und nicht klar aussehen.
Der KI-Vision-Sensor hat eine horizontale Auflösung von 320 Pixeln und eine vertikale Auflösung von 240 Pixeln. Dies bedeutet, dass der genaue Mittelpunkt der Detektion mit den Koordinaten 160 auf der X-Achse und 120 auf der Y-Achse übereinstimmt.
Wie misst der KI-Vision-Sensor Objekte?
Der KI-Vision-Sensor sammelt Daten zu konfigurierten Farben, AprilTag-IDs und KI-Klassifizierungen. Einige dieser Daten werden im AI Vision Utility angezeigt und können bei der Planung und Erstellung eines VEXcode-Projekts hilfreich sein.
Breite und Höhe
Dies ist die Breite oder Höhe des erkannten Objekts in Pixeln.
Die Breiten- und Höhenmessungen können helfen, verschiedene Objekte zu identifizieren. Beispielsweise hätten Würfel eine ähnliche Breite und Höhe, Ringe hingegen hätten eine größere Breite als Höhe.
CenterX und CenterY
Dies sind die Mittelpunktkoordinaten des erkannten Objekts in Pixeln.
Die CenterX- und CenterY-Koordinaten helfen bei der Navigation und Positionierung. Der KI-Vision-Sensor hat eine Auflösung von 320 x 240 Pixeln.
Winkel
Angle ist eine Eigenschaft, die nur fürFarbcodes undAprilTag IDsverfügbar ist. Dies stellt die Orientierung des erkanntenFarbcodesoder AprilTag IDdar.
OriginX und OriginY
OriginX und OriginY sind die Koordinaten in der oberen linken Ecke des erkannten Objekts in Pixeln.
Die Koordinaten OriginX und OriginY helfen bei der Navigation und Positionierung. Durch die Kombination dieser Koordinate mit der Breite und Höhe des Objekts lässt sich die Größe des Begrenzungsrahmens des Objekts bestimmen. Dies kann beim Verfolgen sich bewegender Objekte oder beim Navigieren zwischen Objekten hilfreich sein.
TagID
Die Tag-ID ist nur für AI Classification und AprilTagsverfügbar. Die KI-Klassifizierung wird ihren korrekten Namen anzeigen.
AprilTag-IDs zeigen die tatsächliche ID-Nummer an.
Durch die Identifizierung spezifischer AprilTag-IDs wird eine gezielte Navigation ermöglicht. Sie können Ihren Roboter so programmieren, dass er sich auf bestimmte AprilTag-IDs zubewegt, während er andere ignoriert, und diese somit effektiv als Wegweiser für die automatisierte Navigation nutzen.
Punktzahl
Die Score-Eigenschaft wird verwendet, wenn mit dem KI-Vision-SensorKI-Klassifizierungen erkannt werden.
Der Konfidenzwert gibt an, wie sicher sich der KI-Vision-Sensor bei seiner Erkennung ist. Auf diesem Bild besteht eine 99%ige Wahrscheinlichkeit, dass es sich bei diesem Objekt um einen blauen Würfel handelt. Mithilfe dieser Punktzahl können Sie sicherstellen, dass sich Ihr Roboter nur auf Erkennungen mit hoher Treffsicherheit konzentriert.
Weitere Informationen zur Codierung Ihres VEX IQ-Roboters mit diesen Daten finden Sie unter VEXcode API Reference - IQ (2nd gen).