Mit demAI Vision Utility können Sie IhrenAI Vision Sensorverbinden und konfigurieren. Wie das geht, erfahren Sie in diesen Artikeln:
- Verbinden Sie den KI-Vision-Sensor in der App-basierten VEXcode EXP-Umgebung.
- Verbinden Sie den KI-Vision-Sensor in der webbasierten VEXcode EXP-Umgebung.
- Farbsignaturen mit dem KI-Vision-Sensor in VEXcode EXP konfigurieren
- Farbcodes mit dem KI-Vision-Sensor in VEXcode EXP konfigurieren
Das Verständnis dafür, wie der KI-Vision-Sensor Objekte erkennt und misst, kann Ihnen helfen, diese Messungen besser in Ihren Programmierprojekten zu nutzen. Mit diesem Wissen können Sie Ihre Programmierkenntnisse verbessern und präzisere Lösungen für Aufgaben wie Objekterkennung und räumliche Analyse erstellen.
Farbton und Sättigung verstehen
Bei der Konfiguration einer Farbsignatur werden Optionen sowohl für den Farbton- als auch für den Sättigungsbereich angezeigt. Diese ermöglichen es Ihnen, die Farbsignatur so einzustellen, dass sie ist Eine Farbsignatur gilt als robust, wenn das Objekt bewegt werden kann und dennoch von der KI-Vision-Utility verfolgt wird.
Der erste Schieberegler ist der Farbtonbereich. Der Farbton ist die wahrgenommene Farbe, definiert durch ihre Position auf dem Farbkreis. Dieser Farbkreis hat einen Bereich von 0 bis 359,9 Grad, und jede Farbe auf dem Kreis hat einen definierten Gradwert.
Mit der Funktion „Farbtonbereich“ können Sie die Abstufungen ober- und unterhalb der konfigurierten Farbe auswählen, die als diese Farbe angezeigt werden sollen. Ein dunkles Blau kann beispielsweise einen Farbtonwert von 240 Grad haben. Bei einem Farbtonbereich von 20 Grad wird alles zwischen 220 und 260 Grad als die konfigurierte dunkelblaue Farbe angezeigt.
Der zweite Schieberegler ist der Sättigungsbereich. Die Farbsättigung beschreibt die Intensität oder Reinheit der Farbe. Je leuchtender die Farbe, desto gesättigter ist sie. Die Farbsättigung ist eine relative Skala, die in Prozent gemessen wird, wobei 0 % einem gedämpften Grauton entspricht und 100 % eine intensive Variante dieses Farbtons darstellt.
Mit dem Sättigungsbereich können Sie den Prozentsatz der Sättigung ober- und unterhalb der konfigurierten Farbe auswählen, der als diese Farbe angezeigt werden soll. Beispielsweise kann ein roter Ball bei schwachem Licht so erscheinen, als wäre er zu 50 % gesättigt. Bei einem Sättigungsbereich von 0,25 (dem Dezimaläquivalent von 25 %) wird jede Sättigung zwischen 25 % und 75 % als die konfigurierte rote Farbe angezeigt.
Pixel und Auflösung verstehen
Stell dir vor, du zeichnest ein Bild auf ein Stück Millimeterpapier. Jedes winzige Quadrat auf dem Papier entspricht einem Pixel. Wenn du diese Quadrate ausmalst, gestaltest du dein Bild.
| Niedrige Auflösung | Hohe Auflösung |
Kommen wir nun zur Auflösung . Auflösung ist die Anzahl der Pixel in einem Bild. Wenn Sie viele kleine Quadrate (Pixel) auf Ihrem Millimeterpapier haben, wird Ihr Bild scharf und detailreich aussehen. Wenn Sie aber nur wenige Pixelhaben, könnte Ihr Bild verschwommen und nicht sehr klar aussehen.
Der KI-Vision-Sensor hat eine Auflösung von 320 Pixeln horizontal und 240 Pixeln vertikal. Dies bedeutet, dass der genaue Mittelpunkt der Detektion mit den Koordinaten 160 auf der X-Achse und 120 auf der Y-Achse übereinstimmt.
Wie misst der KI-Vision-Sensor Objekte?
Vom Sensor gemeldete Daten
Der KI-Vision-Sensor sammelt Daten zu konfigurierten Farben, AprilTags und KI-Klassifizierungen. Einige dieser Daten werden im AI Vision Utility angezeigt und können bei der Planung und Erstellung eines VEXcode-Projekts hilfreich sein.
Breite und Höhe
Dies ist die Breite oder Höhe des erkannten Objekts in Pixeln.
Die Breiten- und Höhenangaben helfen bei der Identifizierung verschiedener Objekte. Ein Buckyball ist beispielsweise höher als ein Ring.
CenterX und CenterY
Dies sind die Mittelpunktkoordinaten des erkannten Objekts in Pixeln.
Die CenterX- und CenterY-Koordinaten helfen bei der Navigation und Positionierung. Der KI-Vision-Sensor hat eine Auflösung von 320 x 240 Pixeln.
Winkel
Angle ist eine Eigenschaft, die nur fürFarbcodes undAprilTagsverfügbar ist. Dies stellt dar, ob der erkannte Farbcodeoder AprilTag anders ausgerichtet ist.
OriginX und OriginY
OriginX und OriginY sind die Koordinaten in der oberen linken Ecke des erkannten Objekts in Pixeln.
Die Koordinaten OriginX und OriginY helfen bei der Navigation und Positionierung. Durch die Kombination dieser Koordinate mit der Breite und Höhe des Objekts lässt sich die Größe des Begrenzungsrahmens des Objekts bestimmen. Dies kann beim Verfolgen sich bewegender Objekte oder beim Navigieren zwischen Objekten hilfreich sein.
Tag-ID
Die Tag-ID ist nur für AprilTagsverfügbar. Dies ist die ID-Nummer für den angegebenen AprilTag.
Durch die Identifizierung spezifischer AprilTags wird eine gezielte Navigation ermöglicht. Sie können Ihren Roboter so programmieren, dass er sich auf bestimmte Markierungen zubewegt, während er andere ignoriert, und diese somit effektiv als Wegweiser für die automatisierte Navigation nutzen.
Punktzahl
Die Score-Eigenschaft wird verwendet, wenn mit dem KI-Vision-SensorKI-Klassifizierungen erkannt werden.
Der Konfidenzwert gibt an, wie sicher sich der KI-Vision-Sensor bei seiner Erkennung ist. In diesem Bild ist die KI-Klassifizierung dieser vier Objekte zu 99 % sicher. Mithilfe dieser Punktzahl können Sie sicherstellen, dass sich Ihr Roboter nur auf Erkennungen mit hoher Treffsicherheit konzentriert.