Mit demAI Vision Utility können Sie IhrenAI Vision Sensoranschließen und konfigurieren. Um zu erfahren, wie das geht, können Sie diese Artikel hier lesen:
- Verbinden Sie den AI Vision Sensor im App-basierten VEXcode V5
- Verbinden Sie den AI Vision Sensor im webbasierten VEXcode V5
- Konfigurieren von Farbsignaturen mit dem AI Vision Sensor in VEXcode V5
- Farbcodes mit dem AI Vision Sensor in VEXcode V5 konfigurieren
Wenn Sie verstehen, wie der AI Vision Sensor Objekte erkennt und misst, können Sie diese Messungen besser in Ihren Codierungsprojekten nutzen. Mit diesem Wissen können Sie Ihre Programmierfähigkeiten verbessern und präzisere Lösungen für Aufgaben wie Objekterkennung und räumliche Analyse erstellen.
Farbton und Sättigung verstehen
Beim Konfigurieren einer Farbsignatur werden Optionen für Farbton- und Sättigungsbereiche angezeigt. Diese ermöglichen es Ihnen, die Farbsignatur so abzustimmen, dass sie widerstandsfähigerist. Eine Farbsignatur wird als beständig angesehen, wenn das Objekt bewegt werden kann und weiterhin vom AI Vision Utility verfolgt werden kann.
Der erste Schieberegler ist der Farbtonbereich. Der Farbton ist die wahrgenommene Farbe, definiert durch ihre Position auf dem Farbkreis. Dieses Farbrad hat einen Bereich von 0 bis 359,9 Grad und jede Farbe auf dem Rad hat einen definierten Gradwert.
Mit dem Farbtonbereich können Sie die Grade über und unter der konfigurierten Farbe auswählen, die als diese Farbe gemeldet werden. Beispielsweise kann ein dunkles Blau einen Farbtonwert von 240 Grad haben. Bei einem Farbtonbereich von 20 Grad wird alles zwischen 220 und 260 Grad als die konfigurierte dunkelblaue Farbe gemeldet.
Der zweite Schieberegler ist der Sättigungsbereich. Sättigung ist die Intensität oder Reinheit der Farbe. Je heller die Farbe, desto gesättigter ist sie. Die Sättigung ist eine relative Skala, die in Prozenten von 0 % (gedämpfter Grauton) bis 100 % (intensive Version dieses Farbtons) gemessen wird.
Mit dem Sättigungsbereich können Sie den Sättigungsprozentsatz über und unter der konfigurierten Farbe auswählen, der als diese Farbe gemeldet wird. Beispielsweise kann ein roter Ball bei gedämpfter Beleuchtung mit einer Sättigung von 50 % erscheinen. Bei einem Sättigungsbereich von 0,25 (das Dezimaläquivalent von 25 %) wird alles zwischen 25 % und 75 % Sättigung als die konfigurierte rote Farbe gemeldet.
Pixel und Auflösung verstehen
Stellen Sie sich vor, Sie zeichnen ein Bild auf ein Stück Rasterpapier. Jedes kleine Quadrat auf dem Papier ist wie ein Pixel. Wenn Sie diese Quadrate ausmalen, entsteht Ihr eigenes Bild.
Niedrige Auflösung | Hohe Auflösung |
Lassen Sie uns jetzt über Auflösungsprechen. Auflösung ist die Anzahl der Pixel in einem Bild. Wenn Ihr kariertes Papier viele kleine Quadrate (xPixel) enthält, sieht Ihr Bild scharf und detailliert aus. Wenn Sie jedoch nur über wenige Pixelverfügen, sieht Ihr Bild möglicherweise unscharf und nicht sehr klar aus.
Der AI Vision Sensor hat eine Auflösung von 320 Pixeln horizontal und 240 Pixeln vertikal. Das bedeutet, dass das genaue Erkennungszentrum an den Koordinaten 160 auf der X-Achse und 120 auf der Y-Achse ausgerichtet ist.
Wie misst der AI Vision Sensor Objekte?
Vom Sensor gemeldete Daten
Der AI Vision Sensor sammelt Daten zu konfigurierten Farben, AprilTags und AI-Klassifizierungen. Einige dieser Daten werden im AI Vision Utility angezeigt und können bei der Planung und Erstellung eines VEXcode-Projekts hilfreich sein.
Breite und Höhe
Dies ist die Breite oder Höhe des erkannten Objekts in Pixeln.
Die Breiten- und Höhenangaben helfen dabei, unterschiedliche Objekte zu identifizieren. Beispielsweise ist ein Buckyball höher als ein Ring.
CenterX und CenterY
Dies sind die Mittelpunktskoordinaten des erkannten Objekts in Pixeln.
Die Koordinaten CenterX und CenterY helfen bei der Navigation und Positionierung. Der AI Vision Sensor hat eine Auflösung von 320 x 240 Pixeln.
Winkel
Winkel ist eine Eigenschaft, die nur fürFarbcodes undAprilTagsverfügbar ist. Dies stellt dar, ob der erkannteFarbcodeoder AprilTag anders ausgerichtet ist.
OriginX und OriginY
OriginX und OriginY sind die Koordinate an der oberen linken Ecke des erkannten Objekts in Pixeln.
OriginX- und OriginY-Koordinaten helfen bei der Navigation und Positionierung. Durch Kombinieren dieser Koordinate mit der Breite und Höhe des Objekts können Sie die Größe des Begrenzungsrahmens des Objekts bestimmen. Dies kann beim Verfolgen bewegter Objekte oder beim Navigieren zwischen Objekten hilfreich sein.
Tag-ID
Die Tag-ID ist nur für AprilTagsverfügbar. Dies ist die ID-Nummer für den angegebenen AprilTag.
Durch die Identifizierung spezifischer AprilTags ist eine selektive Navigation möglich. Sie können Ihren Roboter so programmieren, dass er sich auf bestimmte Markierungen zubewegt und andere ignoriert, und diese so effektiv als Wegweiser für die automatisierte Navigation nutzt.
Punktzahl
Die Score-Eigenschaft wird verwendet, wennKI-Klassifizierungen mit dem KI-Vision-Sensor erkannt werden.
Der Vertrauenswert gibt an, wie sicher sich der AI Vision Sensor bei seiner Erkennung ist. In diesem Bild ist die Identifizierung der KI-Klassifizierungen dieser vier Objekte zu 99 % sicher. Mit diesem Score können Sie sicherstellen, dass sich Ihr Roboter nur auf Erkennungen mit hoher Sicherheit konzentriert.