Codieren mit dem AI Vision Sensor in VEXcode V5 Blocks

Stellen Sie sicher, dass Sie Farbsignaturen und Farbcodes mit Ihrem AI Vision Sensor konfiguriert haben, damit diese mit Ihren Blöcken verwendet werden können. Um mehr darüber zu erfahren, wie Sie sie konfigurieren, können Sie die folgenden Artikel lesen:

Der AI Vision Sensor kann auch AI-Klassifizierungen und AprilTags erkennen. Um zu erfahren, wie Sie diese Erkennungsmodi aktivieren, klicken Sie hier:

Weitere Einzelheiten zu diesen einzelnen Blöcken und ihrer Verwendung in VEXcode finden Sie auf der API-Site.


Schnappschuss machen

Ein Block, der den Befehl „Schnappschuss machen“ mit zwei Dropdown-Auswahlmöglichkeiten enthält: eine mit der Bezeichnung „AIVision1“ und die andere mit der Bezeichnung „COL1“. Dieser Block dient dazu, einen Schnappschuss von einem AI Vision-Sensor zu machen und auf ein bestimmtes Objekt oder eine bestimmte Farbe aus den angegebenen Variablen in einer visuellen Codierungsumgebung zu verweisen. Die Form des Blocks weist an den Enden leichte Rundungen auf, wie sie für blockbasierte Codierschnittstellen typisch sind.

Der BlockSchnappschuss machen “ macht ein Bild von dem, was der AI Vision Sensor aktuell sieht, und extrahiert Daten aus diesem Schnappschuss, die dann in einem Projekt verwendet werden können. Wenn ein Schnappschuss gemacht wird, müssen Sie angeben, von welchem Objekttyp der AI Vision Sensor Daten erfassen soll:

  • Farbsignatur
  • Farbcode
  • KI-Klassifikationen
  • AprilTags

Durch das Erstellen eines Schnappschusses wird ein Array aller erkannten Objekte erstellt, die Sie angegeben haben. Wenn Sie beispielsweise eine „Rote“Farbsignaturerkennen möchten und der AI Vision Sensor drei verschiedene rote Objekte erkennt, werden die Daten von allen drei in das Array eingefügt.

Weitere Informationen zum Festlegen zwischen verschiedenen Objekten finden Sie im Abschnitt „Objektelement festlegen“ in diesem Artikel.

Ein hellblauer Codierblock mit dem Befehl, einen Schnappschuss eines Objekts oder einer Farbe zu machen. Es gibt zwei Dropdown-Optionen: eine mit der Bezeichnung „AIVision2“ und die andere mit der Bezeichnung „Blau“. Der Block ist für die Verwendung in einer blockbasierten Codierungsumgebung konzipiert, wo er einen Schnappschuss von einem AI Vision-Sensor aufnimmt und ein als Blau definiertes Objekt oder eine Farbe verfolgt. Der Block weist leichte Rundungen auf, die typisch für Codierschnittstellen sind, die modulare Blöcke verwenden.

In diesem Beispiel werden nur Objekte erkannt, die der konfigurierten Farbsignatur „Blau“ entsprechen, und sonst nichts.

Aus einem Snapshot entnommene Daten

Bedenken Sie, dass der AI Vision Sensor für alle nachfolgenden Blöcke seinen zuletzt aufgenommenen Schnappschuss verwendet. Um sicherzustellen, dass Sie immer die aktuellsten Informationen von Ihrem AI Vision Sensor erhalten, erstellen Sie Ihren Schnappschuss jedes Mal erneut, wenn Sie Daten daraus abrufen möchten. 

Auflösung

Für eine genaue Dateninterpretation ist es entscheidend, die Auflösung des AI Vision Sensors zu verstehen. Der Sensor hat eine Auflösung von 320 x 240 Pixeln, wobei der genaue Mittelpunkt bei den Koordinaten (160, 120) liegt.

X-Koordinaten kleiner als 160 entsprechen der linken Hälfte des Sichtfelds des Sensors, während X-Koordinaten größer als 160 die rechte Hälfte darstellen. Ebenso geben Y-Koordinaten unter 120 die obere Hälfte der Ansicht an und solche über 120 die untere Hälfte.

Weitere Informationen zum Messen von Objekten mit dem AI Vision Sensor finden Sie unter Verstehen der Daten im AI Vision Utility in VEXcode V5.

Breite und Höhe

Dies ist die Breite oder Höhe des erkannten Objekts in Pixeln.

Das Bild zeigt einen blauen Buckyball mit einem weißen quadratischen Umriss, der ihn verfolgt. In der oberen linken Ecke befindet sich eine Beschriftung, die darauf hinweist, dass es sich um ein blaues Objekt mit den Koordinaten X:176, Y:117 und den Abmessungen B:80, H:78 handelt. Rote Pfeile markieren die Breite und Höhe des Objekts.

Die Breiten- und Höhenangaben helfen dabei, unterschiedliche Objekte zu identifizieren. Beispielsweise ist ein Buckyball höher als ein Ring.

Zwei blaue kubische Objekte werden von einem visuellen Erkennungssystem verfolgt. Der obere Würfel hat einen weißen Umriss mit einer Beschriftung, die seine Position als X:215, Y:70 und die Abmessungen B:73, H:84 angibt. Der untere Würfel hat einen ähnlichen weißen Umriss mit der Beschriftung X:188, Y:184 und den Abmessungen B:144, H:113. Jeder Würfel hat in der Mitte ein weißes Kreuz, das wahrscheinlich den Brennpunkt für die Verfolgung anzeigt. Die Beschriftungen heben die Messungen und Trackingdaten für jedes Objekt hervor.

Breite und Höhe geben auch die Entfernung eines Objekts vom AI Vision Sensor an. Kleinere Messungen bedeuten normalerweise, dass das Objekt weiter entfernt ist, während größere Messungen vermuten lassen, dass es näher ist.

Das Programm beginnt beim Start mit dem Block, gefolgt von einer Endlosschleife. Innerhalb der Schleife macht das Programm einen Schnappschuss und verwendet dabei den AI Vision-Sensor (AIVision1), um ein blaues Objekt zu erkennen. Wenn das Objekt existiert, prüft das Programm, ob die Breite des Objekts weniger als 250 Pixel beträgt. Wenn dieser Wert zutrifft, fährt der Roboter vorwärts, andernfalls stoppt er die Fahrt. Die Blöcke werden übereinander gestapelt und zeigen den Programmfluss in einer modularen Codierungsumgebung an.

In diesem Beispiel wird die Breite des Objekts zur Navigation verwendet. Der Roboter nähert sich dem Objekt, bis die Breite eine bestimmte Größe erreicht hat, und stoppt dann.

CenterX und Center Y

Dies sind die Mittelpunktskoordinaten des erkannten Objekts in Pixeln.

Ein blauer Buckyball, der von einem Computer-Vision-System verfolgt wird. Das Objekt ist mit einem weißen Quadrat umrandet und innerhalb der Umrandung befindet sich ein kleineres rotes Quadrat, das ein weißes Kreuz in der Mitte umgibt. In der oberen linken Ecke des Bildes zeigt eine Beschriftung an, dass das Objekt blau ist, mit den Koordinaten X:176, Y:117 und den Abmessungen B:80, H:78.

Die Koordinaten CenterX und CenterY helfen bei der Navigation und Positionierung. Der AI Vision Sensor hat eine Auflösung von 320 x 240 Pixeln.

Zwei blaue kubische Objekte, die von einem Sichtsystem verfolgt werden. Das obere Objekt ist mit den Koordinaten X:215, Y:70 und den Abmessungen B:73, H:84 sowie einer weißen Umrandung und einem zentrierten weißen Kreuz beschriftet. Das untere Objekt ist mit den Koordinaten X:188, Y:184 und den Abmessungen B:144, H:113 gekennzeichnet und ebenfalls weiß umrandet mit einem weißen Kreuz in der Mitte.

Sie können sehen, dass ein Objekt, das näher am AI Vision Sensor ist, eine niedrigere CenterY-Koordinate hat als ein weiter entferntes Objekt.

Eine blockbasierte Codierungssequenz, die mit „Wann gestartet“ beginnt, gefolgt von einer Endlosschleife. Innerhalb der Schleife macht das Programm mit AIVision1 einen Schnappschuss, um ein blaues Objekt zu erkennen. Wenn ein Objekt vorhanden ist, dreht sich das Programm, bis das Objekt in der Mitte der Ansicht des AI Vision-Sensors steht. Das Objekt wird als zentriert betrachtet, wenn sein CenterX-Wert zwischen 150 und 170 liegt. Wenn das Objekt nicht in der Mitte ist, biegt der Roboter nach rechts ab, andernfalls bleibt er stehen. Die Blöcke zeigen den Fluss und die Logik des visuellen Programms an.

Da in diesem Beispiel der Mittelpunkt der Ansicht des AI Vision Sensors (160, 120) ist, dreht sich der Roboter nach rechts, bis die Mitte-X-Koordinate eines erkannten Objekts größer als 150 Pixel, aber kleiner als 170 Pixel ist.

Winkel

Winkel ist eine Eigenschaft, die nur fürFarbcodes undAprilTagsverfügbar ist. Dies stellt dar, ob der erkannteFarbcodeoder AprilTag anders ausgerichtet ist.

Ein Stapel aus zwei Würfeln, einer grün oben und einer blau unten, die von einem Sichtsystem verfolgt werden. Beide Würfel sind von einer weißen Umrandung umgeben, in der Mitte des grünen Würfels befindet sich ein weißes Kreuz. Die Beschriftung unten im Bild zeigt Grün_Blau A:87° und gibt damit die erkannten Farben und eine Winkelmessung an. Darunter sind die Koordinaten X:117, Y:186 mit den Abmessungen B:137, H:172 aufgeführt, die die Position und Größe der gestapelten Würfel im Rahmen darstellen.

Sie können erkennen, ob der Roboter in Bezug auf denFarbcode oderAprilTag anders ausgerichtet ist und entsprechend Navigationsentscheidungen treffen.

Zwei Würfel, einer grün und einer blau, werden nebeneinander platziert und von einem Sichtsystem verfolgt. Ein weißer Umriss umgibt beide Würfel mit einem weißen Kreuz in der Mitte. Die Beschriftung oben links zeigt Grün_Blau A:0° und verweist auf die erkannten Farben und eine Winkelmessung. Darunter werden die Koordinaten X:150, Y:102 mit den Abmessungen B:179, H:109 angezeigt, die die Position und Größe der Würfel innerhalb des Rahmens darstellen.

Wenn beispielsweise einFarbcode nicht im richtigen Winkel erkannt wird, kann es sein, dass der Roboter das entsprechende Objekt nicht richtig aufnehmen kann.

OriginX und OriginY

OriginX und OriginY sind die Koordinate an der oberen linken Ecke des erkannten Objekts in Pixeln.

Ein blauer Buckyball, der von einem Sichtsystem verfolgt wird. Ein weißer Umriss umgibt das Objekt, mit einem zentrierten weißen Kreuz innerhalb des Umrisses. Das Etikett oben links gibt die Farbe des Objekts als Blau an, zusammen mit den Koordinaten X:176, Y:117 und den Abmessungen B:80, H:78. Ein kleines rotes Quadrat hebt die obere linke Ecke des Objekts hervor.

OriginX- und OriginY-Koordinaten helfen bei der Navigation und Positionierung. Durch Kombinieren dieser Koordinate mit der Breite und Höhe des Objekts können Sie die Größe des Begrenzungsrahmens des Objekts bestimmen. Dies kann beim Verfolgen bewegter Objekte oder beim Navigieren zwischen Objekten hilfreich sein.

Eine blockbasierte Codierungssequenz, die mit „Wann gestartet“ beginnt, gefolgt von einer Endlosschleife. Innerhalb der Schleife macht das Programm mit AIVision1 einen Schnappschuss, um ein blaues Objekt zu erkennen. Wenn das Objekt existiert, zeichnet das Programm basierend auf der Position und Größe des Objekts ein Rechteck auf dem Brain-Bildschirm. Das Rechteck wird unter Verwendung der originX-, originY-, Breiten- und Höhenwerte des Objekts gezeichnet, die vom AIVision1-Sensor bereitgestellt werden. Dieses Programm verfolgt das erkannte Objekt visuell und hebt es auf dem Brain-Bildschirm hervor.

In diesem Beispiel wird auf das Gehirn ein Rechteck mit den genauen Koordinaten seines Ursprungs, seiner Breite und Höhe gezeichnet.

tagID

Die TagID ist nur fürAprilTagsverfügbar. Dies ist die ID-Nummer für den angegebenenAprilTag.

Drei quadratische Karten mit AprilTags, die von einem Bildverarbeitungssystem verfolgt werden. Jede Karte ist mit einer ID-Nummer und den zugehörigen Trackingdaten versehen. Die Karte links trägt die Bezeichnung ID:0 und zeigt die Koordinaten A:350°, X:110, Y:96, W:41, H:41. Die mittlere Karte mit der Bezeichnung ID:3 hat die Koordinaten A:1°, X:187, Y:180, W:57, H:57. Die Karte rechts trägt die Bezeichnung ID:9 und die Koordinaten A:3°, X:237, Y:89, W:38, H:38. Jede Karte hat einen weißen Umriss und das System verfolgt ihre Positionen und Ausrichtungen.

Durch die Identifizierung spezifischer AprilTags ist eine selektive Navigation möglich. Sie können Ihren Roboter so programmieren, dass er sich auf bestimmte Markierungen zubewegt und andere ignoriert, und diese so effektiv als Wegweiser für die automatische Navigation nutzt.

Punktzahl

Die Score-Eigenschaft wird verwendet, wennKI-Klassifizierungen mit dem KI-Vision-Sensor erkannt werden.

Das Bild zeigt vier Objekte, die von einem Sichtsystem verfolgt werden: zwei Bälle und zwei Ringe. Der rote Ball ist mit den Koordinaten X:122, Y:84, W:67, H:66 und einer Punktzahl von 99 % gekennzeichnet. Der blaue Ball hat X:228, Y:86, W:70, H:68 und eine Punktzahl von 99 %. Der grüne Ring hat die Koordinaten X:109, Y:186, W:98, H:92 und eine Punktzahl von 99 %. Der rote Ring ist mit X:259, Y:187, W:89, H:91 beschriftet und hat eine Punktzahl von 99 %. Jedes Objekt ist weiß umrandet, was die Tracking-Genauigkeit anzeigt.

Der Vertrauenswert gibt an, wie sicher sich der AI Vision Sensor bei seiner Erkennung ist. In diesem Bild ist die Identifizierung der KI-Klassifizierungen dieser vier Objekte zu 99 % sicher. Mit diesem Score können Sie sicherstellen, dass sich Ihr Roboter nur auf Erkennungen mit hoher Sicherheit konzentriert.


Objektelement festlegen

Wenn der AI Vision Sensor ein Objekt erkennt, wird es in ein Array eingefügt. Standardmäßig zieht der AI Vision Sensor Daten vom ersten Objekt im Array oder dem Objekt mit dem Index 1. Wenn Ihr AI Vision Sensor nur ein Objekt erkannt hat, wird dieses Objekt standardmäßig ausgewählt.

Wenn Ihr AI Vision Sensor jedoch mehrere Objekte gleichzeitig erkannt hat, müssen Sie den BlockObjektelement festlegen verwenden, um anzugeben, von welchem Objekt Sie Daten abrufen möchten.

Ein hellblauer Codierblock. Es enthält einen Befehl, um das Objektelement für AIVision1 auf 1 zu setzen. Dieser Block ist Teil einer blockbasierten Codierungsumgebung und wird normalerweise verwendet, um zu definieren, auf welches Objekt oder Element sich der AI Vision-Sensor konzentrieren oder welches er verfolgen soll. Die Form des Blocks weist leichte Rundungen auf, die zum modularen Charakter der visuellen Codierungsplattform passen.

Wenn der AI Vision Sensor mehrere Objekte erkennt, werden sie im Array vom größten zum kleinsten angeordnet. Das bedeutet, dass dem größten erkannten Objekt immer der Objektindex 1 und dem kleinsten Objekt immer die höchste Nummer zugewiesen wird.

Die AI Vision Utility-Schnittstelle mit zwei auf der linken Seite erkannten blauen Würfeln, die jeweils mit ihren X- und Y-Koordinaten und Abmessungen markiert sind. Das System ist verbunden und AprilTags sind aktiviert, während die KI-Klassifizierung deaktiviert ist. Auf der rechten Seite werden die Blaufarbeinstellungen mit anpassbaren Farbton- und Sättigungsbereichen angezeigt, die auf 22 bzw. 0,34 eingestellt sind. Es besteht die Möglichkeit, Farbe hinzuzufügen oder einzustellen und Videos einzufrieren. Die Firmware ist auf dem neuesten Stand, es läuft die Version 1.0.0.b16 und unten ist eine Schaltfläche zum Schließen verfügbar.

In diesem Beispiel wurden zwei Objekte mit der Farbsignatur „Blau“ erkannt. Sie werden beide in das Array eingefügt, wenn der BlockTake Snapshot verwendet wird.

Die Schnittstelle des AI Vision Utility verfolgt zwei blaue Würfel, die mit ihren X-, Y- und Dimensionsdaten beschriftet sind. Der linke Würfel hat die Koordinaten X:127, Y:179 und die Abmessungen B:136, H:123, während der rechte Würfel die Koordinaten X:233, Y:74 und die Abmessungen B:78, H:87 hat. Das System ist verbunden, AprilTags ist eingeschaltet und die KI-Klassifizierung ist ausgeschaltet. Die blauen Farbeinstellungen haben einen Farbtonbereich von 22 und eine Sättigung von 0,34. Unten werden eine Schaltfläche „Video einfrieren“ und Firmware-Informationen (Version 1.0.0.b16) angezeigt.

Dabei würde das vordere Objekt den Objektindex 1 erhalten, da es das größte Objekt ist, und das kleinste Objekt würde den Objektindex 2 erhalten.


Objekt existiert

Bevor Sie Daten aus einem Snapshot abrufen, müssenimmer ob der AI Vision Sensor zuerst alle Objekte aus diesem Snapshot erkannt hat. Hier kommt der BlockObjekt existiert ins Spiel.

Es existiert ein hellblauer sechseckiger Codierungsblock mit dem Text „AIVision1-Objekt?“ Dieser Block ist Teil einer blockbasierten Codierungsumgebung und wird normalerweise verwendet, um zu überprüfen, ob ein Objekt vom AI Vision-Sensor mit der Bezeichnung AIVision1 erkannt wird. Der Block ist so konzipiert, dass er in eine modulare Codierungsstruktur mit den für solche Umgebungen charakteristischen leichten Kurven und Formen passt.

Dieser Block gibt einen WertTrue oderFalse zurück, je nachdem, ob im zuletzt erstellten Snapshot Objekte erkannt wurden oder nicht.

Dieser Block sollteimmer verwendet werden, um sicherzustellen, dass Sie nicht versuchen, Daten aus einem möglicherweise leeren Snapshot abzurufen.

Eine blockbasierte Codierungssequenz, die mit „Wann gestartet“ beginnt, gefolgt von einer Endlosschleife. Innerhalb der Schleife macht der AI Vision-Sensor (AIVision2) einen Schnappschuss, um die Farbe Blau zu erkennen. Wenn ein Objekt mit der blauen visuellen Signatur erkannt wird, fährt der Roboter vorwärts. Wenn kein Objekt erkannt wird, stoppt der Roboter die Fahrt. Die Blöcke werden gestapelt, um die bedingte Logik des Programms darzustellen, wobei die Anwesenheit eines erkannten Objekts die Bewegung des Roboters steuert.

Hier macht der Roboter beispielsweise mit dem AI Vision Sensor ständig Schnappschüsse. Wenn es irgendein Objekt mit der „blauen“ Farbsignaturidentifiziert, fährt es vorwärts.


Wenn ein Schnappschuss nicht die Farbsignatur „Blau“ aufweist, stoppt der Roboter seine Bewegung.


Objektanzahl

Ein hellblauer, abgerundeter Codierungsblock mit der Bezeichnung „AIVision1-Objektanzahl“. Dieser Block wird in einer blockbasierten Codierungsumgebung verwendet, um die Anzahl der vom AI Vision-Sensor mit der Bezeichnung AIVision1 erkannten Objekte abzurufen. Der Block passt in eine modulare Struktur, die häufig in visuellen Programmierschnittstellen für Robotik- oder Bildverarbeitungssysteme verwendet wird.

Mit dem Block Objektanzahl können Sie sehen, wie viele Objekte einer bestimmten Farbsignatur der AI Vision Sensor in seinem letzten Schnappschuss sehen kann. 

Die AI Vision Utility-Schnittstelle mit zwei erkannten blauen Würfeln auf der linken Seite. Das System ist verbunden, AprilTags ist aktiviert und die KI-Klassifizierung ist deaktiviert. Die Schnittstelle zeigt Einstellungen zur Erkennung der Farbe Blau an, wobei der Farbton auf 22 und die Sättigung auf 0,34 eingestellt ist. Schaltflächen zum Einfrieren des Videos und zum Hinzufügen oder Festlegen der Farbe sind vorhanden. Die Firmware wird als aktuell angezeigt und läuft in der Version 1.0.0.b16. Es gibt auch eine Schaltfläche zum Trennen der Verbindung oder Schließen des Dienstprogramms.

Hier sehen wir, dass der AI Vision Sensor die konfigurierte Farbsignatur „Blau“ hat und zwei Objekte erkennt.

Eine blockbasierte Codierungssequenz, die mit „Wann gestartet“ beginnt, gefolgt von einer Endlosschleife. Innerhalb der Schleife macht das Programm mit AIVision2 einen Schnappschuss, um die blaue visuelle Signatur zu erkennen. Es löscht und setzt die Konsole zurück, bevor geprüft wird, ob blaue Objekte erkannt werden. Wenn ein blaues Objekt vorhanden ist, wird die Objektanzahl auf der Konsole ausgegeben. Anschließend wartet das Programm zwei Sekunden, bevor es den Vorgang wiederholt. Die Blöcke stellen optisch eine kontinuierliche Prüfung auf blaue Objekte dar und zeigen die Ergebnisse in der Konsole an.Eine Konsolenausgabe mit der gedruckten Nummer 2. Die Konsole ist Teil einer größeren Schnittstelle, die wahrscheinlich Ergebnisse eines Programms anzeigt, das in einer blockbasierten Codierungsumgebung ausgeführt wird. Oben auf der Konsole befinden sich Schaltflächen für zusätzliche Aktionen oder Steuerelemente. Das hier ausgeführte Programm gibt Daten an die Druckkonsole aus, die das Ergebnis 2 auf dem Bildschirm anzeigt.

In diesem Code würde der AI Vision Sensor einen Schnappschuss machen und „2“ auf der VEXcode-Konsole ausgeben, da er nur zwei „blaue“ Farbsignaturenerkennt.


Objekt

Ein Dropdown-Menü zur Auswahl von Objekteigenschaften im Zusammenhang mit AIVision1. Die ausgewählte Option ist „Breite“ und das Menü listet weitere Optionen auf, darunter „Höhe“, „Mitte X“, „Mitte Y“, „Winkel“, „Ursprung X“, „Ursprung Y“, „Tag-ID“ und „Punktzahl“. Mit diesen Optionen kann der Benutzer bestimmte Datenpunkte des vom AI Vision-Sensor erkannten Objekts abrufen und so verschiedene Eigenschaften des Objekts flexibel verfolgen oder messen.

Der BlockObjekt ermöglicht Ihnen, die Eigenschaft Ihres angegebenen Objekts zu melden. Auf diese Weise können Sie alle verfügbaren Daten aus dem zuletzt erstellten Snapshot verwenden.

Aus aufgenommenen Schnappschüssen können folgende Objekteigenschaften abgerufen werden:

  • Breite
  • Höhe
  • ZentrumX
  • MitteY
  • Winkel
  • HerkunftX
  • Herkunft
  • tagID
  • Punktzahl

Weitere Informationen zu diesen Eigenschaften finden Sie im Abschnitt „Aus dem Snapshot übernommene Daten“ dieses Artikels.


Erkannter AprilTag ist

Ein hellblauer sechseckiger Block aus einer Codierschnittstelle. Es enthält den Befehl zum Überprüfen, ob der von AIVision1 erkannte AprilTag dem Wert 1 entspricht. Dieser Block wird in einer blockbasierten Codierungsumgebung verwendet und dient zur Auswertung, ob ein bestimmter AprilTag vorhanden ist. Aufgrund seiner Form und Struktur passt es in andere Logikblöcke, die typischerweise in der visuellen Programmierung für Robotik- oder KI-Vision-Aufgaben verwendet werden.

Der BlockErkannter AprilTag ist ist nur verfügbar, wenn derAprilTag-Erkennungsmodus aktiviert ist.

Dieser Block meldet „Wahr“ oder „Falsch“, je nachdem, ob das angegebene Objekt ein bestimmter AprilTag ist.

Drei AprilTags werden von einem Bildverarbeitungssystem verfolgt. Jedes Tag hat eine ID und zugehörige Koordinaten. Das linke Tag trägt die Bezeichnung ID:0 und die Koordinaten X:110, Y:96, B:41 und H:41. Das mittlere Tag trägt die Bezeichnung ID:3 und die Koordinaten X:187, Y:180, B:57 und H:57. Das rechte Etikett trägt die Bezeichnung ID:9 und die Koordinaten X:237, Y:89, B:38 und H:38.

Wenn in einem einzelnen Snapshot mehrere AprilTags erkannt werden, werden sie im Array basierend auf ihrer identifizierten ID und nicht nach Größe angeordnet.

In diesem Bild werden drei AprilTags mit den IDs 0, 3 und 9 erkannt. Sie werden im Array in aufsteigender Reihenfolge ihrer ID organisiert. Das Objekt bei Index 1 würde dem AprilTag mit der ID 0 entsprechen, bei Index 2 dem AprilTag mit der ID 3 und bei Index 3 dem AprilTag mit der ID 9.

Weitere Informationen zu AprilTags und wie Sie ihre Erkennung mit dem AI Vision Sensor aktivieren, finden Sie in diesem Artikel.


KI-Klassifizierung ist

Ein hellblauer sechseckiger Block aus einer blockbasierten Codierungsumgebung. Der Block enthält den Befehl AIVision1. Ist die KI-Klassifizierung BlueBall? Dieser Block prüft, ob der AI Vision-Sensor (AIVision1) das erkannte Objekt als BlueBall klassifiziert hat. Der Block verfügt über Dropdown-Optionen, mit denen Benutzer in einer visuellen Programmierschnittstelle verschiedene Objekte oder KI-Klassifizierungen für Tracking- und Entscheidungszwecke auswählen können.

Der BlockAI-Klassifizierung ist ist nur verfügbar, wenn der Erkennungsmodus derAI-Klassifizierung eingeschaltet ist.

 

Dieser Block meldet „True“ oder „False“, je nachdem, ob es sich bei dem angegebenen Objekt um eine bestimmte KI-Klassifizierung handelt.

Welche KI-Klassifizierungen vom KI-Vision-Sensor erkannt werden können, hängt vom verwendeten Modell ab. Weitere Informationen zu den verfügbaren KI-Klassifizierungen und zur Aktivierung ihrer Erkennung mit dem KI-Vision-Sensor finden Sie in diesem Artikel.

For more information, help, and tips, check out the many resources at VEX Professional Development Plus

Last Updated: