Codierung mit dem KI-Vision-Sensor in VEXcode V5-Blöcken

Stellen Sie sicher, dass Sie Farbsignaturen und Farbcodes mit Ihrem KI-Vision-Sensor konfiguriert haben, damit diese mit Ihren Blöcken verwendet werden können. Um mehr darüber zu erfahren, wie Sie diese konfigurieren können, lesen Sie die folgenden Artikel:

Der KI-Vision-Sensor kann auch KI-Klassifizierungen und AprilTags erkennen. Um zu erfahren, wie Sie diese Erkennungsmodi aktivieren, klicken Sie hier:

Um mehr über diese einzelnen Blöcke und deren Verwendung in VEXcode zu erfahren, besuchen Sie die API-Website.


Schnappschuss machen

Ein Block, der den Befehl zum Erstellen eines Snapshots enthält, mit zwei Dropdown-Auswahlen: eine mit der Bezeichnung AIVision1 und die andere mit der Bezeichnung COL1. Dieser Block dient dazu, eine Momentaufnahme von einem AI Vision-Sensor zu erstellen und in einer visuellen Codierungsumgebung auf ein bestimmtes Objekt oder eine bestimmte Farbe anhand der festgelegten Variablen zu verweisen. Die Blockform weist an den Enden leichte Rundungen auf, typisch für blockbasierte Codierungsschnittstellen.

Der BlockTake Snapshot erstellt ein Bild von dem, was der KI-Vision-Sensor aktuell sieht, und extrahiert Daten aus dieser Momentaufnahme, die dann in einem Projekt verwendet werden können. Wenn eine Momentaufnahme erstellt wird, müssen Sie angeben, von welchem Objekttyp der KI-Vision-Sensor Daten erfassen soll:

  • Farbsignatur
  • Farbcode
  • KI-Klassifizierungen
  • AprilTags

Durch das Erstellen eines Snapshots wird ein Array aller erkannten Objekte erzeugt, die Sie angegeben haben. Wenn Sie beispielsweise eine „rote“Farbsignaturerkennen möchten und der KI-Vision-Sensor 3 verschiedene rote Objekte erkennt, werden die Daten aller drei in das Array eingefügt.

Weitere Informationen zur Unterscheidung zwischen verschiedenen Objekten finden Sie im Abschnitt „Objektelement festlegen“ in diesem Artikel.

Ein hellblauer Codierungsblock mit dem Befehl, einen Schnappschuss eines Objekts oder einer Farbe aufzunehmen. Es gibt zwei Dropdown-Optionen: eine mit der Bezeichnung AIVision2 und die andere mit der Bezeichnung Blue. Der Block ist für den Einsatz in einer blockbasierten Codierungsumgebung konzipiert, in der er eine Momentaufnahme von einem AI Vision-Sensor aufnimmt und ein als Blau definiertes Objekt oder eine Farbe verfolgt. Der Block weist leichte Krümmungen auf, typisch für Codierungsschnittstellen, die modulare Blöcke verwenden.

In diesem Beispiel werden nur Objekte erkannt, die der konfigurierten Farbsignatur „Blau“ entsprechen, und keine anderen.

Daten aus einer Momentaufnahme

Beachten Sie, dass der KI-Vision-Sensor für alle nachfolgenden Blöcke die zuletzt aufgenommene Momentaufnahme verwendet. Um sicherzustellen, dass Sie immer die aktuellsten Informationen von Ihrem KI-Vision-Sensor erhalten, sollten Sie jedes Mal eine neue Aufnahme machen, wenn Sie Daten daraus abrufen möchten. 

Auflösung

Das Verständnis der Auflösung des KI-Vision-Sensors ist für eine genaue Dateninterpretation entscheidend. Der Sensor hat eine Auflösung von 320x240 Pixeln, wobei sich der genaue Mittelpunkt bei den Koordinaten (160, 120) befindet.

X-Koordinaten kleiner als 160 entsprechen der linken Hälfte des Sichtfelds des Sensors, während solche größer als 160 die rechte Hälfte darstellen. Analog dazu bezeichnen Y-Koordinaten unter 120 die obere Hälfte des Bildausschnitts, solche über 120 die untere Hälfte.

Weitere Informationen darüber, wie Objekte mit dem AI Vision Sensor gemessen werden, finden Sie unter Understanding the Data in the AI Vision Utility in VEXcode V5.

Breite und Höhe

Dies ist die Breite oder Höhe des erkannten Objekts in Pixeln.

Das Bild zeigt einen blauen Buckyball, der von einem weißen quadratischen Umriss umgeben ist. In der oberen linken Ecke befindet sich eine Beschriftung, die darauf hinweist, dass es sich um ein blaues Objekt handelt, mit den Koordinaten X:176, Y:117 und den Abmessungen B:80, H:78. Rote Pfeile markieren die Breite und Höhe des Objekts.

Die Breiten- und Höhenangaben helfen bei der Identifizierung verschiedener Objekte. Ein Buckyball ist beispielsweise höher als ein Ring.

Zwei blaue, würfelförmige Objekte werden von einem visuellen Erkennungssystem verfolgt. Der obere Würfel hat eine weiße Umrandung und eine Beschriftung, die seine Position mit X:215, Y:70 und die Abmessungen W:73, H:84 angibt. Der untere Würfel hat eine ähnliche weiße Umrandung mit der Beschriftung X:188, Y:184 und den Abmessungen W:144, H:113. Jeder Würfel hat ein zentriertes weißes Kreuz, das wahrscheinlich den Fokuspunkt für die Verfolgung anzeigt. Die Beschriftungen heben die Messwerte und Tracking-Daten für jedes Objekt hervor.

Breite und Höhe geben auch die Entfernung eines Objekts vom KI-Vision-Sensor an. Kleinere Messwerte bedeuten in der Regel, dass das Objekt weiter entfernt ist, während größere Messwerte darauf hindeuten, dass es näher ist.

Das Programm beginnt mit dem Startblock, gefolgt von einer Endlosschleife. Innerhalb der Schleife erstellt das Programm mithilfe des AI Vision-Sensors (AIVision1) eine Momentaufnahme, um ein blaues Objekt zu erkennen. Existiert das Objekt, prüft das Programm, ob die Breite des Objekts weniger als 250 Pixel beträgt. Wenn dies zutrifft, fährt der Roboter vorwärts; andernfalls hält er an. Die Blöcke sind übereinander gestapelt und verdeutlichen den Programmablauf in einer modularen Codierungsumgebung.

In diesem Beispiel wird die Breite des Objekts zur Navigation verwendet. Der Roboter nähert sich dem Objekt so lange, bis die Breite eine bestimmte Größe erreicht hat, bevor er anhält.

ZentrumX und ZentrumY

Dies sind die Mittelpunktkoordinaten des erkannten Objekts in Pixeln.

Ein blauer Buckyball wird von einem Computer-Vision-System verfolgt. Das Objekt ist mit einem weißen Quadrat umrandet, und innerhalb der Umrandung befindet sich ein kleineres rotes Quadrat, das ein zentriertes weißes Kreuz umschließt. In der oberen linken Ecke des Bildes befindet sich eine Beschriftung, die darauf hinweist, dass das Objekt blau ist, mit den Koordinaten X:176, Y:117 und den Abmessungen B:80, H:78.

Die CenterX- und CenterY-Koordinaten helfen bei der Navigation und Positionierung. Der KI-Vision-Sensor hat eine Auflösung von 320 x 240 Pixeln.

Zwei blaue, würfelförmige Objekte, die von einem Bildverarbeitungssystem verfolgt werden. Das obere Objekt ist mit den Koordinaten X:215, Y:70 und den Abmessungen W:73, H:84 beschriftet und mit einer weißen Umrandung und einem zentrierten weißen Kreuz versehen. Das untere Objekt ist mit den Koordinaten X:188, Y:184 und den Abmessungen W:144, H:113 beschriftet und zusätzlich weiß umrandet mit einem zentrierten weißen Kreuz.

Man kann erkennen, dass ein Objekt, das näher am KI-Vision-Sensor ist, eine niedrigere CenterY-Koordinate hat als ein Objekt, das weiter entfernt ist.

Eine blockbasierte Codierungssequenz, die mit „When started“ beginnt und von einer Endlosschleife gefolgt wird. Innerhalb der Schleife erstellt das Programm mit Hilfe von AIVision1 eine Momentaufnahme, um ein blaues Objekt zu erkennen. Wenn ein Objekt vorhanden ist, dreht sich das Programm so lange, bis sich das Objekt im Zentrum des Sichtfelds des AI Vision-Sensors befindet. Ein Objekt gilt als zentriert, wenn sein centerX-Wert zwischen 150 und 170 liegt. Befindet sich das Objekt nicht in der Mitte, biegt der Roboter nach rechts ab; andernfalls stoppt er die Fahrt. Die Blöcke verdeutlichen den Ablauf und die Logik des visuellen Programms.

Da sich in diesem Beispiel der Mittelpunkt des Sichtfelds des KI-Vision-Sensors bei (160, 120) befindet, dreht sich der Roboter nach rechts, bis die CenterX-Koordinate eines erkannten Objekts größer als 150 Pixel, aber kleiner als 170 Pixel ist.

Winkel

Angle ist eine Eigenschaft, die nur fürFarbcodes undAprilTagsverfügbar ist. Dies stellt dar, ob der erkannte Farbcodeoder AprilTag anders ausgerichtet ist.

Ein Stapel aus zwei Würfeln, einem grünen oben und einem blauen unten, wird von einem Bildverarbeitungssystem verfolgt. Beide Würfel sind von einem weißen Rahmen umgeben, auf dem grünen Würfel befindet sich mittig ein weißes Kreuz. Die Beschriftung am unteren Bildrand zeigt Green_Blue A:87° an und gibt die erkannten Farben sowie eine Winkelmessung an. Darunter sind die Koordinaten als X:117, Y:186 mit den Abmessungen W:137, H:172 angegeben, die die Position und Größe der gestapelten Würfel im Rahmen darstellen.

Sie können überprüfen, ob der Roboter in Bezug auf den Farbcode oderAprilTag anders ausgerichtet ist und entsprechend Navigationsentscheidungen treffen.

Zwei Würfel, ein grüner und ein blauer, werden nebeneinander platziert und von einem Bildverarbeitungssystem verfolgt. Beide Würfel sind von einem weißen Rahmen umgeben, in dessen Mitte sich ein weißes Kreuz befindet. Die Beschriftung oben links gibt Green_Blue A:0° an und bezieht sich auf die erkannten Farben und eine Winkelmessung. Darunter werden die Koordinaten als X:150, Y:102 mit den Abmessungen W:179, H:109 angezeigt, die die Position und Größe der Würfel innerhalb des Rahmens darstellen.

Wird beispielsweise einFarbcode nicht im richtigen Winkel erkannt, kann das von ihm dargestellte Objekt möglicherweise nicht richtig vom Roboter aufgenommen werden.

OriginX und OriginY

OriginX und OriginY sind die Koordinaten in der oberen linken Ecke des erkannten Objekts in Pixeln.

Ein blauer Buckyball wird von einem Bildverarbeitungssystem verfolgt. Das Objekt ist von einem weißen Rahmen umgeben, innerhalb dessen sich mittig ein weißes Kreuz befindet. Die Beschriftung oben links gibt die Farbe des Objekts als blau an, zusammen mit den Koordinaten X:176, Y:117 und den Abmessungen W:80, H:78. Ein kleines rotes Quadrat markiert die linke obere Ecke des Objekts.

Die Koordinaten OriginX und OriginY helfen bei der Navigation und Positionierung. Durch die Kombination dieser Koordinate mit der Breite und Höhe des Objekts lässt sich die Größe des Begrenzungsrahmens des Objekts bestimmen. Dies kann beim Verfolgen sich bewegender Objekte oder beim Navigieren zwischen Objekten hilfreich sein.

Eine blockbasierte Codierungssequenz, die mit dem Startvorgang beginnt und von einer Endlosschleife gefolgt wird. Innerhalb der Schleife erstellt das Programm mit Hilfe von AIVision1 eine Momentaufnahme, um ein blaues Objekt zu erkennen. Existiert das Objekt, zeichnet das Programm ein Rechteck auf dem Bildschirm des Gehirns, dessen Größe und Position dem Objekt entsprechen. Das Rechteck wird unter Verwendung der Werte originX, originY, Breite und Höhe des Objekts gezeichnet, die vom AIVision1-Sensor bereitgestellt werden. Dieses Programm verfolgt und hebt das erkannte Objekt visuell auf dem Bildschirm von Brain hervor.

In diesem Beispiel wird auf dem Gehirn ein Rechteck gezeichnet, wobei die genauen Koordinaten seines Ursprungs, seiner Breite und seiner Höhe verwendet werden.

tagID

Die Tag-ID ist nur fürAprilTagsverfügbar. Dies ist die ID-Nummer für den angegebenenAprilTag.

Drei quadratische Karten mit AprilTags, die von einem Bildverarbeitungssystem verfolgt werden. Jede Karte ist mit einer ID-Nummer und zugehörigen Tracking-Daten versehen. Die Karte links ist mit ID:0 beschriftet und zeigt die Koordinaten A:350°, X:110, Y:96, W:41, H:41. Die mittlere Karte mit der Bezeichnung ID:3 hat die Koordinaten A:1°, X:187, Y:180, W:57, H:57. Die Karte rechts ist mit ID:9 beschriftet, mit den Koordinaten A:3°, X:237, Y:89, W:38, H:38. Jede Karte hat einen weißen Rand, und das System erfasst ihre Positionen und Ausrichtungen.

Durch die Identifizierung spezifischer AprilTags wird eine selektive Navigation ermöglicht. Sie können Ihren Roboter so programmieren, dass er sich auf bestimmte Markierungen zubewegt, während er andere ignoriert, und diese somit effektiv als Wegweiser für die automatisierte Navigation nutzen.

Punktzahl

Die Score-Eigenschaft wird verwendet, wenn mit dem KI-Vision-SensorKI-Klassifizierungen erkannt werden.

Das Bild zeigt vier Objekte, die von einem Bildverarbeitungssystem verfolgt werden: zwei Kugeln und zwei Ringe. Der rote Ball ist mit den Koordinaten X:122, Y:84, W:67, H:66 und einer Punktzahl von 99% gekennzeichnet. Der blaue Ball hat die Werte X:228, Y:86, W:70, H:68 und eine Punktzahl von 99%. Der grüne Ring hat die Koordinaten X:109, Y:186, W:98, H:92 und eine Punktzahl von 99%. Der rote Ring ist mit X:259, Y:187, W:89, H:91 beschriftet und hat eine Punktzahl von 99%. Jedes Objekt ist weiß umrandet, was die Genauigkeit der Verfolgung verdeutlicht.

Der Konfidenzwert gibt an, wie sicher sich der KI-Vision-Sensor bei seiner Erkennung ist. In diesem Bild ist die KI-Klassifizierung dieser vier Objekte zu 99 % sicher. Mithilfe dieser Punktzahl können Sie sicherstellen, dass sich Ihr Roboter nur auf Erkennungen mit hoher Treffsicherheit konzentriert.


Objekt festlegen

Wenn ein Objekt vom KI-Vision-Sensor erkannt wird, wird es in ein Array eingefügt. Standardmäßig liest der KI-Vision-Sensor Daten vom ersten Objekt im Array, also dem Objekt mit dem Index 1. Wenn Ihr KI-Vision-Sensor nur ein Objekt erkannt hat, wird dieses Objekt standardmäßig ausgewählt.

Wenn Ihr KI-Vision-Sensor jedoch mehrere Objekte gleichzeitig erkannt hat, müssen Sie den Block „Objekt festlegen Element verwenden, um anzugeben, von welchem Objekt Sie Daten abrufen möchten.

Ein hellblauer Codierungsblock. Es enthält einen Befehl, um das Objektelement für AIVision1 auf 1 zu setzen. Dieser Block ist Teil einer blockbasierten Codierungsumgebung und wird typischerweise verwendet, um festzulegen, auf welches Objekt oder Element sich der KI-Vision-Sensor konzentrieren oder welches er verfolgen soll. Die Form des Blocks weist leichte Kurven auf und fügt sich so in den modularen Aufbau der visuellen Codierungsplattform ein.

Wenn der KI-Vision-Sensor mehrere Objekte erkennt, werden diese in der Anordnung vom größten zum kleinsten Objekt angeordnet. Das bedeutet, dass das größte erkannte Objekt immer den Objektindex 1 erhält und das kleinste Objekt immer die höchste Zahl.

Die Benutzeroberfläche des AI Vision Utility zeigt zwei blaue Würfel auf der linken Seite, die jeweils mit ihren X- und Y-Koordinaten und Abmessungen gekennzeichnet sind. Das System ist verbunden, AprilTags sind aktiviert, die KI-Klassifizierung ist deaktiviert. Auf der rechten Seite werden die Einstellungen für die blaue Farbe mit einstellbaren Bereichen für Farbton und Sättigung angezeigt, die auf 22 bzw. 0,34 eingestellt sind. Es besteht die Möglichkeit, Farben hinzuzufügen oder festzulegen und das Video einzufrieren. Die Firmware ist auf dem neuesten Stand und läuft in Version 1.0.0.b16. Am unteren Rand befindet sich eine Schaltfläche zum Schließen.

In diesem Beispiel wurden zwei Objekte mit der Farbsignatur „Blau“ erkannt. Beide Elemente werden in das Array eingefügt, wenn der BlockTake Snapshot verwendet wird.

Die Benutzeroberfläche des AI Vision Utility verfolgt zwei blaue Würfel, die mit ihren X-, Y- und Dimensionsdaten beschriftet sind. Der linke Würfel hat die Koordinaten X:127, Y:179 und die Abmessungen W:136, H:123, während der rechte Würfel die Koordinaten X:233, Y:74 und die Abmessungen W:78, H:87 hat. Das System ist verbunden, AprilTags ist eingeschaltet und die KI-Klassifizierung ist deaktiviert. Die Einstellungen für die blaue Farbe haben einen Farbtonbereich von 22 und eine Sättigung von 0,34. Am unteren Rand werden eine Schaltfläche zum Einfrieren des Videos und Firmware-Informationen (Version 1.0.0.b16) angezeigt.

Hierbei würde das vorderste Objekt den Objektindex 1 erhalten, da es das größte Objekt ist, und das kleinste Objekt den Objektindex 2.


Objekt existiert

Bevor Daten aus einem Snapshot abgerufen werden, ist es wichtig zu überprüfen, ob der KI-Vision-Sensor Objekte aus diesem Snapshot erkannt hat. Hier kommt der BlockObjekte existieren ins Spiel.

Existiert ein hellblauer, sechseckiger Codierungsblock mit dem Text „AIVision1 object exists“? Dieser Block ist Teil einer blockbasierten Codierungsumgebung und wird typischerweise verwendet, um zu überprüfen, ob ein Objekt vom als AIVision1 bezeichneten AI Vision-Sensor erkannt wird. Der Block ist so konzipiert, dass er sich in eine modulare Codierungsstruktur einfügt und die für solche Umgebungen charakteristischen leichten Kurven und Formen aufweist.

Dieser Block gibt einen Wert vonWahr), 1 (Falsch), (Falsch) oder(Nicht wahr zurück, je nachdem, ob im zuletzt erstellten Snapshot Objekte erkannt wurden.

Block sollteverwendet werden um sicherzustellen, dass Sie nicht versuchen, Daten aus einem möglicherweise leeren Snapshot abzurufen.

Eine blockbasierte Codierungssequenz, die mit „When started“ beginnt und anschließend in einer Endlosschleife endet. Innerhalb der Schleife nimmt der AI Vision-Sensor (AIVision2) eine Momentaufnahme auf, um die Farbe Blau zu erkennen. Wird ein Objekt mit der blauen visuellen Signatur erkannt, fährt der Roboter vorwärts. Wird kein Objekt erkannt, stoppt der Roboter die Fahrt. Die Blöcke sind so gestapelt, dass sie die bedingte Logik des Programms darstellen, wobei die Anwesenheit eines erkannten Objekts die Bewegung des Roboters steuert.

Hier wird der Roboter beispielsweise ständig Schnappschüsse mit dem KI-Vision-Sensor aufnehmen. Wenn es mit der „blauen Farbsignatur erkennt, fährt es.


Wenn ein Schnappschuss nicht die „Blaue“ Farbsignaturaufweist, stoppt der Roboter seine Bewegung.


Objektanzahl

Ein hellblauer, abgerundeter Codierungsblock mit der Bezeichnung AIVision1 Objektanzahl. Dieser Block wird in einer blockbasierten Codierungsumgebung verwendet, um die Anzahl der vom AI Vision-Sensor mit der Bezeichnung AIVision1 erkannten Objekte abzurufen. Der Block passt in eine modulare Struktur, wie sie häufig in visuellen Programmierschnittstellen für Robotik oder Bildverarbeitungssysteme verwendet wird.

Mit dem Block Objektanzahl KI-Vision-Sensor in seiner letzten Momentaufnahme erkennen konnte. 

Die Benutzeroberfläche des KI-Vision-Dienstprogramms mit zwei erkannten blauen Würfeln auf der linken Seite. Das System ist verbunden, AprilTags ist aktiviert und die KI-Klassifizierung ist deaktiviert. Die Benutzeroberfläche zeigt Einstellungen zur Erkennung der Farbe Blau an, wobei der Farbton auf 22 und die Sättigung auf 0,34 eingestellt ist. Es gibt Schaltflächen zum Einfrieren des Videos und zum Hinzufügen oder Einstellen der Farbe. Die Firmware ist laut Anzeige auf dem neuesten Stand und läuft in Version 1.0.0.b16. Außerdem gibt es eine Schaltfläche zum Trennen der Verbindung oder zum Schließen des Dienstprogramms.

Hier sehen wir, dass der KI-Vision-Sensor die konfigurierte Farbsignatur Farbe „Blau“ hat und zwei Objekte erkennt.

Eine blockbasierte Codierungssequenz, die mit dem Startzeitpunkt beginnt und von einer Endlosschleife gefolgt wird. Innerhalb der Schleife erstellt das Programm mit Hilfe von AIVision2 eine Momentaufnahme, um die blaue visuelle Signatur zu erkennen. Es löscht und setzt die Konsole zurück, bevor geprüft wird, ob blaue Objekte erkannt wurden. Falls ein blaues Objekt vorhanden ist, wird die Anzahl der Objekte in der Konsole ausgegeben. Das Programm wartet dann zwei Sekunden, bevor es den Vorgang wiederholt. Die Blöcke stellen visuell eine kontinuierliche Suche nach blauen Objekten dar, wobei die Ergebnisse in der Konsole angezeigt werden.Eine Konsolenausgabe mit der Zahl 2. Die Konsole ist Teil einer größeren Benutzeroberfläche, die wahrscheinlich Ergebnisse eines Programms anzeigt, das in einer blockbasierten Codierungsumgebung ausgeführt wird. Auf der Oberseite der Konsole befinden sich Tasten für zusätzliche Aktionen oder Steuerelemente, und das hier laufende Programm gibt Daten an die Druckkonsole aus, die auf dem Bildschirm das Ergebnis 2 anzeigt.

In diesem Code würde der KI-Vision-Sensor eine Momentaufnahme machen und „2“ auf der VEXcode-Konsole ausgeben, da er nur zwei „Blaue“ Farbsignaturenerkennt.


Objekt

Ein Dropdown-Menü zur Auswahl von Objekteigenschaften im Zusammenhang mit AIVision1. Die ausgewählte Option ist Breite, und das Menü listet weitere Optionen auf, darunter Höhe, centerX, centerY, Winkel, originX, originY, tagID und Punktzahl. Diese Optionen ermöglichen es dem Benutzer, spezifische Datenpunkte des vom AI Vision-Sensor erkannten Objekts abzurufen und bieten so Flexibilität bei der Verfolgung oder Messung verschiedener Attribute des Objekts.

Der BlockObjekt ermöglicht es Ihnen, die Eigenschaften des angegebenen Objekts auszugeben. Dies ermöglicht es Ihnen, alle verfügbaren Daten aus der zuletzt erstellten Momentaufnahme zu nutzen.

Folgende Objekteigenschaften können aus erstellten Momentaufnahmen abgerufen werden:

  • Breite
  • Höhe
  • centerX
  • ZentrumY
  • Winkel
  • originX
  • UrsprungY
  • tagID
  • Punktzahl

Weitere Informationen zu diesen Eigenschaften finden Sie im Abschnitt „Daten aus der Momentaufnahme“ dieses Artikels.


AprilTag erkannt

Ein hellblauer sechseckiger Block aus einer Programmierschnittstelle. Es enthält den Befehl, um zu überprüfen, ob der von AIVision1 erkannte AprilTag dem Wert 1 entspricht. Dieser Block wird in einer blockbasierten Codierungsumgebung verwendet und dient dazu zu prüfen, ob ein bestimmter AprilTag vorhanden ist. Durch seine Form und Struktur lässt es sich in andere Logikblöcke einfügen, die typischerweise in der visuellen Programmierung für Robotik- oder KI-Vision-Aufgaben verwendet werden.

Der Block AprilTags“ ist nur verfügbar, wenn der-Erkennungsmodus aktiviert ist.

Dieser Block gibt True oder False zurück, je nachdem, ob es sich bei dem angegebenen Objekt um einen bestimmten AprilTag handelt.

Drei AprilTags werden von einem Bildverarbeitungssystem verfolgt. Jedes Tag hat eine ID und zugehörige Koordinaten. Das linke Etikett trägt die Bezeichnung ID:0 und die Koordinaten X:110, Y:96, W:41, H:41. Das mittlere Etikett trägt die Bezeichnung ID:3 und die Koordinaten X:187, Y:180, W:57, H:57. Das rechte Etikett trägt die Bezeichnung ID:9 und die Koordinaten X:237, Y:89, W:38, H:38.

Werden in einem einzelnen Snapshot mehrere AprilTags erkannt, werden sie im Array anhand ihrer identifizierten ID und nicht anhand ihrer Größe angeordnet.

In diesem Bild werden drei AprilTags mit den IDs 0, 3 und 9 erkannt. Sie werden in aufsteigender Reihenfolge ihrer ID im Array angeordnet. Das Objekt an Index 1 entspricht dem AprilTag mit der ID 0, an Index 2 dem AprilTag mit der ID 3 und an Index 3 dem AprilTag mit der ID 9.

Weitere Informationen darüber, was AprilTags sind und wie deren Erkennung mit dem AI Vision Sensor aktiviert werden kann, finden Sie in diesem Artikel.


KI-Klassifizierung ist

Ein hellblauer sechseckiger Block aus einer blockbasierten Programmierumgebung. Der Block enthält den Befehl AIVision1. Ist die KI-Klassifizierung BlueBall? Dieser Block prüft, ob der AI Vision-Sensor (AIVision1) das erkannte Objekt als BlueBall klassifiziert hat. Der Block verfügt über Dropdown-Optionen, die es Benutzern ermöglichen, in einer visuellen Programmierschnittstelle verschiedene Objekte oder KI-Klassifizierungen für Tracking- und Entscheidungszwecke auszuwählen.

Der BlockAI Classification is ist nur verfügbar, wenn der Erkennungsmodus „AI Classification Detection Mode aktiviert ist.

 

Dieser Block gibt True oder False zurück, je nachdem, ob es sich bei dem angegebenen Objekt um eine bestimmte KI-Klassifizierung handelt.

Welche KI-Klassifizierungen vom KI-Vision-Sensor erkannt werden können, hängt vom verwendeten Modell ab. Weitere Informationen zu den verfügbaren KI-Klassifizierungen und deren Erkennung mit dem KI-Vision-Sensor finden Sie in diesem Artikel.

For more information, help, and tips, check out the many resources at VEX Professional Development Plus

Last Updated: