Upewnij się, że w swoim czujniku AI Vision masz skonfigurowane Sygnatur kolorów i Kody kolorów , aby można było ich używać z klockami. Aby dowiedzieć się więcej na temat ich konfiguracji, przeczytaj poniższe artykuły:
- Konfigurowanie sygnatur kolorów za pomocą sygnatury AI Vision w VEXcode EXP
- Konfigurowanie kodów kolorów z sygnaturą AI Vision w VEXcode EXP
Czujnik wizyjny AI potrafi również wykrywać klasyfikacje AI i AprilTagi. Aby dowiedzieć się, jak włączyć te tryby wykrywania, przejdź tutaj:
- Klasyfikacje AI z czujnikiem wizyjnym AI w VEXcode EXP
- AprilTags z czujnikiem wizyjnym AI w VEXcode EXP
Zrób migawkę
BlokTake Snapshot wykonuje zdjęcie tego, co aktualnie widzi czujnik AI Vision i pobiera z tej migawki dane, które można następnie wykorzystać w projekcie. Podczas wykonywania migawki należy określić typ obiektu, o którym czujnik AI Vision ma zbierać dane:
- Podpis kolorystyczny
- Kod kolorów
- Klasyfikacje AI
- KwiecieńTagi
Wykonanie migawki spowoduje utworzenie tablicy wszystkich wykrytych obiektów, które określiłeś. Na przykład, jeśli chcesz wykryć sygnaturę koloru „czerwonego”, a czujnik wizyjny AI wykrył 3 różne czerwone obiekty, dane ze wszystkich trzech zostaną umieszczone w tablicy.
Aby uzyskać więcej informacji na temat określania pozycji pomiędzy różnymi obiektami, przejdź do sekcji „Ustawianie elementu obiektu” w tym artykule.
W tym przykładzie wykryte zostaną wyłącznie obiekty odpowiadające skonfigurowanemu „Niebieskiemu” sygnaturze koloru i żadne inne.
Dane pobrane ze migawki
Należy pamiętać, że czujnik AI Vision użyje ostatniej zrobionej migawki dla wszystkich kolejnych bloków. Aby mieć pewność, że zawsze otrzymujesz najbardziej aktualne informacje z czujnika AI Vision, wykonuj migawkę za każdym razem, gdy chcesz pobrać z niej dane.
Rezolucja
Zrozumienie rozdzielczości czujnika AI Vision jest kluczowe dla dokładnej interpretacji danych. Rozdzielczość czujnika wynosi 320x240 pikseli, a dokładny środek znajduje się na współrzędnych (160, 120).
Współrzędne X mniejsze niż 160 odpowiadają lewej połowie pola widzenia czujnika, natomiast większe niż 160 – prawej połowie. Podobnie współrzędne Y mniejsze od 120 oznaczają górną połowę widoku, a te większe od 120 – dolną połowę.
Aby uzyskać więcej informacji na temat pomiaru obiektów za pomocą czujnika AI Vision, przejdź do sekcji Zrozumienie danych w narzędziu AI Vision Utility w VEXcode EXP.
Szerokość i wysokość
Jest to szerokość lub wysokość wykrytego obiektu w pikselach.
Pomiary szerokości i wysokości pomagają identyfikować różne obiekty. Na przykład Buckyball będzie miał większą wysokość niż Ring.
Szerokość i wysokość wskazują również odległość obiektu od czujnika AI Vision. Mniejsze pomiary zwykle oznaczają, że obiekt jest dalej, podczas gdy większe pomiary sugerują, że jest bliżej.
W tym przykładzie szerokość obiektu jest wykorzystywana do nawigacji. Robot będzie zbliżał się do obiektu, aż osiągnie on określoną szerokość, po czym się zatrzyma.
CenterX i Center Y
Są to współrzędne środka wykrytego obiektu w pikselach.
Współrzędne CenterX i CenterY ułatwiają nawigację i pozycjonowanie. Czujnik AI Vision ma rozdzielczość 320 x 240 pikseli.
Można zauważyć, że obiekt znajdujący się bliżej czujnika AI Vision będzie miał niższą współrzędną CenterY niż obiekt znajdujący się dalej.
W tym przykładzie, ponieważ środek pola widzenia czujnika AI Vision wynosi (160, 120), robot skręci w prawo, dopóki współrzędna środka X wykrytego obiektu nie będzie większa niż 150 pikseli, ale mniejsza niż 170 pikseli.
Kąt
Kąt jest właściwością dostępną wyłącznie dla kodów kolorów iAprilTags. Oznacza to, czy wykryty kod kolorulub AprilTag jest zorientowany inaczej.
Można sprawdzić, czy robot jest zorientowany inaczej w stosunku do kodu koloru lubAprilTag i na tej podstawie podjąć decyzje nawigacyjne.
Na przykład, jeśli kod koloru nie zostanie wykryty pod odpowiednim kątem, robot może nie być w stanie prawidłowo podnieść obiektu, który on przedstawia.
OriginX i OriginY
OriginX i OriginY to współrzędne w lewym górnym rogu wykrytego obiektu w pikselach.
Współrzędne OriginX i OriginY ułatwiają nawigację i pozycjonowanie. Łącząc tę współrzędną z szerokością i wysokością obiektu, można określić rozmiar pola ograniczającego obiekt. Może to pomóc w śledzeniu ruchomych obiektów lub nawigowaniu pomiędzy obiektami.
W tym przykładzie prostokąt zostanie narysowany w mózgu przy użyciu dokładnych współrzędnych jego początku, szerokości i wysokości.
identyfikator tagu
TagID jest dostępny tylko dla AprilTags. To jest numer ID dla określonegoAprilTag.
Zidentyfikowanie konkretnego AprilTags umożliwia selektywną nawigację. Możesz zaprogramować robota tak, aby poruszał się w kierunku określonych znaczników, ignorując inne. W ten sposób możesz wykorzystać je jako drogowskazy do automatycznej nawigacji.
Wynik
Właściwość wyniku jest używana w przypadku wykryciaklasyfikacji AI przez czujnik wizyjny AI.
Wynik pewności wskazuje, jak pewny jest czujnik AI Vision, że wykryje błąd. Na tym obrazku identyfikacja klasyfikacji AI tych czterech obiektów jest na poziomie 99% pewna. Za pomocą tego wyniku możesz mieć pewność, że Twój robot skupi się tylko na wykryciach o wysokiej pewności.
Ustaw element obiektu
Gdy czujnik wizyjny AI wykryje obiekt, jest on umieszczany w tablicy. Domyślnie czujnik AI Vision pobiera dane z pierwszego obiektu w tablicy lub obiektu o indeksie 1. Jeśli czujnik AI Vision wykrył tylko jeden obiekt, to obiekt ten zostanie wybrany domyślnie.
Jeśli jednak czujnik AI Vision wykrył wiele obiektów jednocześnie, należy użyć blokuUstaw element obiektu , aby określić, z którego obiektu mają zostać pobrane dane.
Gdy czujnik wizyjny AI wykryje wiele obiektów, są one układane w szeregu od największego do najmniejszego. Oznacza to, że największy wykryty obiekt będzie zawsze ustawiany na indeks obiektu 1, a najmniejszy obiekt będzie zawsze ustawiany na najwyższy numer.
W tym przykładzie wykryto dwa obiekty z sygnaturą kolorui kolorem „Niebieski”. Oba zostaną umieszczone w tablicy, gdy użyty zostanie blokTake Snapshot.
Tutaj obiekt z przodu otrzymałby indeks obiektu 1, ponieważ jest największym obiektem, a najmniejszy obiekt otrzymałby indeks obiektu 2.
Obiekt istnieje
Przed pobraniem jakichkolwiek danych ze migawki sprawdzić, czy czujnik AI Vision wykrył jakiekolwiek obiekty na tej migawce. Tutaj wchodzi w grę blokObject Exists.
Ten blok zwróci wartośćPrawda lubFałsz w zależności od tego, czy w ostatniej wykonanej migawce wykryto jakiekolwiek obiekty.
Ten blok powinienzawsze być używany, aby mieć pewność, że nie próbujesz pobrać żadnych danych z potencjalnie pustej migawki.
Na przykład robot będzie stale robił zdjęcia za pomocą czujnika wizyjnego AI. Jeżeli zidentyfikuje dowolny obiekt z sygnaturą koloru „niebieskiego” , pojedzie do przodu.
Jeżeli na jakimkolwiek zdjęciu nie będzie znajdował się podpis koloru „niebieskiego” , robot przestanie się poruszać.
Liczba obiektów
Użycie bloku Object count pozwoli Ci zobaczyć, ile obiektów o konkretnym kolorowym podpisie czujnik wizyjny AI Vision może wykryć w swoim ostatnim migawce.
Tutaj widzimy, że czujnik AI Vision ma skonfigurowany podpis koloru , „Niebieski” i wykrywa dwa obiekty.
W tym kodzie czujnik AI Vision wykonałby migawkę i wyświetlił „2” na konsoli VEXcode, ponieważ wykrywa tylko dwa sygnatury koloru „niebieskiego” .
Obiekt
BlokObiekt umożliwia zgłoszenie właściwości wskazanego obiektu. Dzięki temu możesz wykorzystać dowolne dostępne dane pobrane z ostatnio wykonanej migawki.
Właściwości obiektu, które można wyodrębnić z wykonanych migawek, to:
- szerokość
- wysokość
- środekX
- środek Y
- kąt
- pochodzenieX
- pochodzenieY
- identyfikator tagu
- wynik
Aby uzyskać więcej informacji na temat tych właściwości, przeczytaj sekcję „Dane pobrane ze migawki” w tym artykule.
Wykryto AprilTag to
BlokWykryto AprilTag to jest dostępny tylko wtedy, gdy włączony jest tryb wykrywania AprilTag
Ten blok będzie raportował wartość Prawda lub Fałsz w zależności od tego, czy określony obiekt jest konkretnym AprilTag.
Jeśli w pojedynczej migawce zostanie wykrytych wiele tagów AprilTag, zostaną one uporządkowane w tablicy na podstawie zidentyfikowanego identyfikatora, a nie rozmiaru.
Na tym obrazku wykryto trzy AprilTagi o identyfikatorach 0, 3 i 9. Będą one uporządkowane rosnąco według ich identyfikatorów w tablicy. Obiekt o indeksie 1 odpowiadałby AprilTag o ID 0, o indeksie 2 – AprilTag o ID 3, a o indeksie 3 – AprilTag o ID 9.
Klasyfikacja AI to
KlasyfikacjaAI to blok dostępny tylko wtedy, gdy włączony jest tryb wykrywania klasyfikacjiAI.
Ten blok będzie raportował wartość Prawda lub Fałsz w zależności od tego, czy określony obiekt należy do określonej klasyfikacji sztucznej inteligencji.
Klasyfikacje sztucznej inteligencji (AI) wykrywane przez czujnik wizyjny AI różnią się w zależności od używanego modelu. Aby uzyskać więcej informacji na temat dostępnych klasyfikacji AI i sposobu włączania ich wykrywania za pomocą czujnika wizyjnego AI, przeczytaj ten artykuł.