Zrozumienie danych w narzędziu AI Vision Utility w VEXcode EXP

NarzędzieAI Vision Utility umożliwia podłączenie i konfigurację czujnikaAI Vision. Aby dowiedzieć się, jak to zrobić, możesz przeczytać te artykuły tutaj:

Zrozumienie sposobu, w jaki czujnik wizyjny AI wykrywa i mierzy obiekty, może pomóc w lepszym wykorzystaniu tych pomiarów w projektach kodowania. Dzięki tej wiedzy możesz poprawić swoje umiejętności kodowania i tworzyć dokładniejsze rozwiązania dla zadań, takich jak rozpoznawanie obiektów i analiza przestrzenna.

Zrozumienie odcienia i nasycenia

Narzędzie AI Vision Utility z pokazanymi opcjami sygnatury kolorystycznej. Sygnatura koloru nosi nazwę Blue i ma wartość Hue Range wynoszącą 32 oraz wartość Saturation Range wynoszącą 0,57.

Podczas konfigurowania sygnatury kolorów wyświetlane są opcje dotyczące odcienia i nasycenia. Umożliwiają one dostrojenie sygnatury kolorystycznej, aby była bardziej odporna. Sygnatura koloru jest uważana za trwałą, gdy obiekt można przesuwać i nadal można go śledzić za pomocą narzędzia AI Vision Utility.

Koło barw pokazujące, jak okrąg o promieniu 360 stopni odpowiada wartości odcienia. Kolor czerwony ma stopień 0, kolor zielony ma stopień 120, a kolor niebieski ma stopień 240.

Pierwszy suwak to zakres odcienia . Odcień to kolor, który postrzegamy, zgodnie z jego położeniem na kole barw. Zakres koła kolorów wynosi od 0 do 359,9 stopni, a każdy kolor na kole ma określoną wartość stopnia. 

Zakres odcienia umożliwia wybranie stopni powyżej i poniżej skonfigurowanego koloru, które będą wyświetlane jako ten kolor. Na przykład, ciemnoniebieski może mieć wartość odcienia 240 stopni. Przy zakresie odcienia równym 20 stopni, wszystko od 220 do 260 stopni będzie wyświetlane jako kolor skonfigurowany jako ciemnoniebieski.

Wykres wartości nasycenia wzrastającej od 0% do 100%. Wartość nasycenia 0% odpowiada kolorowi szaremu, a wartość nasycenia 100% odpowiada kolorowi jasnoczerwonemu.

Drugi suwak to zakres nasycenia . Nasycenie to intensywność i czystość koloru. Im jaśniejszy kolor, tym bardziej nasycony. Nasycenie to skala względna mierzona w procentach, gdzie 0% oznacza stonowany odcień szarości, a 100% oznacza intensywną wersję tego odcienia. 

Zakres nasycenia umożliwia wybranie procentu nasycenia powyżej i poniżej skonfigurowanego koloru, który będzie wyświetlany jako ten kolor. Na przykład, czerwona kula przy przyciemnionym oświetleniu może wyglądać jak 50% nasycenia. Przy zakresie nasycenia równym 0,25 (dziesiętny odpowiednik 25%), wszystko od 25% do 75% nasycenia będzie zgłaszane jako skonfigurowany kolor czerwony.

Zrozumienie pikseli i rozdzielczości

Schemat przedstawiający dom z kreskówki narysowany na papierze w kratkę, przy czym niektóre kwadraty są w pełni pokolorowane, aby reprezentowały piksele.

Wyobraź sobie, że rysujesz obrazek na kartce papieru w kratkę. Każdy malutki kwadracik na papierze jest jak piksel . Kolorując te kwadraty, tworzysz swój obrazek.

Niska rozdzielczość Wysoka rozdzielczość
Robot VEX 123 pokazany jest w bardzo niskiej rozdzielczości, aby pokazać poszczególne piksele na wyświetlaczach o niskiej rozdzielczości. Robot VEX 123 pokazany jest w wysokiej rozdzielczości, aby zademonstrować ostrzejszy obraz na wyświetlaczach o wysokiej rozdzielczości.

Porozmawiajmy teraz o rozdzielczości . Rozdzielczość to liczba pikseli w obrazie. Jeśli na papierze w kratkę znajduje się dużo małych kwadracików (pikseli), zdjęcie będzie ostre i szczegółowe. Jeśli jednak masz tylko kilka pikseli , Twoje zdjęcie może być rozmazane i mało wyraźne.

Diagram rozdzielczości czujnika AI Vision. Lewy górny róg jest oznaczony liczbą 0, 0, prawy górny róg jest oznaczony liczbą 320, 0, a lewy dolny róg jest oznaczony liczbą 0, 240. Środek ekranu oznaczony jest liczbami 160, 120.

Czujnik AI Vision ma rozdzielczość 320 pikseli w poziomie i 240 pikseli w pionie. Oznacza to, że dokładny środek detekcji pokrywa się ze współrzędnymi 160 na osi X i 120 na osi Y.

W jaki sposób czujnik wizyjny AI mierzy obiekty?

Dane zgłaszane przez czujnik

Czujnik wizyjny AI zbiera dane na temat skonfigurowanych kolorów, AprilTags i klasyfikacji AI. Część tych danych jest wyświetlana w narzędziu AI Vision Utility i może być pomocna podczas planowania i tworzenia projektu VEXcode. 

Na zdjęciu czujnik AI Vision śledzący Blue Buckyball. Wokół Buckyballa znajduje się prostokąt śledzący, a etykieta powyżej pokazuje, że ma on szerokość 80 pikseli i wysokość 78 pikseli. Czerwone strzałki podświetlają prostokąt śledzący, aby pokazać jego szerokość i wysokość.

Szerokość i wysokość

Jest to szerokość lub wysokość wykrytego obiektu w pikselach.

Pomiary szerokości i wysokości pomagają identyfikować różne obiekty. Na przykład Buckyball będzie miał większą wysokość niż Ring.

 

Na zdjęciu czujnik AI Vision śledzący Blue Buckyball. Wokół Buckyballa znajduje się prostokąt śledzący, a etykieta powyżej pokazuje, że jego pozycja X wynosi 176, a pozycja Y 117. Środek prostokąta śledzenia jest zaznaczony, aby pokazać, że położenie jest mierzone od środka.

CenterX i CenterY

Są to współrzędne środka wykrytego obiektu w pikselach.

Współrzędne CenterX i CenterY ułatwiają nawigację i pozycjonowanie. Czujnik AI Vision ma rozdzielczość 320 x 240 pikseli.

Animacja przedstawiająca czerwony i zielony kwadrat obracane jednocześnie w celu zademonstrowania 360 stopni wartości kąta.

Kąt

Kąt jest właściwością dostępną wyłącznie dla kodów kolorów iAprilTags. Oznacza to, czy wykryty kod kolorulub AprilTag jest zorientowany inaczej.

 

Na zdjęciu czujnik AI Vision śledzący Blue Buckyball. Wokół Buckyballa znajduje się prostokąt śledzący, a etykieta powyżej pokazuje, że jego pozycja X wynosi 176, a pozycja Y 117. Lewy górny róg prostokąta śledzenia jest zaznaczony, aby pokazać, że położenie początkowe jest mierzone od jego lewego górnego rogu.

OriginX i OriginY

OriginX i OriginY to współrzędne w lewym górnym rogu wykrytego obiektu w pikselach.

Współrzędne OriginX i OriginY ułatwiają nawigację i pozycjonowanie. Łącząc tę współrzędną z szerokością i wysokością obiektu, można określić rozmiar pola ograniczającego obiekt. Może to pomóc w śledzeniu ruchomych obiektów lub nawigowaniu pomiędzy obiektami.

 

Narzędzie AI Vision Utility śledzi trzy AprilTagi. Każdy tag jest identyfikowany, zlokalizowany i oznaczony, co wskazuje, że jest śledzony przez system. Identyfikatory AprilTag w tym przykładzie to 0, 9 i 3.

Identyfikator tagu

Identyfikator tagu jest dostępny tylko dla . To jest numer ID określonego AprilTag.

Identyfikacja konkretnych AprilTags umożliwia selektywną nawigację. Możesz zaprogramować robota tak, aby poruszał się w kierunku określonych znaczników, ignorując inne. W ten sposób możesz wykorzystać je jako drogowskazy do automatycznej nawigacji.

Narzędzie AI Vision śledzi cztery obiekty: dwa BuckyBalls i dwa Rings. Każdy obiekt zostaje zidentyfikowany, zlokalizowany i opisany, co wskazuje na to, że system go śledzi. Narzędzie wyświetla także wynik klasyfikacji AI każdego obiektu; w tym przykładzie każdy wynik wynosi 99%.

Wynik

Właściwość wyniku jest używana w przypadku wykryciaklasyfikacji AI przez czujnik wizyjny AI.

Wynik pewności wskazuje, jak pewny jest czujnik AI Vision, że wykryje błąd. Na tym obrazku identyfikacja klasyfikacji AI tych czterech obiektów jest na poziomie 99% pewna. Za pomocą tego wyniku możesz mieć pewność, że Twój robot skupi się tylko na wykryciach o wysokiej pewności.

For more information, help, and tips, check out the many resources at VEX Professional Development Plus

Last Updated: