Wykorzystanie czujnika wizyjnego AI na placu zabaw V5RC High Stakes

Możesz użyć czujnika AI Vision Sensor, aby pomóc Ci identyfikować obiekty w grze (pierścienie i bramki mobilne) na placu zabaw Over Under Playground konkursu robotyki VEX V5 Robotics Competition (V5RC) w VEXcode VR przy użyciu klasyfikacji AI.

Jeśli znasz wersję czujnika AI Vision Sensor, to wiesz, że fizyczny czujnik ma również możliwość raportowania informacji o AprilTags i skonfigurowanych sygnaturach kolorów. Ponieważ w VEXcode VR nie jest wymagana żadna konfiguracja robota, a na polu High Stakes V5RC nie ma żadnych znaczników AprilTags, wirtualny czujnik raportuje informacje wyłącznie na temat wstępnie skonfigurowanych elementów gry: czerwonych pierścieni, niebieskich pierścieni i mobilnych celów. 


Jak działa czujnik wizyjny AI w V5RC Wysokie stawki w VEXcode VR

czujnik wizyjny ai na Axel.png

Czujnik wizyjny AI to kamera, która potrafi automatycznie rozróżniać elementy gry, umożliwiając robotowi autonomiczne orientowanie się w stosunku do określonych elementów gry. Kamera została wyszkolona na Elementach Gry tegorocznej gry V5RC, High Stakes, dzięki czemu Pierścienie i Cele Mobilne są wykrywane automatycznie.

Aby wykryć te obiekty, czujnik wizyjny AI jest zamontowany z przodu robota (jak pokazano tutaj).


Zbieranie danych z czujnika wizyjnego AI

Dane raportowane przez czujnik AI Vision można przeglądać za pośrednictwem okna Snapshot, konsoli Monitor lub konsoli Print w oprogramowaniu VEXcode VR.

Uwaga:Ramię osi musi być podniesione, aby oczyścić pole widzenia czujnika AI Vision. Jeżeli ramię nie zostanie podniesione, zajmie ono znaczną część środka aparatu.

Przycisk V5RC HS PG Window AI Vision.png

Aby wyświetlić okno migawki i sprawdzić dane raportowane przez czujnik AI Vision, wybierz przycisk Czujnik AI Vision

Aby ukryć okno migawki, ponownie wybierz przyciskAI Vision Sensor

obraz (2).png

Okno migawki pojawi się w lewym górnym rogu okna placu zabaw. Migawka zidentyfikuje wszystkie elementy gry w polu widzenia czujnika wizyjnego AI i powiązane dane. 

Dane wyświetlane w oknie migawki dla każdego obiektu obejmują środek X, środek Y, szerokość i wysokość, a także klasyfikację obiektu. 

Wyjaśnienia dotyczące typów danych raportowanych przez czujnik AI Vision, w tym powiązanych z nimi poleceń VEXcode, można znaleźć w interfejsie API VEX. W celach informacyjnych dostępne są strony poświęcone blokom i językowi Python. 

Polecenia te można stosować w konsolach Monitor i/lub Print, aby wizualizować dane z każdej migawki wykonywanej podczas działania projektu. Dowiedz się więcej o korzystaniu z konsoli Monitor i Print, czytając te artykuły.


Wykorzystanie czujnika wizyjnego AI do pomocy Axelowi w identyfikacji obiektów

Możesz użyć czujnika AI Vision, aby pomóc Axelowi nawigować do określonych obiektów, wykorzystując swoją wiedzę na temat danych raportowanych przez czujnik. Dzięki czujnikowi wizyjnemu AI Axel może namierzyć i podjechać do elementu gry, aby go podnieść.

Czujnik wizyjny AI będzie raportował tylko dane z najnowszego zrzutu ekranu, dlatego Axel musi stale aktualizować ten zrzut ekranu podczas jazdy.

przykładowa ikona projektu AI.png

W tym przykładowym projekcie Axel użyje czujnika AI Vision, aby ustalić, czy przed nim znajduje się czerwony pierścień, skręci do momentu, aż środek X czerwonego pierścienia będzie mniejszy niż 150, a następnie pojedzie do przodu w kierunku pierścienia. Aby dotrzeć do Czerwonego Pierścienia, czujnik wizyjny AI mierzy szerokość obiektu na zdjęciu czujnika. Gdy szerokość będzie wystarczająco duża, robot będzie wiedział, że jest w zasięgu podniesienia Czerwonego Pierścienia.

Dowiedz się więcej o uzyskiwaniu dostępu i uruchamianiu przykładowych projektów, korzystając z tych artykułów:


Wspólne korzystanie z czujników Axela

Czujnik wizyjny AI można połączyć z innymi czujnikami robota, aby wykonywać zadania na polu. Pełną listę czujników w wirtualnej wersji Axela można znaleźć na stronie interfejsu API VEX. Oto kilka pomysłów, które pomogą Ci rozpocząć pracę nad kodem.

  • Użyj czujnika wizyjnego AI , aby znaleźć i namierzyć element gry, a następnie użyj czujnika odległości z przodu , aby jechać, aż obiekt znajdzie się blisko robota.
  • Użyj czujnikaAI Vision Sensor , aby znaleźć i nawigować do Mobilnego Celu, a następnie użyj czujnika GPS Sensor , aby przesunąć Mobilny Cel w rogi Boiska.
  • Użyj czujnikaAI Vision Sensor, aby znaleźć i nawigować do czerwonego pierścienia i mobilnej bramki, a następnie użyj czujnika Rotation Sensor , aby ustawić popychacz i umieścić pierścień na bramce. 

Pamiętaj, że dodatkowe informacje na temat konkretnych poleceń, pola wysokich stawek V5RC i bota bohatera Axela można znaleźć w interfejsie API VEX oraz we wbudowanej pomocy w VEXcode VR (bloki i Python).

 

For more information, help, and tips, check out the many resources at VEX Professional Development Plus

Last Updated: