Możesz użyć czujnika AI Vision Sensor, aby pomóc Ci identyfikować obiekty w grze (pierścienie i bramki mobilne) na placu zabaw Over Under Playground konkursu robotyki VEX V5 Robotics Competition (V5RC) w VEXcode VR przy użyciu klasyfikacji AI.
Jeśli znasz wersję czujnika AI Vision Sensor, to wiesz, że fizyczny czujnik ma również możliwość raportowania informacji o AprilTags i skonfigurowanych sygnaturach kolorów. Ponieważ w VEXcode VR nie jest wymagana żadna konfiguracja robota, a na polu High Stakes V5RC nie ma żadnych znaczników AprilTags, wirtualny czujnik raportuje informacje wyłącznie na temat wstępnie skonfigurowanych elementów gry: czerwonych pierścieni, niebieskich pierścieni i mobilnych celów.
Jak działa czujnik wizyjny AI w V5RC Wysokie stawki w VEXcode VR
Czujnik wizyjny AI to kamera, która potrafi automatycznie rozróżniać elementy gry, umożliwiając robotowi autonomiczne orientowanie się w stosunku do określonych elementów gry. Kamera została wyszkolona na Elementach Gry tegorocznej gry V5RC, High Stakes, dzięki czemu Pierścienie i Cele Mobilne są wykrywane automatycznie.
Aby wykryć te obiekty, czujnik wizyjny AI jest zamontowany z przodu robota (jak pokazano tutaj).
Zbieranie danych z czujnika wizyjnego AI
Dane raportowane przez czujnik AI Vision można przeglądać za pośrednictwem okna Snapshot, konsoli Monitor lub konsoli Print w oprogramowaniu VEXcode VR.
Uwaga:Ramię osi musi być podniesione, aby oczyścić pole widzenia czujnika AI Vision. Jeżeli ramię nie zostanie podniesione, zajmie ono znaczną część środka aparatu.
Aby wyświetlić okno migawki i sprawdzić dane raportowane przez czujnik AI Vision, wybierz przycisk Czujnik AI Vision.
Aby ukryć okno migawki, ponownie wybierz przyciskAI Vision Sensor.
Okno migawki pojawi się w lewym górnym rogu okna placu zabaw. Migawka zidentyfikuje wszystkie elementy gry w polu widzenia czujnika wizyjnego AI i powiązane dane.
Dane wyświetlane w oknie migawki dla każdego obiektu obejmują środek X, środek Y, szerokość i wysokość, a także klasyfikację obiektu.
Wyjaśnienia dotyczące typów danych raportowanych przez czujnik AI Vision, w tym powiązanych z nimi poleceń VEXcode, można znaleźć w interfejsie API VEX. W celach informacyjnych dostępne są strony poświęcone blokom i językowi Python.
Polecenia te można stosować w konsolach Monitor i/lub Print, aby wizualizować dane z każdej migawki wykonywanej podczas działania projektu. Dowiedz się więcej o korzystaniu z konsoli Monitor i Print, czytając te artykuły.
- Monitorowanie zmiennych i wykrywanie wartości w VEXcode VR z blokami
- Monitorowanie wartości zmiennych i czujników w VEXcode VR z Pythonem
- Korzystanie z konsoli drukowania w VEXcode VR
Wykorzystanie czujnika wizyjnego AI do pomocy Axelowi w identyfikacji obiektów
Możesz użyć czujnika AI Vision, aby pomóc Axelowi nawigować do określonych obiektów, wykorzystując swoją wiedzę na temat danych raportowanych przez czujnik. Dzięki czujnikowi wizyjnemu AI Axel może namierzyć i podjechać do elementu gry, aby go podnieść.
Czujnik wizyjny AI będzie raportował tylko dane z najnowszego zrzutu ekranu, dlatego Axel musi stale aktualizować ten zrzut ekranu podczas jazdy.
W tym przykładowym projekcie Axel użyje czujnika AI Vision, aby ustalić, czy przed nim znajduje się czerwony pierścień, skręci do momentu, aż środek X czerwonego pierścienia będzie mniejszy niż 150, a następnie pojedzie do przodu w kierunku pierścienia. Aby dotrzeć do Czerwonego Pierścienia, czujnik wizyjny AI mierzy szerokość obiektu na zdjęciu czujnika. Gdy szerokość będzie wystarczająco duża, robot będzie wiedział, że jest w zasięgu podniesienia Czerwonego Pierścienia.
Dowiedz się więcej o uzyskiwaniu dostępu i uruchamianiu przykładowych projektów, korzystając z tych artykułów:
Wspólne korzystanie z czujników Axela
Czujnik wizyjny AI można połączyć z innymi czujnikami robota, aby wykonywać zadania na polu. Pełną listę czujników w wirtualnej wersji Axela można znaleźć na stronie interfejsu API VEX. Oto kilka pomysłów, które pomogą Ci rozpocząć pracę nad kodem.
- Użyj czujnika wizyjnego AI , aby znaleźć i namierzyć element gry, a następnie użyj czujnika odległości z przodu , aby jechać, aż obiekt znajdzie się blisko robota.
- Użyj czujnikaAI Vision Sensor , aby znaleźć i nawigować do Mobilnego Celu, a następnie użyj czujnika GPS Sensor , aby przesunąć Mobilny Cel w rogi Boiska.
- Użyj czujnikaAI Vision Sensor, aby znaleźć i nawigować do czerwonego pierścienia i mobilnej bramki, a następnie użyj czujnika Rotation Sensor , aby ustawić popychacz i umieścić pierścień na bramce.
Pamiętaj, że dodatkowe informacje na temat konkretnych poleceń, pola wysokich stawek V5RC i bota bohatera Axela można znaleźć w interfejsie API VEX oraz we wbudowanej pomocy w VEXcode VR (bloki i Python).