Använda AI-visionssensorn i V5RC Push Back Playground

Du kan använda AI-visionssensorn för att identifiera spelobjekt (block) på V5RC 25-26 Push Back Playground i VEXcode VR med hjälp av AI-klassificeringar.

Om du är bekant med den fysiska versionen av AI-visionssensorn , vet du att den fysiska sensorn också har möjlighet att rapportera information om AprilTags och konfigurerade färgsignaturer. Eftersom ingen robotkonfiguration behövs i VEXcode VR och inga AprilTags finns på V5RC 25-26 Push Back-fältet, rapporterar den virtuella sensorn endast information om de förkonfigurerade spelelementen: röda block och blå block. 


Så fungerar AI-visionssensorn i V5RC Push Back i VEXcode VR

AI-visionssensor på Dex

AI-visionssensorn är en kamera som automatiskt kan identifiera och skilja mellan spelelement, vilket gör att din robot autonomt kan orientera sig mot specifika objekt. Sensorn är förtränad för att känna igen årets V5RC Push Back-spelelement, så den kommer automatiskt att upptäcka block.

För att upptäcka dessa objekt är AI-visionssensorn monterad på robotens framsida (som visas här).


Samla in data från AI-visionssensorn

Du kan visa data som rapporteras av AI-visionssensorn via ögonblicksbildsfönstret, monitorkonsolen eller utskriftskonsolen i VEXcode VR.

V5RC Push Back-lekplats i VEXcode VR med AI Vision Sensor-snapshot-knappens bildtext.

För att visa ögonblicksbildsfönstret och se de data som AI-visionssensorn rapporterar, välj knappen AI-visionssensor

Välj knappenAI Vision Sensor igen för att dölja ögonblicksbildsfönstret. 

AI Vision-sensorvy på Dex med röda och blå block

Ögonblicksbildsfönstret visas i det övre vänstra hörnet av lekplatsfönstret och identifierar alla spelelement inom AI-visionssensorns synfält.

För varje detekterat objekt visas viktiga data inklusive klassificering, centrum X- och centrum Y-koordinater samt bredd och höjd.

Förklaringar av de typer av data som rapporteras av AI Vision Sensor, inklusive deras relaterade VEXcode-kommandon, finns i Blocks och Python VEX API.

Dessa kommandon kan användas i monitorn och/eller utskriftskonsolerna för att visualisera data från varje ögonblicksbild som tas medan projektet körs. Läs mer om att använda Monitor- och Print Consoles med Block, med Pythoneller Använda Print Console.


Använda AI-visionssensorn för att hjälpa Dex att identifiera objekt

Du kan använda AI-visionssensorn för att hjälpa Dex att navigera till specifika objekt genom att tolka sensorns data. Med den här tekniken kan Dex rikta in sig på och köra till Game Elements för att hämta dem.

AI-synsensorn rapporterar bara data från den senaste ögonblicksbilden, så Dex måste ständigt uppdatera den ögonblicksbilden medan han kör.

exempelprojektikon för V5RC 25-26 Pick Up Block med AI Vision

Det här exempelprojektet visar hur Dex kan använda AI-visionssensorn för att autonomt orientera sig mot ett block och plocka upp det.

Lär dig mer om att komma åt och köra exempelprojekt med Block eller med Python.


Använda Dex sensorer tillsammans

AI-visionssensorn kan kombineras med andra sensorer på roboten för att slutföra uppgifter runt om i fältet. En fullständig lista över sensorerna i den virtuella versionen av Dex finns på denna sida av VEX API. Här är bara några idéer som kan hjälpa dig att komma igång med din kod:

  • Använd AI-visionssensorn för att hitta och rikta in dig på ett spelelement, använd sedan GPS-sensornför att köra mot ett mål.
  • AnvändAI-synsensorn för att hitta och rikta in dig på flera spelelement, använd sedan optisk sensor för att bestämma färgen på blocket i transportbandet innan du släpper det.

Kom ihåg att ytterligare information om specifika kommandon, V5RC Push Back-fältet och Hero Bot, Dex, finns i VEX API och i den inbyggda hjälpen i VEXcode VR (Block och Python).

For more information, help, and tips, check out the many resources at VEX Professional Development Plus

Last Updated: