Du kan använda AI-visionssensorn för att identifiera spelobjekt (block) på V5RC 25-26 Push Back Playground i VEXcode VR med hjälp av AI-klassificeringar.
Om du är bekant med den fysiska versionen av AI-visionssensorn , vet du att den fysiska sensorn också har möjlighet att rapportera information om AprilTags och konfigurerade färgsignaturer. Eftersom ingen robotkonfiguration behövs i VEXcode VR och inga AprilTags finns på V5RC 25-26 Push Back-fältet, rapporterar den virtuella sensorn endast information om de förkonfigurerade spelelementen: röda block och blå block.
Så fungerar AI-visionssensorn i V5RC Push Back i VEXcode VR
AI-visionssensorn är en kamera som automatiskt kan identifiera och skilja mellan spelelement, vilket gör att din robot autonomt kan orientera sig mot specifika objekt. Sensorn är förtränad för att känna igen årets V5RC Push Back-spelelement, så den kommer automatiskt att upptäcka block.
För att upptäcka dessa objekt är AI-visionssensorn monterad på robotens framsida (som visas här).
Samla in data från AI-visionssensorn
Du kan visa data som rapporteras av AI-visionssensorn via ögonblicksbildsfönstret, monitorkonsolen eller utskriftskonsolen i VEXcode VR.
För att visa ögonblicksbildsfönstret och se de data som AI-visionssensorn rapporterar, välj knappen AI-visionssensor.
Välj knappenAI Vision Sensor igen för att dölja ögonblicksbildsfönstret.
Ögonblicksbildsfönstret visas i det övre vänstra hörnet av lekplatsfönstret och identifierar alla spelelement inom AI-visionssensorns synfält.
För varje detekterat objekt visas viktiga data inklusive klassificering, centrum X- och centrum Y-koordinater samt bredd och höjd.
Förklaringar av de typer av data som rapporteras av AI Vision Sensor, inklusive deras relaterade VEXcode-kommandon, finns i Blocks och Python VEX API.
Dessa kommandon kan användas i monitorn och/eller utskriftskonsolerna för att visualisera data från varje ögonblicksbild som tas medan projektet körs. Läs mer om att använda Monitor- och Print Consoles med Block, med Pythoneller Använda Print Console.
Använda AI-visionssensorn för att hjälpa Dex att identifiera objekt
Du kan använda AI-visionssensorn för att hjälpa Dex att navigera till specifika objekt genom att tolka sensorns data. Med den här tekniken kan Dex rikta in sig på och köra till Game Elements för att hämta dem.
AI-synsensorn rapporterar bara data från den senaste ögonblicksbilden, så Dex måste ständigt uppdatera den ögonblicksbilden medan han kör.
Det här exempelprojektet visar hur Dex kan använda AI-visionssensorn för att autonomt orientera sig mot ett block och plocka upp det.
Lär dig mer om att komma åt och köra exempelprojekt med Block eller med Python.
Använda Dex sensorer tillsammans
AI-visionssensorn kan kombineras med andra sensorer på roboten för att slutföra uppgifter runt om i fältet. En fullständig lista över sensorerna i den virtuella versionen av Dex finns på denna sida av VEX API. Här är bara några idéer som kan hjälpa dig att komma igång med din kod:
- Använd AI-visionssensorn för att hitta och rikta in dig på ett spelelement, använd sedan GPS-sensornför att köra mot ett mål.
- AnvändAI-synsensorn för att hitta och rikta in dig på flera spelelement, använd sedan optisk sensor för att bestämma färgen på blocket i transportbandet innan du släpper det.
Kom ihåg att ytterligare information om specifika kommandon, V5RC Push Back-fältet och Hero Bot, Dex, finns i VEX API och i den inbyggda hjälpen i VEXcode VR (Block och Python).