Använda AI-visionssensorn i V5RC High Stakes Playground

Du kan använda AI-visionssensorn för att identifiera spelobjekt (ringar och mobila mål) på VEX V5 Robotics Competition (V5RC) Over Under Playground i VEXcode VR med hjälp av AI-klassificeringar.

Om du är bekant med den fysiska versionen av AI-visionssensorn , vet du att den fysiska sensorn också har möjlighet att rapportera information om AprilTags och konfigurerade färgsignaturer. Eftersom ingen robotkonfiguration behövs i VEXcode VR och inga AprilTags finns på V5RC High Stakes-fältet, rapporterar den virtuella sensorn endast information om de förkonfigurerade spelelementen: Röda ringar, Blå ringar och mobila mål. 


Så fungerar AI-visionssensorn i V5RC High Stakes i VEXcode VR

AI-visionssensor på Axel.png

AI-visionssensorn är en kamera som automatiskt kan skilja mellan spelelement, vilket gör att roboten kan orientera sig autonomt mot specifika spelelement. Kameran har tränats på spelelementen för årets V5RC-spel, High Stakes, så ringar och mobila mål detekteras automatiskt.

För att upptäcka dessa objekt är AI-visionssensorn monterad på robotens framsida (som visas här).


Samla in data från AI-visionssensorn

Du kan visa data som rapporteras av AI-visionssensorn via ögonblicksbildsfönstret, monitorkonsolen eller utskriftskonsolen i VEXcode VR.

Obs:Axels arm måste höjas för att AI-visionssensorn ska vara fri från synfältet. Om armen inte är upphöjd kommer den att ta upp en stor del av kamerans mitt.

V5RC HS PG Fönster AI Vision-knapp.png

För att visa ögonblicksbildsfönstret och se de data som AI-visionssensorn rapporterar, välj knappen AI-visionssensor

Välj knappenAI Vision Sensor igen för att dölja ögonblicksbildsfönstret. 

bild (2).png

Fönstret för ögonblicksbilder visas i det övre vänstra hörnet av Playground-fönstret. Ögonblicksbilden identifierar alla spelelement inom AI-visionssensorns synfält och relaterad data. 

Data som skrivs ut i ögonblicksbildsfönstret för varje objekt inkluderar centrum X, centrum Y, bredd och höjd samt objektets klassificering. 

Förklaringar av de typer av data som rapporteras av AI-visionssensorn, inklusive deras relaterade VEXcode-kommandon, finns i VEX API. Både blockspecifika och Python-specifika sidor finns tillgängliga som referens. 

Dessa kommandon kan användas i monitorn och/eller utskriftskonsolerna för att visualisera data från varje ögonblicksbild som tas medan projektet körs. Läs mer om hur du använder monitor- och utskriftskonsolerna i dessa artiklar.


Använda AI-visionssensorn för att hjälpa Axel att identifiera objekt

Du kan använda AI-visionssensorn för att hjälpa Axel navigera till specifika objekt genom att använda din förståelse av de data som rapporteras av sensorn. Med hjälp av AI-visionssensorn kan Axel rikta in sig på och köra till ett spelelement för att plocka upp föremålet.

AI-visionssensorn rapporterar bara data från den senaste ögonblicksbilden, så Axel måste ständigt uppdatera den ögonblicksbilden under körning.

exempelprojektikon AI.png

I det här exempelprojektet kommer Axel att använda AI-visionssensorn för att avgöra om en röd ring finns framför den, svänga tills den röda ringens centrum X är mindre än 150 och sedan köra framåt mot ringen. För att köra framåt mot den röda ringen används AI-visionssensorn för att mäta bredden på objektet i sensorns ögonblicksbild. När bredden är tillräckligt stor vet roboten att den är inom räckhåll för att plocka upp den röda ringen.

Lär dig mer om att komma åt och köra exempelprojekt med dessa artiklar:


Använda Axels sensorer tillsammans

AI-visionssensorn kan kombineras med andra sensorer på roboten för att slutföra uppgifter runt om i fältet. En fullständig lista över sensorerna i den virtuella versionen av Axel finns på den här sidan av VEX API. Det här är bara några idéer som hjälper dig att komma igång med din kod.

  • Använd AI-synsensorn för att hitta och rikta in dig på ett spelelement, använd sedan främre avståndssensornför att köra tills objektet är nära roboten.
  • AnvändAI-visionssensorn för att hitta och navigera till ett mobilt mål, använd sedan GPS-sensorn för att flytta det mobila målet till hörnen av planen.
  • AnvändAI-synsensornför att hitta och navigera till en röd ring och ett mobilt mål, använd sedan rotationssensorn för att placera pushern och placera ringen på målet. 

Kom ihåg att ytterligare information om specifika kommandon, V5RC High Stakes Field och Hero Bot, Axel, finns i VEX API och i den inbyggda hjälpen i VEXcode VR (Block och Python).

 

For more information, help, and tips, check out the many resources at VEX Professional Development Plus

Last Updated: