Varat izmantot AI redzes sensoru, lai identificētu spēles objektus (blokus) V5RC 25-26 Push Back rotaļu laukumā VEXcode VR vidē, izmantojot AI klasifikācijas.
Ja esat iepazinies ar AI redzes sensora fizisko versiju, jūs zināt, ka fiziskajam sensoram ir arī iespēja ziņot informāciju par AprilTags un konfigurētajiem krāsu parakstiem. Tā kā VEXcode VR nav nepieciešama robota konfigurācija un V5RC 25-26 atbīdīšanas laukā nav AprilTag tagu, virtuālais sensors ziņo informāciju tikai par iepriekš konfigurētajiem spēles elementiem: sarkanajiem blokiem un zilajiem blokiem.
Kā darbojas mākslīgā intelekta redzes sensors V5RC vidē? Atbildes reakcija VEXcode VR vidē.
Mākslīgā intelekta redzes sensors ir kamera, kas var automātiski identificēt un atšķirt spēles elementus, ļaujot jūsu robotam autonomi orientēties pret konkrētiem objektiem. Sensors ir iepriekš apmācīts atpazīt šī gada V5RC Push Back spēles elementus, tāpēc tas automātiski noteiks blokus.
Lai noteiktu šos objektus, robota priekšpusē ir uzstādīts mākslīgā intelekta redzes sensors (kā parādīts šeit).
Datu vākšana no AI redzes sensora
AI redzes sensora ziņotos datus var skatīt, izmantojot momentuzņēmuma logu, monitora konsoli vai drukas konsoli VEXcode VR lietotnē.
Lai skatītu momentuzņēmuma logu un redzētu datus, ko ziņo AI redzes sensors, atlasiet pogu AI redzes sensors.
Vēlreiz atlasiet poguAI redzes sensors , lai paslēptu momentuzņēmuma logu.
Momentuzņēmuma logs parādās rotaļu laukuma loga augšējā kreisajā stūrī un identificē visus spēles elementus AI redzes sensora redzes laukā.
Katram atklātajam objektam tas parāda galvenos datus, tostarp klasifikāciju, centra X un centra Y koordinātas, kā arī platumu un augstumu.
Mākslīgā intelekta redzes sensora ziņoto datu veidu skaidrojumi, tostarp ar tiem saistītās VEXkoda komandas, ir atrodami Python VEX API blokos un .
Šīs komandas var izmantot monitora un/vai drukas konsolēs, lai vizualizētu datus no katra momentuzņēmuma, kas tiek uzņemts projekta darbības laikā. Uzziniet vairāk par Monitor un Print Console izmantošanu ar blokiem, ar Pythonvai Drukas konsoles izmantošana.
Izmantojot AI redzes sensoru, lai palīdzētu Dex identificēt objektus
Varat izmantot AI redzes sensoru, lai palīdzētu Dex orientēties konkrētos objektos, interpretējot sensora datus. Ar šo tehnoloģiju Dekss var mērķēt uz spēles elementiem un aizbraukt uz tiem, lai tos savāktu.
Mākslīgā intelekta redzes sensors ziņos tikai par jaunākā momentuzņēmuma datiem, tāpēc Dex braukšanas laikā šis momentuzņēmums ir pastāvīgi jāatjaunina.
Šajā projekta piemērā ir parādīts, kā Dex var izmantot mākslīgā intelekta redzes sensoru, lai autonomi orientētos uz bloku un to paceltu.
Uzziniet par piekļuvi piemērprojektiem un to palaišanu ar vai bloku, izmantojot Python.
Deksa sensoru kopīga izmantošana
Mākslīgā intelekta redzes sensoru var kombinēt ar citiem robota sensoriem, lai veiktu uzdevumus laukā. Pilns Dex virtuālās versijas sensoru saraksts ir atrodams VEX API lapā Šīs ir tikai dažas idejas, kas palīdzēs jums sākt darbu ar kodu:
- Izmantojiet mākslīgā intelekta redzes sensoru , lai atrastu un notēmētu uz spēles elementu, pēc tam izmantojiet GPS sensorulai brauktu uz mērķi.
- Izmantojietmākslīgā intelekta redzes sensoru , lai atrastu un notēmētu uz vairākiem spēles elementiem, pēc tam izmantojiet optisko sensoru lai noteiktu bloka krāsu konveijerā pirms tā atlaišanas.
Atcerieties, ka papildu informāciju par konkrētām komandām, V5RC Push Back lauku un Hero Bot, Dex, var atrast VEX API un iebūvētajā palīdzībā VEXcode VR (Blocks un Python).