Puoi usare il sensore di visione AI per aiutarti a identificare gli oggetti di gioco (anelli e obiettivi mobili) nel VEX V5 Robotics Competition (V5RC) Over Under Playground in VEXcode VR usando le classificazioni AI.
Se hai familiarità con la versione fisica del sensore di visione AI , saprai che il sensore fisico è anche in grado di segnalare informazioni su AprilTags e sulle firme colorate configurate. Poiché in VEXcode VR non è richiesta alcuna configurazione del robot e non sono presenti AprilTag sul campo V5RC High Stakes, il sensore virtuale segnala informazioni solo sugli elementi di gioco preconfigurati: anelli rossi, anelli blu e obiettivi mobili.
Come funziona il sensore di visione AI in V5RC. Alte poste in gioco in VEXcode VR
Il sensore di visione AI è una telecamera in grado di distinguere automaticamente i vari elementi del gioco, consentendo al robot di orientarsi autonomamente verso specifici elementi del gioco. La telecamera è stata puntata sugli elementi di gioco per il gioco V5RC di quest'anno, High Stakes, quindi gli anelli e gli obiettivi mobili vengono rilevati automaticamente.
Per rilevare questi oggetti, il sensore di visione AI è montato sulla parte anteriore del robot (come mostrato qui).
Raccolta dati dal sensore di visione AI
È possibile visualizzare i dati segnalati dal sensore di visione AI tramite la finestra Snapshot, la console Monitor o la console di stampa in VEXcode VR.
Nota:Il braccio di Axel deve essere sollevato per liberare il campo visivo del sensore di visione AI. Se il braccio non viene sollevato, occuperà gran parte del centro della telecamera.
Per visualizzare la finestra Snapshot e vedere i dati segnalati dal sensore di visione AI, selezionare il pulsante Sensore di visione AI.
Selezionare nuovamente il pulsanteAI Vision Sensor per nascondere la finestra Snapshot.
La finestra Snapshot apparirà nell'angolo in alto a sinistra della finestra Playground. L'istantanea identificherà tutti gli elementi del gioco nel campo visivo del sensore di visione AI e i dati correlati.
I dati stampati nella finestra Snapshow per ciascun oggetto includono il centro X, il centro Y, la larghezza e l'altezza, nonché la classificazione dell'oggetto.
Le spiegazioni sui tipi di dati segnalati dal sensore di visione AI, inclusi i relativi comandi VEXcode, sono disponibili nella VEX API. Sono disponibili come riferimento sia le pagine specifiche dei blocchi che quelle specifiche di Python.
Questi comandi possono essere utilizzati nelle console Monitor e/o Print per visualizzare i dati di ogni snapshot acquisito durante l'esecuzione del progetto. Per saperne di più sull'utilizzo delle console Monitor e Print, consulta questi articoli.
- Monitoraggio delle variabili e rilevamento dei valori in VEXcode VR con blocchi
- Monitoraggio dei valori delle variabili e dei sensori in VEXcode VR con Python
- Utilizzo della console di stampa in VEXcode VR
Utilizzo del sensore di visione AI per aiutare Axel a identificare gli oggetti
Puoi usare il sensore di visione AI per aiutare Axel a raggiungere oggetti specifici, basandoti sulla tua comprensione dei dati segnalati dal sensore. Utilizzando il sensore visivo AI, Axel può puntare e guidare verso un elemento di gioco per raccogliere l'oggetto.
Il sensore di visione AI riporterà solo i dati dell'istantanea più recente, quindi Axel dovrà aggiornare costantemente tale istantanea durante la guida.
In questo progetto di esempio, Axel utilizzerà il sensore di visione AI per determinare se davanti a sé c'è un anello rosso, girerà finché il centro X dell'anello rosso non sarà inferiore a 150, quindi avanzerà verso l'anello. Per procedere verso l'anello rosso, il sensore di visione AI viene utilizzato per misurare la larghezza dell'oggetto nell'istantanea del sensore. Una volta che la larghezza è sufficientemente ampia, il robot sa di essere nel raggio d'azione per raccogliere l'Anello Rosso.
Scopri come accedere ed eseguire progetti di esempio con questi articoli:
Utilizzo dei sensori di Axel insieme
Il sensore di visione AI può essere combinato con altri sensori sul robot per completare attività sul campo. Un elenco completo dei sensori sulla versione virtuale di Axel è disponibile in pagina della VEX API. Queste sono solo alcune idee per aiutarti a iniziare a scrivere il tuo codice.
- Utilizza il sensore di visione AI per trovare e puntare su un elemento di gioco, quindi utilizza il sensore di distanza frontale per guidare finché l'oggetto non si avvicina al robot.
- Utilizza il sensore di visione AI per trovare e raggiungere un obiettivo mobile, quindi utilizza il sensore GPS per spostare l'obiettivo mobile negli angoli del campo.
- Utilizza il sensore di visione AIper trovare e raggiungere un anello rosso e un obiettivo mobile, quindi utilizza il sensore di rotazione per posizionare il Pusher e posizionare l'anello sull'obiettivo.
Ricorda che ulteriori informazioni su comandi specifici, sul campo V5RC High Stakes e sull'Hero Bot, Axel, sono disponibili nella VEX API e nella Guida integrata in VEXcode VR (Blocchi e Python).