Puede utilizar el sensor de visión de IA para ayudarlo a identificar objetos del juego (bloques) en el V5RC 25-26 Push Back Playground en VEXcode VR usando clasificaciones de IA.
Si está familiarizado con la versión física del sensor de visión AI, sabrá que el sensor físico también tiene la capacidad de informar información sobre AprilTags y firmas de color configuradas. Dado que no se necesita ninguna configuración de robot en VEXcode VR y no hay AprilTags presentes en el campo de empuje V5RC 25-26, el sensor virtual informa solo sobre los elementos de juego preconfigurados: bloques rojos y bloques azules.
Cómo funciona el sensor de visión de IA en V5RC Push Back en VEXcode VR
El sensor de visión de inteligencia artificial es una cámara que puede identificar y diferenciar automáticamente entre los elementos del juego, lo que permite que su robot se oriente de forma autónoma hacia objetos específicos. El sensor viene preentrenado para reconocer los elementos del juego V5RC Push Back de este año, por lo que detectará bloques automáticamente.
Para detectar estos objetos, el sensor de visión IA está montado en la parte delantera del robot (como se muestra aquí).
Recopilación de datos del sensor de visión de IA
Puede ver los datos informados por el sensor de visión de IA a través de la ventana de instantáneas, la consola del monitor o la consola de impresión en VEXcode VR.
Para ver la ventana Instantánea y ver los datos que informa el sensor de visión de IA, seleccione el botón Sensor de visión de IA.
Seleccione nuevamente el botónAI Vision Sensor para ocultar la ventana de instantáneas.
La ventana Instantánea aparece en la esquina superior izquierda de la ventana del Área de juegos e identifica todos los elementos del juego dentro del campo de visión del sensor de visión de IA.
Para cada objeto detectado, se muestran datos clave, incluida la clasificación, las coordenadas del centro X y del centro Y, y el ancho y la altura.
Las explicaciones de los tipos de datos informados por el sensor de visión de IA, incluidos los comandos VEXcode relacionados, se pueden encontrar en la API VEX .
Estos comandos se pueden utilizar en las consolas de monitor y/o impresión para ayudar a visualizar los datos de cada instantánea que se toma mientras se ejecuta el proyecto. Obtenga más información sobre el uso de las consolas de monitorización e impresión con bloques, con Pythono Uso de la consola de impresión.
Uso del sensor de visión de IA para ayudar a Dex a identificar objetos
Puedes usar el sensor de visión de IA para ayudar a Dex a navegar hacia objetos específicos interpretando los datos del sensor. Con esta tecnología, Dex puede apuntar y conducir hasta los elementos del juego para recogerlos.
El sensor de visión de inteligencia artificial solo informará los datos de la instantánea más reciente, por lo que Dex debe actualizar constantemente esa instantánea mientras conduce.
Este proyecto de ejemplo muestra cómo Dex puede usar el sensor de visión de IA para orientarse de forma autónoma hacia un bloque y recogerlo.
Obtenga información sobre cómo acceder y ejecutar proyectos de ejemplo con bloques o con Python.
Usando los sensores de Dex juntos
El sensor de visión de inteligencia artificial se puede combinar con otros sensores del robot para completar tareas en el campo. Puede encontrar una lista completa de los sensores en la versión virtual de Dex en página de la API de VEX. Estas son solo algunas ideas para ayudarlo a comenzar con su código:
- Utilice el sensor de visión de IA para encontrar y apuntar a un elemento del juego, luego utilice el sensor GPS para conducir hasta un objetivo.
- Utilice el sensor de visión de IA para encontrar y apuntar a múltiples elementos del juego, luego utilice el sensor óptico para determinar el color del bloque en el transportador antes de soltarlo.
Recuerde que puede encontrar información adicional sobre comandos específicos, el campo Push Back de V5RC y el Hero Bot, Dex, en la API VEX y en la Ayuda incorporada en VEXcode VR (Bloques y Python).