Asegúrese de tener firmas de color y códigos de color configurados con su sensor de visión AI para que puedan usarse con sus bloques. Para obtener más información sobre cómo configurarlos, puede leer los artículos a continuación:
- Configuración de firmas de color con AI Vision Signature en VEXcode V5
- Configuración de códigos de color con AI Vision Signature en VEXcode V5
El sensor de visión de IA también puede detectar clasificaciones de IA y AprilTags. Para saber cómo habilitar estos modos de detección, vaya aquí:
- Clasificaciones de IA con el sensor de visión de IA en VEXcode V5
- AprilTags con el sensor de visión de IA en VEXcode V5
Tomar instantáneas
El bloqueTomar instantánea toma una fotografía de lo que el sensor de visión de IA está viendo actualmente y extrae datos de esa instantánea que luego se pueden usar en un proyecto. Cuando se toma una instantánea, debe especificar qué tipo de objeto debe recopilar datos el sensor de visión de IA:
- Firma de color
- Código de colores
- Clasificaciones de IA
- Etiquetas de abril
Al tomar una instantánea se creará una matriz de todos los objetos detectados que usted especificó. Por ejemplo, si desea detectar una firma de color "Rojo"y el sensor de visión de IA detecta 3 objetos rojos diferentes, los datos de los tres se colocarán en la matriz.
Para obtener más información sobre cómo especificar entre diferentes objetos, vaya a la sección "Establecer elemento de objeto" en este artículo.
En este ejemplo, solo detectará objetos que coincidan con su Firma de color “Azul” configurada y nada más.
Datos tomados de una instantánea
Tenga en cuenta que el sensor de visión de IA utilizará la última instantánea tomada para cualquier bloque que venga después. Para asegurarse de obtener siempre la información más actualizada de su sensor de visión de inteligencia artificial, vuelva a tomar la instantánea cada vez que desee extraer datos de él.
Resolución
Comprender la resolución del sensor de visión de IA es crucial para una interpretación precisa de los datos. El sensor tiene una resolución de 320x240 píxeles, con el centro exacto en las coordenadas (160, 120).
Las coordenadas X menores a 160 corresponden a la mitad izquierda del campo de visión del sensor, mientras que las mayores a 160 representan la mitad derecha. De manera similar, las coordenadas Y menores a 120 indican la mitad superior de la vista, y aquellas mayores a 120 representan la mitad inferior.
Vaya a Comprensión de los datos en la utilidad AI Vision en VEXcode V5 para obtener más información sobre cómo se miden los objetos con el sensor AI Vision.
Ancho y alto
Este es el ancho o alto del objeto detectado en píxeles.
Las medidas de ancho y alto ayudan a identificar diferentes objetos. Por ejemplo, un Buckyball tendrá una altura mayor que un Ring.
El ancho y la altura también indican la distancia de un objeto al sensor de visión IA. Las medidas más pequeñas generalmente significan que el objeto está más lejos, mientras que las medidas más grandes sugieren que está más cerca.
En este ejemplo, se utiliza el ancho del objeto para la navegación. El robot se acercará al objeto hasta que el ancho alcance un tamaño específico antes de detenerse.
Centro X y Centro Y
Estas son las coordenadas centrales del objeto detectado en píxeles.
Las coordenadas CenterX y CenterY ayudan con la navegación y el posicionamiento. El sensor de visión IA tiene una resolución de 320 x 240 píxeles.
Puedes ver que un objeto más cercano al sensor de visión de IA tendrá una coordenada CenterY más baja que un objeto que esté más lejos.
En este ejemplo, debido a que el centro de la vista del sensor de visión de IA es (160, 120), el robot girará a la derecha hasta que la coordenada centerX de un objeto detectado sea mayor a 150 píxeles, pero menor a 170 píxeles.
Ángulo
El ángulo es una propiedad disponible solo para los códigos de color yAprilTags. Esto representa si el código de colordetectadoo AprilTag está orientado de manera diferente.
Puede ver si el robot está orientado de manera diferente en relación con el código de color oAprilTag y tomar decisiones de navegación en función de eso.
Por ejemplo, si un código de color no se detecta en un ángulo adecuado, es posible que el robot no pueda recoger correctamente el objeto que representa.
Origen X y Origen Y
OriginX y OriginY son las coordenadas en la esquina superior izquierda del objeto detectado en píxeles.
Las coordenadas OriginX y OriginY ayudan con la navegación y el posicionamiento. Al combinar esta coordenada con el ancho y la altura del objeto, puede determinar el tamaño del cuadro delimitador del objeto. Esto puede ayudar a rastrear objetos en movimiento o a navegar entre objetos.
En este ejemplo, se dibujará un rectángulo en el cerebro utilizando las coordenadas exactas de su origen, ancho y alto.
Identificación de etiqueta
El tagID solo está disponible paraAprilTags. Este es el número de identificación para elAprilTagespecificado.
La identificación de específicos permite una navegación selectiva. Puede programar su robot para que se mueva hacia ciertas etiquetas e ignore otras, utilizándolas efectivamente como señales para la navegación automatizada.
Puntaje
La propiedad de puntuación se utiliza al detectarclasificaciones de IA con el sensor de visión de IA.
La puntuación de confianza indica qué tan seguro está el sensor de visión de IA acerca de su detección. En esta imagen, hay un 99% de confianza en la identificación de las clasificaciones de IA de estos cuatro objetos. Puede utilizar esta puntuación para garantizar que su robot solo se centre en detecciones altamente confiables.
Establecer elemento de objeto
Cuando el sensor de visión de IA detecta un objeto, lo coloca en una matriz. De forma predeterminada, el sensor de visión de inteligencia artificial extraerá datos del primer objeto de la matriz o del objeto con el índice 1. Si su sensor de visión de IA solo ha detectado un objeto, entonces ese objeto se seleccionará de manera predeterminada.
Sin embargo, cuando su sensor de visión de IA haya detectado varios objetos a la vez, deberá usar el bloqueEstablecer elemento de objeto para especificar de qué objeto desea extraer datos.
Cuando el sensor de visión de IA detecta varios objetos, se organizan en la matriz del más grande al más pequeño. Esto significa que el objeto más grande detectado siempre se establecerá en el índice de objeto 1, y el objeto más pequeño siempre se establecerá en el número más alto.
En este ejemplo se han detectado dos objetos con la firma de color "Azul". Ambos se colocarán en la matriz cuando se utilice el bloqueTomar instantánea.
Aquí, el objeto del frente se convertiría en el índice de objeto 1, ya que es el objeto más grande, y el objeto más pequeño se convertiría en el índice de objeto 2.
El objeto existe
Antes de extraer cualquier dato de una instantánea, es importante que el sensor de visión de IA haya detectado primero todos los objetos de esa instantánea. Aquí es donde entra en juego el bloqueObjeto Existe.
Este bloque devolverá valorVerdadero oFalso sobre si la última instantánea tomada tiene o no objetos detectados en ella.
Este bloque debeusarse siempre para asegurarse de no intentar extraer datos de una instantánea potencialmente vacía.
Por ejemplo, aquí el robot tomará constantemente instantáneas con el sensor de visión IA. Si identifica cualquier objeto con la firma de color “Azul” , avanzará.
Si alguna instantánea no tiene la firma de color “Azul” , el robot dejará de moverse.
Recuento de objetos
El uso del bloque Recuento de objetos le permitirá ver cuántos objetos de una Firma de color específica puede ver el sensor de visión AI en su última instantánea.
Aquí, vemos que el sensor de visión de inteligencia artificial tiene configurada la firma de color “Azul”, y está detectando dos objetos.
En este código, el sensor de visión AI tomaría una instantánea e imprimiría "2" en la consola VEXcode, ya que solo detecta dos firmas de color "azul" .
Objeto
El bloqueObjeto le permite informar la propiedad de su objeto especificado. Esto le permite utilizar cualquiera de los datos disponibles extraídos de la instantánea tomada más recientemente.
Las propiedades de objeto que se pueden extraer de las instantáneas tomadas son:
- ancho
- altura
- centroX
- centroY
- ángulo
- origenX
- origenY
- Identificación de etiqueta
- puntaje
Lea la sección “Datos tomados de la instantánea” de este artículo para obtener más información sobre estas propiedades.
Se detectó AprilTag
El bloqueDetectado AprilTag es solo está disponible cuando el Modo de detecciónAprilTag está activado.
Este bloque informará Verdadero o Falso dependiendo de si el objeto especificado es un determinado AprilTag.
Cuando se detectan varias AprilTags en una sola instantánea, se organizan en la matriz según su ID identificado, no por tamaño.
En esta imagen, se detectan tres AprilTags con los ID 0, 3 y 9. Se organizarán en orden ascendente de su ID en la matriz. El objeto en el índice 1 correspondería a AprilTag con ID 0, en el índice 2 a AprilTag con ID 3 y en el índice 3 a AprilTag con ID 9.
La clasificación de IA es
El bloque de clasificación de IAsolo está disponible cuando el modo de detección de clasificación de IA está activado.
Este bloque informará si es Verdadero o Falso dependiendo de si el objeto especificado es una determinada Clasificación de IA.
Las clasificaciones de IA que puede detectar el sensor de visión de IA varían según el modelo que esté utilizando. Para obtener más información sobre qué clasificaciones de IA están disponibles y cómo habilitar su detección con el sensor de visión de IA, lea este artículo.