Certifique-se de ter assinaturas de cores e códigos de cores configurados com seu AI Vision Sensor para que possam ser usados com seus blocos. Para saber mais sobre como configurá-los, você pode ler os artigos abaixo:
- Configurando assinaturas de cores com a assinatura AI Vision no VEXcode V5
- Configurando códigos de cores com a assinatura AI Vision no VEXcode V5
O sensor de visão de IA também pode detectar classificações de IA e AprilTags. Para aprender como habilitar esses modos de detecção, acesse aqui:
- Classificações de IA com o sensor de visão de IA no VEXcode V5
- AprilTags com o sensor de visão AI no VEXcode V5
Tire uma foto rápida
O blocoTirar instantâneo tira uma foto do que o sensor de visão de IA está vendo no momento e extrai dados desse instantâneo que podem ser usados em um projeto. Quando um instantâneo é tirado, você precisa especificar de que tipo de objeto o AI Vision Sensor deve coletar dados:
- Assinatura de cor
- Código de cores
- Classificações de IA
- Tags de abril
Tirar um instantâneo criará uma matriz de todos os objetos detectados que você especificou. Por exemplo, se você quisesse detectar uma Assinatura de Cor "Vermelho"e o Sensor de Visão de IA detectasse 3 objetos vermelhos diferentes, os dados de todos os três seriam colocados na matriz.
Para obter mais informações sobre como especificar entre objetos diferentes, vá para a seção "Definir Item de Objeto" neste artigo.
Neste exemplo, ele detectará apenas objetos que correspondem à sua Assinatura de Cor “Azul” configurada e nada mais.
Dados obtidos de um instantâneo
Tenha em mente que o Sensor de Visão de IA usará seu último instantâneo tirado para quaisquer Blocos que vierem depois. Para garantir que você sempre obtenha as informações mais atualizadas do seu sensor de visão de IA, tire novamente o instantâneo sempre que quiser extrair dados dele.
Resolução
Compreender a resolução do AI Vision Sensor é crucial para uma interpretação precisa dos dados. O sensor tem uma resolução de 320x240 pixéis, com um centro exato nas coordenadas (160, 120).
As coordenadas X inferiores a 160 correspondem à metade esquerda do campo de visão do sensor, enquanto as superiores a 160 representam a metade direita. Da mesma forma, as coordenadas Y inferiores a 120 indicam a metade superior da visualização e as superiores a 120 representam a metade inferior.
Vá para Compreender os dados no AI Vision Utility no VEXcode V5 para obter mais informações sobre a forma como os objetos são medidos com o AI Vision Sensor.
Largura e altura
Esta é a largura ou altura do objeto detectado em pixels.
As medidas de largura e altura ajudam a identificar diferentes objetos. Por exemplo, um Buckyball terá uma altura maior que um Ring.
Largura e altura também indicam a distância de um objeto do sensor de visão de IA. Medidas menores geralmente significam que o objeto está mais distante, enquanto medidas maiores sugerem que ele está mais próximo.
Neste exemplo, a largura do objeto é usada para navegação. O robô se aproximará do objeto até que a largura atinja um tamanho específico antes de parar.
CentroX e Centro Y
Estas são as coordenadas centrais do objeto detectado em pixels.
As coordenadas CenterX e CenterY ajudam na navegação e no posicionamento. O sensor de visão AI tem uma resolução de 320 x 240 pixels.
Você pode ver que um objeto mais próximo do sensor de visão de IA terá uma coordenada CenterY menor do que um objeto mais distante.
Neste exemplo, como o centro da visão do sensor de visão de IA é (160, 120), o robô virará para a direita até que a coordenada centroX de um objeto detectado seja maior que 150 pixels, mas menor que 170 pixels.
Ângulo
Ângulo é uma propriedade disponível somente para os códigos de cores eAprilTags. Isso representa se o código de cordetectadoou AprilTag está orientado de forma diferente.
Você pode ver se o robô está orientado de forma diferente em relação ao Código de Cor ouAprilTag e tomar decisões de navegação de acordo com isso.
Por exemplo, se um código de cor não for detectado em um ângulo adequado, o objeto que ele representa pode não ser captado corretamente pelo robô.
OrigemX e OrigemY
OriginX e OriginY são as coordenadas no canto superior esquerdo do objeto detectado em pixels.
As coordenadas OriginX e OriginY ajudam na navegação e no posicionamento. Ao combinar essa coordenada com a Largura e a Altura do objeto, você pode determinar o tamanho da caixa delimitadora do objeto. Isso pode ajudar a rastrear objetos em movimento ou a navegar entre objetos.
Neste exemplo, um retângulo será desenhado no Brain usando as coordenadas exatas de sua origem, largura e altura.
ID da etiqueta
O tagID está disponível apenas paraAprilTags. Este é o número de ID para oAprilTagespecificado.
Identificar AprilTags específicos permite navegação seletiva. Você pode programar seu robô para se mover em direção a certas tags enquanto ignora outras, usando-as efetivamente como sinalizadores para navegação automatizada.
Pontuação
A propriedade de pontuação é usada ao detectarClassificações de IA com o Sensor de Visão de IA.
A pontuação de confiança indica o grau de certeza do sensor de visão de IA sobre sua detecção. Nesta imagem, há 99% de confiança na identificação das classificações de IA desses quatro objetos. Você pode usar essa pontuação para garantir que seu robô se concentre apenas em detecções altamente confiáveis.
Definir item de objeto
Quando um objeto é detectado pelo sensor de visão de IA, ele é colocado em uma matriz. Por padrão, o AI Vision Sensor extrairá dados do primeiro objeto na matriz ou do objeto com índice 1. Se o seu sensor de visão de IA tiver detectado apenas um objeto, esse objeto será selecionado por padrão.
No entanto, quando o seu sensor de visão de IA tiver detectado vários objetos de uma vez, você precisará usar o blocoDefinir item de objeto para especificar de qual objeto você deseja extrair dados.
Quando vários objetos são detectados pelo sensor de visão de IA, eles são organizados na matriz do maior para o menor. Isso significa que o maior objeto detectado sempre será definido como índice de objeto 1, e o menor objeto sempre será definido como o número mais alto.
Neste exemplo, dois objetos foram detectados com a Assinatura de Cor "Azul". Ambos serão colocados na matriz quando o blocoTake Snapshot for usado.
Aqui, o objeto na frente se tornaria o objeto índice 1, já que é o maior objeto, e o menor objeto se tornaria o objeto índice 2.
O objeto existe
Antes de extrair quaisquer dados de um instantâneo, é importantesempre verificar se o AI Vision Sensor detectou algum objeto daquele instantâneo primeiro. É aqui que o blocoObjeto Existe entra em jogo.
Este bloco retornará um valorVerdadeiro ouFalso sobre se o último instantâneo obtido tem ou não objetos detectados nele.
Este bloco devesempre ser usado para garantir que você não esteja tentando extrair dados de um instantâneo potencialmente vazio.
Por exemplo, aqui o robô estará constantemente tirando fotos com o sensor de visão de IA. Se identificar qualquer objeto com a assinatura de cores “Azul”, ele avançará.
Se algum instantâneo não tiver a assinatura de cor “Azul” , o robô irá parar de se mover.
Contagem de objetos
Usar o bloco Object count permitirá que você veja quantos objetos de uma Color Signature específica o AI Vision Sensor pode ver em seu último instantâneo.
Aqui, vemos que o sensor de visão de IA tem a assinatura de cor configurada “Azul” e está detectando dois objetos.
Neste código, o AI Vision Sensor tiraria um instantâneo e imprimiria “2” no console VEXcode, pois detecta apenas duas assinaturas de cores “Azuis” .
Objeto
O blocoObjeto permite que você informe a propriedade do objeto especificado. Isso permite que você use qualquer dado disponível extraído do instantâneo mais recente.
As propriedades do objeto que podem ser extraídas de instantâneos são:
- largura
- altura
- centroX
- centroY
- ângulo
- origemX
- origemY
- ID da etiqueta
- pontuação
Leia a seção "Dados obtidos do instantâneo" deste artigo para obter mais informações sobre essas propriedades.
AprilTag detectado é
O blocoDetected AprilTag is só está disponível quando o Modo de DetecçãoAprilTag está ativado.
Este bloco reportará Verdadeiro ou Falso dependendo se o objeto especificado é um determinado AprilTag.
Quando várias AprilTags são detectadas em um único instantâneo, elas são organizadas na matriz com base em seu ID identificado, não por tamanho.
Nesta imagem, três AprilTags são detectadas com IDs 0, 3 e 9. Eles serão organizados em ordem crescente de seu ID na matriz. O objeto no índice 1 corresponderia à AprilTag com ID 0, no índice 2 à AprilTag com ID 3 e no índice 3 à AprilTag com ID 9.
A classificação da IA é
A ClassificaçãoAI no bloco só está disponível quando o Modo de Detecção da ClassificaçãoAI está ativado.
Este bloco reportará Verdadeiro ou Falso dependendo se o objeto especificado é de uma determinada Classificação de IA.
As classificações de IA que podem ser detectadas pelo sensor de visão de IA variam dependendo do modelo que você está usando. Para mais informações sobre quais as classificações de IA disponíveis e como ativar a sua deteção com o AI Vision Sensor, leia este artigo.