AI Vision Sensor에 색상 서명 과 색상 코드 구성되어 블록과 함께 사용할 수 있는지 확인하세요. 이를 구성하는 방법에 대한 자세한 내용은 아래 문서를 읽어보세요.
AI 비전 센서는 AI 분류와 AprilTags도 감지할 수 있습니다. 이러한 감지 모드를 활성화하는 방법을 알아보려면 여기를 방문하세요.
이러한 개별 명령에 대한 자세한 내용과 VEXcode에서 이를 사용하는 방법을 알아보려면 API 사이트로 이동하세요.
AI Vision 센서로 시각적 데이터 획득
모든 AI Vision Sensor 명령은 구성된 AI Vision Sensor의 이름으로 시작합니다. 이 문서의 모든 예에서 사용되는 AI 비전 센서의 이름은 AIVision
입니다.
스냅샷 찍기
takeSnapshot
메서드는 AI Vision Sensor가 현재 보고 있는 것의 사진을 찍고 해당 스냅샷에서 프로젝트에 사용할 수 있는 데이터를 가져옵니다. 스냅샷을 찍을 때 AI Vision Sensor가 어떤 유형의 개체에 대한 데이터를 수집해야 하는지 지정해야 합니다.
-
색상 서명 또는색상 코드
- 이러한 시각적 서명은 AI 비전 센서의 이름, 두 개의 밑줄, 그리고 시각적 서명의 이름으로 시작합니다(예:
AIVision1__Blue
).
- 이러한 시각적 서명은 AI 비전 센서의 이름, 두 개의 밑줄, 그리고 시각적 서명의 이름으로 시작합니다(예:
-
AI 분류 -
aivision::ALL_AIOBJS
-
4월태그-
aivision::ALL_TAGS
스냅샷을 찍으면 지정한 모든 감지된 객체의 배열이 생성됩니다. 예를 들어, "파란색" 색상 특징을 감지하려고 하고 AI 비전 센서가 3개의 서로 다른 파란색 물체를 감지한 경우, 3개 모두의 데이터가 배열에 저장됩니다.
이 예에서 AI Vision Sensor AIVision1
에서 "Blue" Color Signature의 스냅샷이 촬영됩니다. 배열에서 감지된 객체의 수를 표시하고 0.5초마다 새로운 스냅샷을 캡처합니다.
while (true) {
// 모든 Blue Color 객체의 스냅샷을 가져옵니다.
AIVision.takeSnapshot(AIVision1__Blue);
// 데이터를 가져오기 전에 스냅샷에서 객체가 감지되었는지 확인합니다.
if (AIVision.objectCount > 0) {
Brain.Screen.clearScreen();
Brain.Screen.setCursor(1, 1);
Brain.Screen.print(AIVision1.objectCount);
}
wait(5, msec);
}
사물
스냅샷의 각 개체에는 해당 개체에 대한 정보를 보고하는 데 사용할 수 있는 서로 다른 속성이 있습니다. 객체 메서드를 사용하면 이러한 속성에 액세스할 수 있습니다.
이용 가능한 부동산은 다음과 같습니다.
- ID
- centerX와 centerY
- originX와 originY
- 너비
- 키
- 각도
- 존재한다
- 점수
객체의 속성에 액세스하려면 AI Vision Sensor의 이름을 사용하고, 그 뒤에 객체의 메서드를 사용한 다음 객체의 인덱스를 사용합니다.
객체 인덱스는 검색하려는 특정 객체의 속성을 나타냅니다. AI 비전 센서는 스냅샷을 촬영한 후 자동으로 객체를 크기별로 정렬합니다. 가장 큰 객체에는 인덱스 0이 할당되고, 작은 객체일수록 더 높은 인덱스 번호가 할당됩니다.
예를 들어, 가장 큰 객체의 너비를 호출하는 것은 AIVision1.objects[0].width
이 됩니다.
ID
id
속성은 AprilTags 및 AI 분류에만 사용할 수 있습니다.
AprilTag의 경우 id
속성은 감지된AprilTag(s) ID 번호를 나타냅니다.
특정 AprilTag 를 식별하면 선택적 탐색이 가능합니다. 로봇이 다른 태그를 무시하고 특정 태그를 향해 이동하도록 프로그래밍할 수 있으며, 이를 자동 탐색을 위한 표지판으로 효과적으로 활용할 수 있습니다.
AI 분류의 경우, id
속성은 감지된 특정 유형의 AI 분류를 나타냅니다.
특정 AI 분류을 식별하면 로봇이 특정 개체에만 집중할 수 있습니다. 예를 들어, 파란색 버키볼이 아닌 빨간색 버키볼을 향해만 이동하려고 합니다.
4월태그 및 AI 분류 에 대한 자세한 내용과 AI Vision Utility에서 이를 감지하는 방법을 알아보려면 다음 문서를 참조하세요.
중심X
및 중심Y
이는 감지된 객체의 중심 좌표를 픽셀 단위로 나타낸 것입니다.
CenterX 및 CenterY 좌표는 탐색 및 위치 지정에 도움이 됩니다. AI 비전 센서의 해상도는 320 x 240픽셀입니다.
AI 비전 센서에 가까운 객체는 먼 객체보다 CenterY 좌표가 낮은 것을 확인할 수 있습니다.
이 예에서 AI Vision Sensor의 시야 중심이 (160, 120)이므로 로봇은 감지된 객체의 centerX 좌표가 150픽셀보다 크고 170픽셀보다 작을 때까지 오른쪽으로 회전합니다.
while (true) {
// 모든 Blue Color 객체의 스냅샷을 가져옵니다.
AIVision.takeSnapshot(AIVision__Blue);
// 데이터를 가져오기 전에 스냅샷에서 개체가 감지되었는지 확인합니다.
if (AIVision.objectCount > 0) {
if (AIVision.objects[0].centerX > 150.0 && 170.0 > AIVision.objects[0].centerX) {
구동계.회전(오른쪽);
} else {
구동계.정지();
}
}
wait(5, 밀리초);
}
원점X
및 원점
OriginX와 OriginY는 감지된 객체의 왼쪽 상단 모서리의 좌표(픽셀)입니다.
OriginX 및 OriginY 좌표는 탐색 및 위치 지정에 도움이 됩니다. 이 좌표를 객체의 너비와 높이와 결합하면 객체의 경계 상자 크기를 결정할 수 있습니다. 이는 움직이는 객체를 추적하거나 객체 간을 탐색하는 데 도움이 될 수 있습니다.
너비
및 높이
이는 감지된 객체의 너비나 높이를 픽셀 단위로 나타낸 것입니다.
너비와 높이의 측정은 다양한 물체를 식별하는 데 도움이 됩니다. 예를 들어, 버키볼은 링보다 높이가 더 큽니다.
너비와 높이는 AI 비전 센서로부터 물체까지의 거리를 나타냅니다. 일반적으로 측정값이 작을수록 물체가 멀리 있다는 것을 의미하고, 측정값이 클수록 물체가 가까이 있다는 것을 의미합니다.
이 예에서는 객체의 너비가 탐색에 사용됩니다. 로봇은 물체의 너비가 특정 크기에 도달할 때까지 물체에 접근한 후 멈춥니다.
while (true) {
// 모든 Blue 객체의 스냅샷을 가져옵니다.
AIVision.takeSnapshot(AIVision1__Blue);
// 데이터를 가져오기 전에 스냅샷에서 개체가 감지되었는지 확인합니다.
if (AIVision.objectCount > 0) {
if (AIVision.objects[0].width < 250.0) {
Drivetrain.drive(전진);
} else {
Drivetrain.stop();
}
}
wait(5, 밀리초);
}
각도
각도
속성은색상 코드 과AprilTags에만 사용할 수 있습니다.
이는 감지된 색상 코드또는 AprilTag 이 다르게 방향이 지정되어 있는지 여부를 나타냅니다.
로봇이색상 코드 또는AprilTag 에 따라 다르게 방향이 지정되어 있는지 확인하고 그에 따라 탐색 결정을 내릴 수 있습니다.
예를 들어,색상 코드 이 적절한 각도에서 감지되지 않으면 해당 물체를 로봇이 제대로 집어 올리지 못할 수 있습니다.
점수
점수
속성은 AI 비전 센서로AI 분류 감지할 때 사용됩니다.
신뢰도 점수는 AI 비전 센서가 감지에 얼마나 확신하는지를 나타냅니다. 이 이미지에서는 이 네 가지 객체의 AI 분류를 식별하는 데 99%의 확신도를 보입니다. 이 점수를 사용하면 로봇이 신뢰도 높은 감지에만 집중하도록 할 수 있습니다.
존재한다
exists
속성은 지정된 Visual Signature 이 마지막으로 찍은 스냅샷에서 감지되었는지 감지하는 데 사용됩니다.
이를 통해 이전 스냅샷에서 감지된 개체가 있는지 확인할 수 있습니다. 이 속성은 객체가 존재하면 True를 반환하고, 객체가 존재하지 않으면 False를 반환합니다.
객체 개수
objectCount 메서드는 마지막 스냅샷에서 감지된 객체의 양을 반환합니다.
이 예에서는색상 특징 "파란색"을 갖는 두 개의 객체가 감지되었습니다. takeSnapshot 메서드를 사용하면 두 가지 모두 배열에 저장됩니다.
이 코드 조각은 감지된 물체의 수를 EXP Brain에 지속적으로 업데이트합니다. 제공된 예를 기준으로, 두 개의 객체가 감지되었음을 나타내는 값 2를 반복적으로 전송합니다.
while (true) {
// 모든 Blue 객체의 스냅샷을 가져옵니다.
AIVision.takeSnapshot(AIVision__Blue);
Brain.Screen.clearScreen();
Brain.Screen.setCursor(1, 1);
// 데이터를 가져오기 전에 스냅샷에서 객체가 감지되었는지 확인합니다.
if (AIVision.objectCount > 0) {
Brain.Screen.print(AIVision1.objectCount);
}
wait(5, msec);
}