Bạn có thể sử dụng Cảm biến thị giác AI để giúp bạn xác định các đối tượng trò chơi (Khối) trên Sân chơi đẩy lùi V5RC 25-26 trong VEXcode VR bằng cách sử dụng Phân loại AI.
Nếu bạn đã quen với phiên bản vật lý của Cảm biến thị giác AI, thì bạn sẽ biết rằng cảm biến vật lý này cũng có khả năng báo cáo thông tin về AprilTags và Chữ ký màu đã cấu hình. Vì không cần cấu hình robot trong VEXcode VR và không có AprilTag trên V5RC 25-26 Push Back Field, nên cảm biến ảo chỉ báo cáo thông tin về các Yếu tố trò chơi được cấu hình sẵn: Khối đỏ và Khối xanh.
Cảm biến thị giác AI hoạt động như thế nào trong V5RC Push Back trong VEXcode VR
Cảm biến thị giác AI là một camera có thể tự động xác định và phân biệt các yếu tố trong trò chơi, cho phép robot của bạn tự động định hướng đến các vật thể cụ thể. Cảm biến được đào tạo sẵn để nhận dạng các thành phần trò chơi đẩy lùi V5RC năm nay, do đó nó sẽ tự động phát hiện các khối.
Để phát hiện các vật thể này, Cảm biến thị giác AI được gắn ở mặt trước của rô-bốt (như minh họa ở đây).
Thu thập dữ liệu từ cảm biến thị giác AI
Bạn có thể xem dữ liệu được báo cáo bởi AI Vision Sensor thông qua Cửa sổ chụp nhanh, Bảng điều khiển giám sát hoặc Bảng điều khiển in trong VEXcode VR.
Để xem Cửa sổ ảnh chụp nhanh và xem dữ liệu mà Cảm biến thị giác AI đang báo cáo, hãy chọn nút Cảm biến thị giác AI.
Chọn lại nútAI Vision Sensor để ẩn Cửa sổ chụp nhanh.
Cửa sổ Ảnh chụp nhanh xuất hiện ở góc trên bên trái của Cửa sổ Sân chơi và xác định tất cả các Yếu tố Trò chơi trong trường nhìn của Cảm biến Tầm nhìn AI.
Đối với mỗi đối tượng được phát hiện, nó sẽ hiển thị dữ liệu chính bao gồm phân loại, tọa độ Tâm X và Tâm Y, chiều rộng và chiều cao.
Giải thích về các loại dữ liệu được báo cáo bởi AI Vision Sensor, bao gồm các lệnh VEXcode liên quan, có thể được tìm thấy trong Blocks và Python VEX API.
Những lệnh đó có thể được sử dụng trong Bảng điều khiển giám sát và/hoặc Bảng điều khiển in để giúp trực quan hóa dữ liệu từ mỗi ảnh chụp nhanh được chụp trong khi dự án của bạn đang chạy. Tìm hiểu thêm về cách sử dụng Bảng điều khiển giám sát và in với Khối, với Pythonhoặc Sử dụng Bảng điều khiển in.
Sử dụng cảm biến thị giác AI để giúp Dex xác định đối tượng
Bạn có thể sử dụng Cảm biến thị giác AI để giúp Dex điều hướng đến các đối tượng cụ thể bằng cách diễn giải dữ liệu của cảm biến. Với công nghệ này, Dex có thể nhắm mục tiêu và lái xe đến các Yếu tố trong trò chơi để nhặt chúng.
Cảm biến thị giác AI sẽ chỉ báo cáo dữ liệu từ ảnh chụp nhanh gần đây nhất, do đó Dex cần phải liên tục cập nhật ảnh chụp nhanh đó trong khi lái xe.
Dự án ví dụ này cho thấy cách Dex có thể sử dụng Cảm biến thị giác AI để tự động định hướng đến một Khối và nhặt nó lên.
Tìm hiểu về cách truy cập và chạy các dự án ví dụ với Khối hoặc bằng Python.
Sử dụng các cảm biến của Dex cùng nhau
Cảm biến thị giác AI có thể được kết hợp với các cảm biến khác trên robot để hoàn thành các nhiệm vụ xung quanh sân. Danh sách đầy đủ các cảm biến trên phiên bản ảo của Dex có thể được tìm thấy trên trang của API VEX. Đây chỉ là một vài ý tưởng giúp bạn bắt đầu viết mã:
- Sử dụng Cảm biến thị giác AI để tìm và nhắm mục tiêu vào Yếu tố trò chơi, sau đó sử dụng Cảm biến GPS để lái xe đến mục tiêu.
- Sử dụng Cảm biến thị giác AI để tìm và nhắm mục tiêu vào nhiều Yếu tố trò chơi, sau đó sử dụng Cảm biến quang học để xác định màu của Khối trong băng tải trước khi thả.
Hãy nhớ rằng thông tin bổ sung về các lệnh cụ thể, Trường đẩy lùi V5RC và Hero Bot, Dex, có thể được tìm thấy trong VEX API và trong Trợ giúp tích hợp trong VEXcode VR (Khối và Python).