คุณสามารถใช้เซ็นเซอร์ AI Vision เพื่อช่วยระบุวัตถุในเกม (วงแหวนและเป้าหมายเคลื่อนที่) ในการแข่งขันหุ่นยนต์ VEX V5 (V5RC) บนสนามเด็กเล่นใน VEXcode VR ได้โดยใช้การจำแนกประเภท AI
หากคุณคุ้นเคยกับ AI Vision Sensor เวอร์ชันทางกายภาพ คุณจะรู้ว่าเซนเซอร์ทางกายภาพยังสามารถรายงานข้อมูลเกี่ยวกับ AprilTags และ Color Signature ที่กำหนดค่าไว้ได้อีก เนื่องจากไม่จำเป็นต้องกำหนดค่าหุ่นยนต์ใน VEXcode VR และไม่มี AprilTags อยู่ในสนาม V5RC High Stakes เซ็นเซอร์เสมือนจึงรายงานข้อมูลเฉพาะองค์ประกอบเกมที่กำหนดค่าไว้ล่วงหน้าเท่านั้น ได้แก่ วงแหวนสีแดง วงแหวนสีน้ำเงิน และเป้าหมายมือถือ
เซ็นเซอร์ AI Vision ทำงานอย่างไรใน V5RC ความเสี่ยงสูงใน VEXcode VR
AI Vision Sensor คือกล้องที่สามารถแยกแยะองค์ประกอบของเกมได้โดยอัตโนมัติ ช่วยให้หุ่นยนต์สามารถปรับทิศทางไปยังองค์ประกอบเฉพาะของเกมได้โดยอัตโนมัติ กล้องได้รับการฝึกตามองค์ประกอบเกมสำหรับเกม V5RC ของปีนี้ ซึ่งก็คือ High Stakes ดังนั้น จึงสามารถตรวจจับ Rings และ Mobile Goals ได้โดยอัตโนมัติ
เพื่อตรวจจับวัตถุเหล่านี้ เซ็นเซอร์ AI Vision จะถูกติดตั้งไว้ที่ด้านหน้าของหุ่นยนต์ (ตามที่แสดงที่นี่)
การรวบรวมข้อมูลจากเซ็นเซอร์ AI Vision
คุณสามารถดูข้อมูลที่รายงานโดย AI Vision Sensor ผ่านทาง Snapshot Window, Monitor Console หรือ Print Console ใน VEXcode VR ได้
หมายเหตุ:ต้องยกแขนของ Axel ขึ้นเพื่อให้ชัดเจนในมุมมองของเซ็นเซอร์ AI Vision หากไม่ยกแขนขึ้น แขนจะกินพื้นที่บริเวณกึ่งกลางกล้องเป็นส่วนใหญ่
หากต้องการดูหน้าต่างสแน็ปช็อตและดูข้อมูลที่ AI Vision Sensor รายงาน ให้เลือกปุ่ม AI Vision Sensor
เลือกปุ่มAI Vision Sensor อีกครั้งเพื่อซ่อนหน้าต่าง Snapshot
หน้าต่าง Snapshot จะปรากฏที่มุมซ้ายบนของหน้าต่าง Playground Snapshot จะระบุองค์ประกอบเกมทั้งหมดในมุมมองของ AI Vision Sensor และข้อมูลที่เกี่ยวข้อง
ข้อมูลที่พิมพ์ในหน้าต่าง Snapshow สำหรับแต่ละวัตถุประกอบด้วยจุดศูนย์กลาง X, จุดศูนย์กลาง Y, ความกว้าง และความสูง รวมถึงการจำแนกประเภทของวัตถุด้วย
คำอธิบายประเภทข้อมูลที่รายงานโดย AI Vision Sensor รวมถึงคำสั่ง VEXcode ที่เกี่ยวข้อง สามารถพบได้ใน VEX API มีทั้งหน้าเฉพาะ Blocks และเฉพาะ Python ไว้สำหรับการอ้างอิง
คำสั่งเหล่านั้นสามารถใช้ได้ใน Monitor และ/หรือ Print Console เพื่อช่วยแสดงภาพข้อมูลจากแต่ละสแนปช็อตที่ถ่ายไว้ในขณะที่โปรเจ็กต์ของคุณกำลังทำงานอยู่ เรียนรู้เพิ่มเติมเกี่ยวกับการใช้คอนโซลมอนิเตอร์และพิมพ์จากบทความเหล่านี้
- การตรวจสอบตัวแปรและการตรวจจับค่าใน VEXcode VR ด้วยบล็อค
- การตรวจสอบค่าตัวแปรและเซนเซอร์ใน VEXcode VR ด้วย Python
- การใช้ Print Console ใน VEXcode VR
การใช้เซ็นเซอร์ AI Vision เพื่อช่วยให้ Axel ระบุวัตถุได้
คุณสามารถใช้เซ็นเซอร์ AI Vision เพื่อช่วย Axel นำทางไปยังวัตถุที่ต้องการโดยใช้ความเข้าใจของคุณเกี่ยวกับข้อมูลที่รายงานโดยเซ็นเซอร์ โดยการใช้ AI Vision Sensor แอ็กเซลสามารถกำหนดเป้าหมายและขับรถไปที่ Game Element เพื่อหยิบวัตถุขึ้นมา
AI Vision Sensor จะรายงานเฉพาะข้อมูลจากสแนปช็อตที่ล่าสุดเท่านั้น ดังนั้น Axel จึงต้องอัปเดตสแนปช็อตนั้นอย่างต่อเนื่องในขณะขับรถ
ในโปรเจ็กต์ตัวอย่างนี้ Axel จะใช้เซ็นเซอร์ AI Vision เพื่อตรวจสอบว่าวงแหวนสีแดงอยู่ข้างหน้าหรือไม่ จากนั้นหมุนจนกว่าจุดศูนย์กลาง X ของวงแหวนสีแดงจะน้อยกว่า 150 แล้วจึงขับไปข้างหน้าสู่วงแหวน ในการขับเคลื่อนไปข้างหน้าไปยังวงแหวนสีแดง จะใช้เซ็นเซอร์ AI Vision เพื่อวัดความกว้างของวัตถุในภาพสแน็ปช็อตของเซ็นเซอร์ เมื่อความกว้างมีขนาดใหญ่พอแล้ว หุ่นยนต์ก็จะรู้ว่าอยู่ในระยะที่จะหยิบแหวนสีแดงได้
เรียนรู้เกี่ยวกับการเข้าถึงและการรันโครงการตัวอย่างด้วยบทความเหล่านี้:
การใช้เซ็นเซอร์ของ Axel ร่วมกัน
สามารถรวมเซ็นเซอร์ AI Vision เข้ากับเซ็นเซอร์อื่นๆ บนหุ่นยนต์เพื่อทำงานต่างๆ ทั่วพื้นที่ได้ สามารถดูรายชื่อเซนเซอร์ทั้งหมดในเวอร์ชันเสมือนของ Axel ได้ในหน้า ของ VEX API นี่เป็นเพียงแนวคิดบางส่วนที่จะช่วยให้คุณเริ่มต้นใช้งานโค้ดได้
- ใช้เซ็นเซอร์ AI Vision Sensor ตัว เพื่อค้นหาและกำหนดเป้าหมายบนองค์ประกอบของเกม จากนั้นใช้เซ็นเซอร์ระยะด้านหน้า เพื่อขับเคลื่อนจนกว่าวัตถุจะเข้าใกล้หุ่นยนต์
- ใช้เซ็นเซอร์ AI Vision ค้นหาและนำทางไปยัง Mobile Goal จากนั้นใช้เซ็นเซอร์ GPS เพื่อย้าย Mobile Goal ไปที่มุมของสนาม
- ใช้เซ็นเซอร์ AI Visionเพื่อค้นหาและนำทางไปที่วงแหวนสีแดงและประตูเคลื่อนที่ จากนั้นใช้เซ็นเซอร์การหมุน เพื่อวางตำแหน่ง Pusher และวางวงแหวนไว้บนประตู
โปรดจำไว้ว่าข้อมูลเพิ่มเติมเกี่ยวกับคำสั่งเฉพาะ V5RC High Stakes Field และ Hero Bot, Axel สามารถพบได้ใน VEX API และในวิธีใช้ในตัวใน VEXcode VR (Blocks และ Python)