คุณสามารถใช้ AI Vision Sensor เพื่อช่วยระบุวัตถุในเกม (บล็อก) บน V5RC 25-26 Push Back Playground ใน VEXcode VR โดยใช้การจำแนกประเภท AI
หากคุณคุ้นเคยกับเวอร์ชันทางกายภาพ ของ AI Vision Sensor คุณจะรู้ว่าเซนเซอร์ทางกายภาพยังมีความสามารถในการรายงานข้อมูลเกี่ยวกับ AprilTags และลายเซ็นสีที่กำหนดค่าไว้อีกด้วย เนื่องจากไม่จำเป็นต้องมีการกำหนดค่าหุ่นยนต์ใน VEXcode VR และไม่มี AprilTags อยู่ใน Push Back Field ของ V5RC 25-26 เซ็นเซอร์เสมือนจึงรายงานข้อมูลเฉพาะองค์ประกอบของเกมที่กำหนดค่าไว้ล่วงหน้าเท่านั้น: บล็อกสีแดงและบล็อกสีน้ำเงิน
เซ็นเซอร์ AI Vision ทำงานอย่างไรใน V5RC Push Back ใน VEXcode VR
AI Vision Sensor คือกล้องที่สามารถระบุและแยกแยะองค์ประกอบต่างๆ ของเกมได้โดยอัตโนมัติ ช่วยให้หุ่นยนต์ของคุณปรับทิศทางตัวเองไปหาวัตถุเฉพาะได้โดยอัตโนมัติ เซ็นเซอร์ได้รับการฝึกฝนไว้ล่วงหน้าเพื่อจดจำองค์ประกอบเกม Push Back ของ V5RC ในปีนี้ ดังนั้นจึงสามารถตรวจจับบล็อกได้โดยอัตโนมัติ
เพื่อตรวจจับวัตถุเหล่านี้ เซ็นเซอร์ AI Vision จะถูกติดตั้งไว้ที่ด้านหน้าของหุ่นยนต์ (ดังที่แสดงที่นี่)
การรวบรวมข้อมูลจากเซ็นเซอร์ AI Vision
คุณสามารถดูข้อมูลที่รายงานโดย AI Vision Sensor ผ่านทาง Snapshot Window, Monitor Console หรือ Print Console ใน VEXcode VR ได้
หากต้องการดูหน้าต่าง Snapshot และดูข้อมูลที่ AI Vision Sensor รายงาน ให้เลือกปุ่ม AI Vision Sensor
เลือกปุ่มAI Vision Sensor อีกครั้งเพื่อซ่อนหน้าต่าง Snapshot
หน้าต่าง Snapshot จะปรากฏที่มุมซ้ายบนของหน้าต่าง Playground และระบุองค์ประกอบเกมทั้งหมดภายในระยะการมองเห็นของ AI Vision Sensor
สำหรับวัตถุที่ตรวจพบแต่ละรายการ ระบบจะแสดงข้อมูลสำคัญ ได้แก่ การจำแนกประเภท พิกัดศูนย์กลาง X และศูนย์กลาง Y ตลอดจนความกว้างและความสูง
คำอธิบายประเภทข้อมูลที่รายงานโดย AI Vision Sensor รวมถึงคำสั่ง VEXcode ที่เกี่ยวข้อง สามารถพบได้ใน Blocks และ Python VEX API
คำสั่งเหล่านี้สามารถใช้ได้ใน Monitor และ/หรือ Print Console เพื่อช่วยแสดงภาพข้อมูลจากแต่ละสแนปช็อตที่ถ่ายในขณะที่โปรเจ็กต์ของคุณกำลังทำงานอยู่ เรียนรู้เพิ่มเติมเกี่ยวกับการใช้ Monitor และ Print Consoles กับ Blocks, กับ Pythonหรือ โดยใช้ Print Console
การใช้เซ็นเซอร์ AI Vision เพื่อช่วยให้ Dex ระบุวัตถุได้
คุณสามารถใช้เซ็นเซอร์ AI Vision เพื่อช่วยให้ Dex นำทางไปยังวัตถุที่ต้องการโดยการตีความข้อมูลของเซ็นเซอร์ ด้วยเทคโนโลยีนี้ Dex สามารถกำหนดเป้าหมายและขับเคลื่อนไปที่ Game Elements เพื่อหยิบพวกมันขึ้นมาได้
เซ็นเซอร์ AI Vision จะรายงานเฉพาะข้อมูลจากสแนปช็อตล่าสุดเท่านั้น ดังนั้น Dex จึงต้องอัปเดตสแนปช็อตนั้นอย่างต่อเนื่องในขณะขับรถ
โครงการตัวอย่างนี้แสดงให้เห็นว่า Dex สามารถใช้เซ็นเซอร์ AI Vision เพื่อปรับทิศทางไปที่บล็อกและหยิบมันขึ้นมาได้อย่างไร
เรียนรู้เกี่ยวกับการเข้าถึงและการรันโครงการตัวอย่าง ด้วยบล็อค หรือ ด้วย Python
การใช้เซ็นเซอร์ของ Dex ร่วมกัน
สามารถรวมเซ็นเซอร์ AI Vision เข้ากับเซ็นเซอร์อื่นๆ บนหุ่นยนต์เพื่อทำงานต่างๆ ทั่วสนามได้ รายชื่อเซ็นเซอร์ทั้งหมดในเวอร์ชันเสมือนของ Dex สามารถพบได้ในหน้า ของ VEX API นี่เป็นเพียงแนวคิดบางประการที่จะช่วยให้คุณเริ่มต้นใช้งานโค้ดของคุณได้:
- ใช้เซ็นเซอร์ AI Vision เพื่อค้นหาและกำหนดเป้าหมายบนองค์ประกอบเกม จากนั้นใช้เซ็นเซอร์ GPS เพื่อขับรถไปยังเป้าหมาย
- ใช้เซ็นเซอร์ AI Vision เพื่อค้นหาและกำหนดเป้าหมายในองค์ประกอบเกมต่างๆ จากนั้นใช้เซ็นเซอร์ออปติคัล เพื่อกำหนดสีของบล็อกในสายพานลำเลียงก่อนที่จะปล่อย
โปรดจำไว้ว่าข้อมูลเพิ่มเติมเกี่ยวกับคำสั่งเฉพาะ V5RC Push Back Field และ Hero Bot, Dex สามารถพบได้ใน VEX API และในวิธีใช้ในตัวใน VEXcode VR (Blocks และ Python)