Verwendung des Augensensors in VEXcode VR mit Python

Der VEX VR-Roboter verfügt über eine Vielzahl von Sensoren, darunter zwei Augensensoren.


Augensensoren am VR-Roboter

Screenshot der VEXcode VR-Schnittstelle, die eine blockbasierte Codierungsumgebung zum Programmieren eines virtuellen Roboters zeigt, die dazu konzipiert ist, den MINT-Unterricht durch Codierungs-Tutorials und Problemlösungsaktivitäten zu unterstützen.

Der VR Robot hat zwei Augensensoren, einen nach vorne gerichteten und einen nach unten gerichteten. Die Sensoren können erkennen, ob ein Objekt vorhanden ist, und auch Farben (rot, grün, blau, keine) erkennen.

Screenshot der VEXcode VR-Schnittstelle, die im Abschnitt „Tutorials“ die blockbasierte Codierungsumgebung zeigt, die zum Vermitteln von Codierungskonzepten durch virtuelle Robotik entwickelt wurde.

Die Werte des Augensensors können im Dashboard in VEXcode VR angezeigt werden. Weitere Informationen zum Dashboard Sie in diesem Artikel.

Screenshot der VEXcode VR-Schnittstelle, die eine blockbasierte Codierungsumgebung zum Programmieren eines virtuellen Roboters zeigt, die für Bildungszwecke im MINT-Lernen entwickelt wurde.

Die Augensensorwerte können auf der Monitorkonsole in VEXcode VR angezeigt werden. Weitere Informationen zur Monitorkonsole Sie in diesem Artikel.


Mit den Augensensoren verwendete Befehle

Augensensor in der Nähe von Objekt Befehl

Screenshot der VEXcode VR-Tutorial-Schnittstelle, die blockbasierte Codierungsoptionen zum Programmieren eines virtuellen Roboters zeigt und darauf abzielt, Schülern und Lehrern im MINT-Bildungskontext Codierungskonzepte und Robotikprinzipien beizubringen.

 

Der Befehl Augensensornahe Objekt meldet, ob der Augensensor nahe genug an einem Objekt ist, um eine Farbe zu erkennen (Rot, Grün, Blau, keine). Der vordere Augensensor und der untere Augensensor verfügen über entsprechende Befehle für die Nähe von Objekten.

Screenshot der VEXcode VR-Schnittstelle, die eine blockbasierte Codierungsumgebung zeigt, die zum Vermitteln von Codierungskonzepten anhand eines virtuellen Roboters entwickelt wurde und im Abschnitt „Tutorials“ zu sehen ist.

Der Befehl Augensensorin der Nähe von Objekt gibt einen booleschen Wert zurück, der True meldet, wenn sich der Augensensor in der Nähe eines Objekts befindet, das erkennbare Farben hat, und Fals meldet, wenn er nicht nahe genug ist ein Objekt mit erkennbaren Farben.

Augensensorfarbe Befehl

Screenshot der VEXcode VR-Schnittstelle, die die blockbasierte Codierungsumgebung zeigt, die zum Vermitteln von Codierungskonzepten durch virtuelle Robotik entwickelt wurde und Tools zum Erstellen, Testen und Debuggen von Code in einer simulierten Umgebung bietet.

Der BefehlAugensensorfarbe meldet, wenn der Augensensor eine bestimmte Farbe erkennt.

Screenshot der VEXcode VR-Schnittstelle, die im Abschnitt „Tutorials“ die blockbasierte Codierungsumgebung zeigt, die zum Vermitteln von Codierungskonzepten durch virtuelle Robotik entwickelt wurde.

Die Farbe, nach der der Augensensor sucht, wird als Parameter des Befehls festgelegt. Beide Augensensoren können Rot, Grün, Blau oder keines erkennen.

Screenshot der VEXcode VR-Schnittstelle, die eine blockbasierte Codierungsumgebung zeigt, die zum Vermitteln von Codierungskonzepten durch virtuelle Roboterprogrammierung entwickelt wurde und Optionen sowohl für Anfänger als auch für Fortgeschrittene bietet.

Der Befehl Augensensorfarbe gibt einen booleschen Wert zurück, der True meldet, wenn der Augensensor die ausgewählte Farbe erkennt, und Fund meldet, wenn er die als Parameter festgelegte Farbe nicht erkennt.


Allgemeine Verwendungszwecke des Augensensors

Screenshot der VEXcode VR-Tutorial-Schnittstelle, die die blockbasierte Codierungsumgebung zeigt, die zum Unterrichten von Codierungskonzepten durch einen virtuellen Roboter entwickelt wurde und darauf abzielt, die Fähigkeiten zur Problemlösung und zum rechnerischen Denken im MINT-Unterricht zu verbessern.

Die Augensensoren des VR-Roboters können vielseitig eingesetzt werden. Beim Down-Eye-Sensor ist zu beachten, dass er so eingestellt ist, dass er den Boden eines Spielplatzes nicht als Objekt erkennt. Andere Elemente, z. B. Datenträger, werden als Objekt registriert.

Die Augensensoren können die Farbe eines Objekts in der Nähe des Sensors erkennen, beispielsweise die farbigen Scheiben im Disk Mover Playground oder den roten Rand um den Castle Crasher Playground. Dies ist nützlich, wenn Sie möchten, dass der VR-Roboter verschiedenfarbige Objekte sortiert, zu einem bestimmten farbigen Objekt fährt oder die Farbe von Objekten erkennt, wenn sie am Sensor vorbeikommen.

def main():
während nicht down_eye.detect(BLUE):
drivetrain.drive(FORWARD)
wait(5, MSEC)
drivetrain.stop()
magnet.energize(BOOST)

Um das obige Beispiel zu verwenden, kopieren Sie diesen Code in VEXcode VR und führen Sie das Projekt auf dem Disk Mover Playground aus.

Screenshot der VEXcode VR-Tutorial-Schnittstelle, die blockbasierte Codierungsoptionen und einen virtuellen Roboter zeigt und Benutzern das Erlernen von Codierungskonzepten und Robotikprinzipien in einem pädagogischen Umfeld erleichtern soll.

Der VR-Roboter kann mithilfe der Augensensoren eine Abfolge von Verhaltensweisen auslösen, wenn er sich an der richtigen Stelle dafür befindet. Der VR-Roboter kann beispielsweise vorwärts fahren, bis er erkennt, dass er sich in der Nähe eines Objekts, beispielsweise einer Wand, befindet, und sich dann um 90 Grad drehen oder rückwärts fahren, um nicht gegen ein Objekt, beispielsweise ein Schloss, eine Scheibe oder eine Wand, zu stoßen.

def main():
while not front_eye.near_object():
drivetrain.drive(FORWARD)
wait(5, MSEC)
drivetrain.stop()

Um das obige Beispiel zu verwenden, kopieren Sie diesen Code in VEXcode VR und führen Sie das Projekt auf dem Wall Maze Playground aus.

Screenshot der VEXcode VR-Schnittstelle, die eine blockbasierte Codierungsumgebung zum Programmieren eines virtuellen Roboters zeigt, die für MINT-Lernzwecke entwickelt wurde und Tutorials zu Codierungskonzepten und Robotikprinzipien hervorhebt.

Der VR-Roboter kann mithilfe der Augensensoren auf ein Objekt oder eine Oberfläche zufahren, bis es sich innerhalb einer bestimmten Entfernung befindet, ohne es zu berühren. Dadurch kann sichergestellt werden, dass der VR-Roboter nicht von einem Spielplatz fällt oder gegen Wände stößt.

def main():
drivetrain.drive_for(FORWARD, 300, MM)
drivetrain.turn_for(LEFT, 90, DEGREES)
while not down_eye.detect(RED):
drivetrain.drive(FORWARD)
wait(5, MSEC )
drivetrain.stop()

Um das obige Beispiel zu verwenden, kopieren Sie diesen Code in VEXcode VR und führen Sie das Projekt auf dem Castle Crasher Playground aus.


Beispielprojekt Augensensor

Screenshot der VEXcode VR-Schnittstelle, die blockbasierte Codierungsoptionen und einen virtuellen Roboter zeigt und die Lerntools der Plattform für Codierung, Problemlösung und Robotikprinzipien in einem Tutorial-Kontext veranschaulicht.

Im folgenden Beispiel fährt der VR-Roboter vorwärts, bis der vordere Augensensor ein grünes Objekt erkennt. Anschließend hält er an und wartet, bevor er rückwärts fährt. Beachten Sie, dass im Dashboard die Werte des vorderen Augensensors melden, ein und die Farbe dieses Objekts (der Scheibe) grün ist.

def main():
drivetrain.drive(FORWARD)
while True:
if front_eye.detect(GREEN):
drivetrain.stop()
wait(2, SECONDS)
drivetrain.drive_for(REVERSE, 200, MM)
warte(5, MSEC)

Um das obige Beispiel zu verwenden, kopieren Sie diesen Code in VEXcode VR und führen Sie das Projekt auf dem Disk Maze Playground aus.

For more information, help, and tips, check out the many resources at VEX Professional Development Plus

Last Updated: