Wie es weitergeht: Überarbeitung des Roboters

Insgesamt sind wir über unser Abschneiden bei den deutschen Meisterschaften sehr zufrieden. Wir hätten nicht gedacht, dass unser Roboter, abgesehen von den Fehlerkennungen, die ja durch ein einfaches Verstellen der Wärmesensoren behoben werden konnten, so gut funktionieren würde. Wir haben uns nicht auf Hindernisse eingestellt, die sich bei den Läufen in den Parcours befanden, unser Roboter konnte diese aber dennoch fast immer sauber umfahren. Hindernisse besitzen mindestens 4 Ecken, dürfen aber auch jede andere Form mit mehr als 4 Ecken (bis hin zum Kreis) haben. Eine Mindestgröße gibt es nicht, eine maximale Höhe von 40cm darf aber nicht überschritten werden. Zudem müssen Hindernisse immer 20cm von einer Wand entfernt sein (wenn eine vorhanden ist). Problem ist, dass unser Roboter aktuell genau 20cm breit ist und dass es da eng werden kann (obwohl er bewiesen hat, dass es möglich ist). Eine weitere Schwäche ist, dass die Infrarotentfernungssensoren einen sehr kleinen Öffnungswinkel haben (generell ist das sehr gut, da so gezielt gemessen werden kann, für eine Hinderniserkennung ist das jedoch weniger gut geeignet, da unter Umständen Hindernisse in einem toten Winkel stehen können, die Hindernisse also einfach von den Sensoren „übersehen“ werden und der Roboter kollidiert). Dagegen helfen Ultraschallsensoren, da sie das gesamte Sichtfeld des Roboters abdecken können.

Bei der WM werden die neuen Regeln zu Einsatz kommen. Eine wesentliche Neuerung ist, dass es zum Einen Checkpoints gibt: Zu diesen Checkpoints muss der Roboter zurückgesetzt werden, wenn ein Lack of Progress auftritt, er also eine schwarze Fliese durchfährt oder er die Karte verliert (den LoP würden wir dann ausrufen). Dafür darf die neue Position des Roboters nach einem LoP dem Roboter nicht mehr mitgeteilt werden, der Roboter muss sich also bei einem LoP wieder zum letzten Checkpoint zurücksetzen. Ob dem Roboter die Information LoP „ja“ oder „nein“ gegeben werden kann, ist noch nicht sicher, da bekommen wir noch eine Antwort vom Technical Committee, also den Entwerfern der offiziellen Regeln.
Weiterhin muss der Roboter bei Opfern nun Rescuekits abwerfen, von denen er maximal 12 Stück dabei haben darf. Dadurch wird man gezwungen, die Opfer in die Karte einzuzeichnen (damit man nicht mehrere Kits bei einem Opfer abwirft, was generell kein Problem ist, unter Umständen bekommen dann aber einige Opfer gar kein Kit). Generell muss natürlich auch ein Abwurfmechanismus entwickelt werden, das ist aber kein großes Problem. Beim Einzeichnen der Opfer in die Karte muss berücksichtigt werden, dass sich auch mehrere Opfer auf einer Fliese befinden könnten…

Es kommt also einiges dazu, deshalb werden wir, zumal das Plexiglas schon etwas gelitten hat, ein neues Chassis bauen, das 1cm kleiner ist (der Roboter hat dann eine Größe von genau 19cm x 19cm). Die Infrarotentfernungssensoren sollen so weit wie möglich nach unten, um notfalls auch noch sehr kleine Hindernisse erkennen zu können. Natürlich kommen auch Ultraschallsensoren dazu, wir werden drei Stück von den Devantech SRF10 verwenden. Der Abwurfmechanismus wird mit einem Servo bewerkstelligt.
Unsere Zeilenkamera wird zudem mehr oder weniger von einer richtigen Kamera abgelöst, generell wollen wir aber weniger auf Kameras setzen. Wir werden nun die neue CMUcam5 benutzen, die man im November bei Kickstarter unterstützen konnte. Vorteil ist, dass man der Kamera einfach Objekte, die getrackt werden sollen, beibringen kann. Die Position dieser Objekte wird dann z.B. seriell per UART ausgegeben. Was nicht so toll ist, ist, dass das Ganze nur mit farbigen Objekten funktioniert. Da müssen wir uns also noch was einfallen lassen. Notfalls versuchen wir, einzelne Pixel der Kamera auszulesen. Vorteil dieser Kamera gegenüber unserer Zeilenkamera ist einfach, dass wir uns um nichts mehr kümmern müssten, die Belichtung also unabhängig vom Roboter und auch ohne LED geregelt werden kann etc. Selbst, wenn wir mit der Kamera selbst vorerst nichts anfangen können, wird sie uns zumindest als Ansteuerung für das Servo dienen (man kann sogar zwei Servos an die Kamera anschließen). Für den Notfall (plötzliche Regeländerung? Superteam Wettbewerb?) sind wir dann gewappnet.
Generell sind wir von Kameras nicht mehr so begeistert, nachdem uns unsere Zeilenkamera bei den hellen, beleuchteten Wettbewerbsparcours nicht mehr so gut funktioniert hat, im Gegensatz zu unserem Backupsensor am Untergrund, der auch bei extrem hellem Licht noch die gleichen Werte geliefert hat. Erschwerend dazu kommt, dass die Zeilenkamera aufgrund ihrer Neigung nicht dazu in der Lage ist, silberne Flächen (die Checkpoints) zu erkennen, da das gesamte Licht von der Kamera weg reflektiert wird und diese Flächen somit als Sackgasse erkannt werden würden. Der Sensor muss genau senkrecht nach unten zeigen, damit bei silbernem Untergrund das gesamte Licht und bei schwarzem Untergrund wenig bis gar nichts reflektiert wird.
Wahrscheinlich werden wir dafür unseren aktuellen Backup-Untergrundsensor mit einer High Power IR LED aufrüsten, sodass er auch noch funktioniert, wenn er weiter vom Untergrund entfernt ist (wenn der Roboter Speed Bumps überquert oder die Rampe befährt).

All diese Ideen und Gedanken sind in unseren neuen, überarbeiteten Entwurf für den Roboter eingeflossen. Im Folgenden ein paar Bilder:

Kitdropper

Kitdropper: Ein Servo schiebt ein Stück Plexiglas nach vorne, drückt dabei ein Rescue Kit aus dem Schacht (die Kits werden durch eine kleine Feder zurückgehalten, damit sie nicht so herausfallen) und fährt wieder in die Ausgangsposition zurück.

 

 

 

 

 

 

 

 

 

Untere Ebene des Roboters mit Motoren, Powerunit (Anschlüsse der Motoren und des Akkus), dem Orientierungssensor, einem Ultraschallsensor nach vorne und einem normalen Infrarotentfernungssensor nach hinten und dem Kitdropper

 

 

 

 

 

 

 

 

 

Zweite Ebene

Zweite Ebene mit allen Entfernungssensoren nach unten, zwei Ultraschallsensoren, der Kamera und dem Mainboard

 

 

Komplettansicht

Komplettansicht des neuen Roboters – Das Display ist jetzt aus Platzgründen etwas weiter vorne

 

 

 

 

 

 

 

 

 

Komplettansicht - FOVs

Komplettansicht des Roboters mit eingezeichneten FOV (Field of view) aller Sensoren. Gut erkennbar ist der gut abgedeckte Bereich vor dem Roboter.