Zwischenstand:

Deutschland ist im Halbfinale und wir sind weiter fleißig am Programmieren und Optimieren 😀

Wir haben in den letzten beiden Wochen wieder relativ wenig geschafft, da Klausuren (vierstündige auch noch…) anstanden, aber jetzt sind wir damit erstmal durch. Und in 10 Tagen geht es auch schon los… Unglaublich!

Insgesamt sind wir aber zufrieden. Der Roboter fährt ziemlich zuverlässig. Wir haben noch ein paar Feineinstellungen vorgenommen, die Länge der Geradeausfahrt etwas angepasst, zum Beispiel. Außerdem haben wir bei der Kollisionsvermeidung noch eine Korrektur der Korrektur hinzugefügt: Wenn der Roboter nach einer Geradeausfahrt viel schräger steht, als zu Beginn (Erkennung über Differenz der Encoder beim Start der Geradeausfahrt und Ende der Geradeausfahrt) richtet er sich neu aus, sodass er wieder gerade steht. Encoder sind nicht so zuverlässig, besonders bei Geröll (Zahnstochern etc.) dürfte das schwierig werden, weshalb das wahrscheinlich noch auf den Orientierungssensor erweitert wird.

Leider ist uns beim Testen unser LED Schaltregler durchgebrannt – der Dritte, und wieder einfach so, ohne Grund.

Wir kaufen sehr viel aus China und meistens ist die Qualität super, aber das war ein Reinfall :( Wir haben nun welche auf Basis des PT4115 gekauft, die im Laufe der nächsten Woche ankommen sollten. Die hatten wir auch vorher schon mal in Einsatz und sind wesentlich zuverlässiger.

Auch bei der Erkennung der Checkpoints konnten wir Fortschritte erzielen: Da die silbernen Flächen grundsätzlich in alle möglichen Richtungen reflektieren, bekommt der Untergrundsensor mal mehr und mal weniger Licht. Mal richtig viel, mal so wenig, dass eine schwarze Fläche erkannt wird. Das konnte aber ganz leicht optimiert werden, indem einfach während der Geradeausfahrt die Anzahl der Male, in denen der Sensor eine silberne Fläche erkennen würde, misst. So können silberne Fliesen zuverlässig erkannt werden. Quasi ein Durchschnitt, bei dem Null-Reflexion nicht berücksichtigt wird.
Hier mal ein Bild unseres Untergrundsensors:

Den haben wir nun schon etwas länger so, sind bis jetzt aber noch nicht näher darauf eingegangen. Der Sensor besteht aus dem LED Treiber, der sich weiter hinten im Roboter befindet (auf dem Foto nicht sichtbar), einer 1W High Power IR LED inkl. Kühlkörper und rechts daneben ein abgeschirmter, nach unten gerichteter IR Phototransistor, der als Spannungsteiler über den AD-Wandler des Mikrocontrollers des Roboters ausgelesen wird.

Weiterhin haben wir beim Rescuekitabwurf ein bisschen weitergemacht. Insgesamt funktioniert das schon recht gut, aber noch nicht perfekt. Die Kits fallen nicht immer in den 15cm Radius um die Opfer, weil sie, da sie aus Plexiglas und deshalb recht leicht sind, gerne wieder hochspringen, z.B. wenn der Roboter über sie hinweg fährt. Da sind wir gerade mit Sprühgummi am Experimentieren, dazu mehr, wenn es da Erfolge zu verzeichnen gibt. Da muss aber auch an der Software noch etwas optimiert werden: Der Roboter dreht aktuell nur auf der Stelle, eigentlich muss er vor dem Abwurf noch näher an die Opfer heranfahren…

Noch etwas mehr Arbeit investieren müssen wir in die Rampe – das funktioniert noch nicht zuverlässig genug. Dazu aber auch mehr, wenn etwas getan wurde. Zu beachten ist außerdem, um nochmal auf die Checkpoints zurückzukommen, dass diese sich auch auf der Rampe befinden können. Das sollte aber recht einfach zu implementieren sein…

Hindernisse, die mitten auf Fliesen stehen, stellen im Moment sowohl für uns, als auch andere Teams ein mehr oder weniger unüberwindbares Hindernis 😀 dar. Mal sehen, was sich da noch machen lässt, aber nach aktuellem Stand sieht es so aus, als ob das nichts zur WM wird.

Man sieht: Es gibt noch einiges zu tun! 😀 10 Tage haben wir wie gesagt noch und auch beim Setup vor dem Wettbewerb kann sicherlich einiges noch geschafft werden. Wir halten Euch auf dem Laufenden.