Heise Top NewsForschende der Universität Zürich haben Software entwickelt, die einen Quadcopter schneller über einen Parcours für Drohnenrennen steuert, als menschliche Profi-Piloten. Das ist das erste Mal, dass eine autonome Drohne menschliche Piloten auf Weltmeisterschaftsniveau schlagen konnte. Bei einem internationalen Wettbewerb vor vier Jahren – der AlphaPilot Challenge – brauchten die besten autonomen Systeme noch rund doppelt so lang wie ihre menschlichen Mitbewerber. Das Team um Elia Kaufmann von der Universität Zürich präsentierte die technischen Einzelheiten des "Swift" genannten Systems jetzt in "Nature". Swift trat auf einer 75 Meter langen Strecke mit sieben quadratischen Toren jeweils gegen einen menschlichen Piloten an. Die insgesamt drei menschlichen Piloten, die vorher eine Woche auf der Rennstrecke trainieren durften, gewannen zehn von insgesamt 25 Rennen. Anzeige Bei Drohnenrennen steuern die Piloten ihre mit Kameras ausgerüsteten Maschinen aus der Ich-Perspektive (First Person View). Dabei müssen sie auf einem festgelegten Rundkurs Tore passieren – und können dabei eine Geschwindigkeit von bis zu 100 km pro Stunde erreichen. Zwar haben Forschende der Universität Zürich um Davide Scaramuzza, – in dessen Labor auch Kaufman gearbeitet hat – zuvor schon Drohnen mit hoher Geschwindigkeit durch Wälder fliegen lassen. Dabei waren die Fluggeräte aber nur halb so schnell. Das nächste Tor im Blick haben Das Swift-System besteht aus zwei Komponenten: Ein Teil der Software ist dafür zuständig, aus den Kameradaten der Drohne und den Signalen der Beschleunigungssensoren die Lage und Geschwindigkeit der Drohne und die Position der Tore zu ermitteln. Ein zweiter Software-Teil leitet aus Position und Geschwindigkeit die nächsten Steuerkommandos ab. Dieser Teil der Software wurde zuvor in einer Simulation trainiert – und zwar mit Hilfe von Reinforcement Learning. Dabei spielt die Software – zunächst rein zufällig ausgewählte – Steuersequenzen durch, und lernt durch Versuch und Irrtum schließlich, die Drohne möglichst schnell durch das nächstliegende Tor zu fliegen, und gleichzeitig das übernächste Tor möglichst gut im Blick zu behalten. Reinforcement Learning hat sich insbesondere bei Computerspielen als sehr erfolgreiches Instrument erwiesen. Allerdings muss der zu trainierende Software-Agent das zu erlernende Spiel dazu in einer Simulation sehr oft durchspielen. Simulationen unterscheiden sich allerdings von realen Umgebungen. Soll heißen: Software, die in einer Simulation darauf trainiert wurde, eine Drohne zu fliegen, scheitert oft in der Realität, weil die Sensordaten verrauscht und unvollständig sind, und die Simulation das Flugverhalten der Drohne nur in einer idealisierten Form berücksichtigt. Dieses Problem lösten Kaufmann und Kollegen, indem sie die Drohne auf der Rennstrecke vor dem Training mit hochauflösenden Motion-Capture-Kameras verfolgten und diese Daten dann zusammen mit den Sensordaten der Drohne auswerteten. Aus der kombinierten Auswertung konnten die Forschenden ein Modell des Rauschverhaltens der Sensordaten ableiten. Die nun künstlich unpräziser gemachten Positionsdaten verwendeten sie dann in der Simulation zum Training der Steuerungssoftware. So elegant das Verfahren sein mag, ist das jedoch auch seine größte Einschränkung. Denn es ist abhängig von der konkreten Strecke und der verwendeten Drohne. Um es auch auf andere Gegebenheiten anpassen zu können, müsste man die Analyse und das Training unter vielen verschiedenen Bedingungen stattfinden lassen. Anzeige (wst) Zur Startseite

weiterlesen: RSS Quelle öffnen