So leicht lässt sich das autonome Auto lahmlegen

Autonomes Auto : Tübinger Informatiker werfen das autonome Auto aus der Bahn

Wissenschaftler des Max-Planck-Instituts für Intelligente Systeme zeigen, wie anfällig ein Verfahren der KI-Steuerung für Hackerangriffe ist.

(np) „Nur wer ein Softwaresystem wirklich bis ins Letzte verstanden hat, kann das Programm auch vor Manipulationen schützen.“ Diese Maxime stammt vom Leiter des Saarbrücker Computersicherheitszentrums Cispa, Professor Michael Backes. Und bei Systemen der Künstlichen Intelligenz gibt es da offenbar noch Nachholbedarf. Informatiker der Uni Bochum haben vor Kurzem gezeigt, dass sogenannte Intelligente Lautsprecher über für Menschen unhörbare Signale manipuliert werden können. Und nun erklärt das Max-Planck-Institut für Intelligente Systeme in Tübingen, dass KI-Systeme in Autos, die für das autonome Fahren bestimmt sind, anfällig für Hackerangriffe sind. Die Informatiker untersuchten Algorithmen, die den sogenannte optischen Fluss erfassen. Mit dem Begriff „Optischer Fluss“ beschreiben Informatiker die aus den Bildern der Bordkamera errechnete Bewegung in einer Szene. Sie warnen die Autoindustrie, „dass ein einfaches Farbmuster ausreichen könnte, Autopiloten in selbstfahrenden Fahrzeugen zu verwirren.“

Ein Farbmuster auf einem T-Shirt, einem Aufkleber oder ein Emblem auf einer Einkaufstüte könnte für die Steuerung eines selbstfahrenden Autos zum Sicherheitsrisiko werden. Anurag Ranjan, Joel Janai, Andreas Geiger und Michael Black stellten mehrere Algorithmen auf den Prüfstand, die in der Autobranche, in Robotik, Medizin, bei Videospielen und in der Navigation verwendet werden, berichtet das Max-Planck-Institut. Sie seien anfällig für Störsignale, lautet ihr Urteil.

Schon ein buntes Muster könne dazu führen, dass neuronale Netze Bewegungen falsch interpretieren. Das Netzwerk könne daraus den Schluss ziehen, dass Objekte der Szene die Richtung gewechselt haben. Fürs große Chaos genüge schon ein kleiner Fleck. „Es reicht eine Größe von weniger als einem Prozent des Gesamtbilds.“ Je größer das Symbol sei, desto verheerender seien die Auswirkungen. Nicht auszudenken, was der Totalausfall eines Autopiloten  bei hoher Geschwindigkeit verursachen könnte. „Unsere Arbeit soll die Hersteller wachrütteln, sie vor der potenziellen Bedrohung warnen. Wenn sie davon wissen, können sie ihre Systeme so trainieren, dass sie gegenüber derartigen Angriffen robust sind,“ sagt Michael Black, Direktor der Abteilung für Perzeptive Systeme am Max- Planck-Institut für Intelligente Systeme.

Mehr von Saarbrücker Zeitung