Anzeige
Anzeige

Künstliche Intelligenz Problem Blackbox: Wenn Menschen ihre Maschinen nicht mehr verstehen

Wie künstliche neuronale Netze Entscheidungen treffen, ist mitunter nicht einmal mehr für diejenigen nachvollziehbar, die sie erschaffen haben. Das wollen Forscherinnen und Forscher nun ändern
Wie künstliche neuronale Netze Entscheidungen treffen, ist mitunter nicht einmal mehr für diejenigen nachvollziehbar, die sie erschaffen haben. Das wollen Forscherinnen und Forscher nun ändern
© xyz+
Wie kommt ein künstliches neuronales Netz zu seinen Entscheidungen? Und was passiert, wenn Menschen die KI nicht mehr verstehen? Forschende wollen ihr nun beibringen, sich selbst zu erklären
Von Manuela Lenzen

Es hieß "Versuchsfahrzeug für autonome Mobilität und Rechnersehen" und war in den frühen 1990er-Jahren auf deutschen Autobahnen unterwegs. Das an der Universität der Bundeswehr in München entwickelte selbstfahrende Auto erreichte bis zu 175 Kilometer pro Stunde. Überholmanöver plante es eigenständig und führte sie auch durch, wenn der Sicherheitsfahrer dies erlaubte. Auf seiner Rekordfahrt fuhr das Fahrzeug 158 Kilometer am Stück, ohne dass ein Mensch eingreifen musste.

Jetzt, drei Dekaden später, lassen marktreife selbstfahrende Autos immer noch auf sich warten, trotz vollmundiger Ankündigungen etwa von Tesla-Gründer Elon Musk. Zwar funktionieren autonome Fahrzeuge in den meisten Fällen inzwischen erstaunlich gut. Aber das reicht nicht, wenn es, wie im Straßenverkehr, um Menschenleben geht.

Selbstfahrende Autos sollten immer korrekt reagieren. Dazu müssen sie sich in einer unübersichtlichen, unvorhersehbaren Welt zurechtfinden. Sie müssen ihre Umgebung bei strömendem Regen ebenso wie bei blendender Sonne richtig wahrnehmen. Die Algorithmen, die all die Daten aus den zahlreichen Fahrzeugsensoren interpretieren, haben aber ihre Grenzen. Und zuweilen machen sie erschreckende Fehler.

Mehr zum Thema