Interaktiv - Das Kundenmagazin des Fraunhofer IPA 2.2020 | Page 11

interaktiv 2 | 2020 Titel 11
Einblicke in die Blackbox :

Maschinelle Lernverfahren erklärbar machen Von Hannes Weik und Karin Röhricht

Künstliche Intelligenz kommt immer häufiger auch in sicherheitskritischen Anwendungen zum Einsatz . Deshalb ist das Wissen darüber , wie sie zu ihren Entscheidungen kommt , essenziell . Forschung und Industrie haben das erkannt und arbeiten daran , dass die Blackbox-Algorithmen von heute künftig neben dem Ergebnis auch einen nachvollziehbaren Lösungsweg liefern .
Am Abend des 18 . März 2018 , es war kurz vor 22 Uhr , schob Elaine Herzberg ihr Fahrrad über die vierspurige Mill Avenue in Tempe , einem Vorort von Phoenix , Arizona . Es war Nacht , sie trug ein schwarzes Oberteil und nutzte nicht den ausgewiesenen Fußgängerüberweg . Die Algorithmen des selbstfahrenden Testautos von Uber , das genau auf Herzberg zufuhr , waren sich lange uneins , womit sie es zu tun hatten . Der Wagen überfuhr die 49-jährige Obdachlose ungebremst . Sie starb wenig später im Krankenhaus . Die Sicherheitsfahrerin , Rafaela Vasquez , hatte nicht eingegriffen . Anstatt auf den Verkehr zu achten und die Hände einsatzbereit über dem Steuer zu halten , hatte sie den Blick nach unten gerichtet , wie das Video einer Überwachungskamera zeigt .
Wäre an jenem Abend alles gut gegangen , hätte der Wagen abgebremst und Herzberg die Straße unbeschadet überqueren können , hätte vermutlich nie jemand gefragt , wie die Algo - rithmen des selbstfahrenden Autos zu ihren Vorhersagen und Wahrscheinlichkeitsberechnungen gekommen waren . Doch weil sie eben manchmal Fehler begehen , Ergebnisse liefern , die Menschen enttäuschen , verärgern oder wie im beschriebenen Fall gar gefährden , ist es ein ernstzunehmendes Problem , dass ihre Lösungswege meist im Verborgenen liegen . Moderne Machine-Learning-Algorithmen ( ML-Algorithmen ) gleichen einer Blackbox . Sie folgen nicht mehr vorgegebenen Wenndann-Regeln , sondern erzeugen aus den Eingabedaten ein komplexes Modell , also ein automatisch generiertes Programm , auf dessen Ausgestaltung der Mensch allenfalls indirekt Ein - fluss nehmen kann .
» Je komplexer das Neuronale Netz ist , desto genauere , aber leider auch schwerer nachvollziehbare Ergebnisse liefert es «, bringt es Professor Marco Huber auf den Punkt , der am Fraunhofer IPA in Stuttgart das Zentrum für Cyber Cognitive Intelli gence ( CCI ) leitet . Er hat es sich zur Aufgabe gemacht , diesem ständigen Abwägen zwischen Leistungsfähigkeit und Interpretierbarkeit eines Algorithmus ein Ende zu setzen . Künstliche Intelligenz ( KI ) soll in Zukunft erklärbare Entschei - dungen treffen und nachvollziehbare Prognosen abgeben .
Datenschutz verlangt erklärbare KI
» Explainable Artificial Intelligence «, oder kurz » xAI «, heißt dieser Forschungszweig der Informatik , der auf die Initiative der Defense Advanced Research Projects Agency ( DARPA ) zurückgeht , einer Behörde des US-Verteidigungsministeriums . Lange hielt sich das Interesse der Industrie daran in engen Grenzen . Doch seit KI nicht mehr nur bei Amazon Bücher oder bei Netflix Filme empfiehlt , sondern in Produktionshallen Maschinen und Roboter dirigiert oder Autofahrern dabei hilft , ihren Wagen sicher durch belebte Innenstädte zu steuern und unfallfrei einzuparken , hat sich das grundlegend geändert . Denn warum sollten Menschen ihr Schicksal selbstfahrenden Autos oder kollaborativen Robotern anvertrauen , wenn deren Algorithmen intransparente und mitunter sogar falsche Ent - scheidungen fällen ?
Aber nicht nur das menschliche Bedürfnis nach Sicherheit und einer Erklärung für unerwartete oder tiefgreifende Ereignisse , besonders negativer Art , sondern auch die Datenschutz- Grundverordnung ( DSGVO ) der Europäischen Union verleiht xAI Relevanz . Denn gemäß Artikel 12 sind Unternehmen , die personenbezogene Daten verarbeiten , verpflichtet , Betroffenen darüber » in präziser , transparenter , verständlicher und leicht