Interaktiv - Das Kundenmagazin des Fraunhofer IPA 2.2020 | Page 15

interaktiv 2 | 2020 Titel 15
Mithilfe von RL lernt ein Roboter an einem virtuellen MRK- Arbeitsplatz , wie er trotz der völlig unvorhersehbaren Bewe - gungen eines Menschen seine Montageaufgabe erledigen kann , ohne jemanden zu verletzen . Weil beim RL aber ein Neuronales Netz zum Einsatz kommt , das ein Sicherheitsbe - auftragter nicht durchdringen kann , wird er nie die Verant - wortung für Sicherheitsimplementierungen übernehmen , die ihm ein Algorithmus vorschlägt . Das wäre grob fahrlässig und könnte vor Gericht enden .
Die Forscher um Huber wollen nun verständliche Erklärungen für die Sicherheitsimplementierungen extrahieren , die das Neu ronale Netz vorschlägt , und dabei den Informationsverlust so gering wie möglich halten . So möchten sie es Sicherheits - beauftragten ermöglichen , die Schutzmaßnahmen , die die Algorithmen vorsehen , zu prüfen und anschließend zu bestätigen oder zu verwerfen . Ihr Einverständnis vorausgesetzt , leitet das System automatisch einen Code für die Speicher program - mierbare Steuerung ( SPS ) des geplanten MRK-Arbeits platzes ab .
Wachsende Nachfrage nach xAI
Die Relevanz von xAI zeigt sich für Huber auch daran , dass er und das CCI seit einigen Monaten immer häufiger von namhaften Firmen wie Volkswagen oder Arvato kontaktiert werden , die für ihre Produkte und Prozesse transparente Algo - rithmen benötigen . Mit Forschungsprojekten wie dem KI- Fortschrittszentrum » Lernende Systeme « tragen Huber und zahlreiche weitere Wissenschaftler dazu bei , dass es womöglich bald nicht mehr nötig ist , die Leistungsfähigkeit und Interpretierbarkeit von ML-Algorithmen gegeneinander abzuwägen . Gleichzeitig erhöht die Erklär bar keit automatisiert getroffener Entscheidungen oder Prognosen das Vertrauen in KI und hilft Menschen , unliebsame Ergebnisse zu akzeptieren .
Entwicklern von KI hilft xAI dabei , ihre eigenen Methoden besser zu verstehen und bei fehlerhaftem Einsatz zu korrigieren . Denn wenn bekannt ist , weshalb und an welcher Stelle ein Algorithmus den falschen Lösungsweg eingeschlagen hat , können Informatiker viel einfacher und schneller Fehler beheben . Tragische Ereignisse wie der Unfalltod von Elaine Herzberg werden damit in Zukunft unwahrscheinlicher . Ganz vermeiden lassen werden sie sich aber nicht . Denn schließlich werden Algorithmen von Menschen geschrieben – und die machen nun mal Fehler . n
Studien und Überblickspapier zu xAI
Deep-Learning-Ansätze ermöglichen die Erstellung hochpräziser Modelle für den Einsatz in unterschiedlichsten Anwendungsdomänen , etwa der Produktion oder Medizin . Allerdings haben diese Modelle Black-Box-Charakter , da die von ihnen gelernten Zusammenhänge so komplex und ab - strakt sind , dass sie Menschen – selbst Experten – nicht mehr nachvollziehen können . Bei einigen An wendungen , zum Beispiel in sicherheitskritischen Bereichen , ist jedoch nicht nur die Genauigkeit der Vorhersagen , sondern auch das Vertrauen in die Algorithmen von enormer Bedeutung .
Aus diesem Grund widmen sich das Fraunhofer IPA und das Institut für Innovation und Technik ( iit ) in zwei aufeinander abgestimmten Studien gemeinsam dem Thema xAI ( engl . » explainable AI «). Das iit befasst sich dabei mit der Frage des konkreten Bedarfs und der Nutzbarkeit von xAI in der Industrie oder auch im Gesundheitswesen . Dies umfasst einerseits eine Analyse der Anforderungen an Erklärungen unter Berücksichtigung von unterschiedlichen Branchen und Zielgruppen sowie der derzeitigen und zukünftig ge planten Verwendung von KI-Algorithmen . Andererseits werden gene - relle Stärken und Schwächen verschiedener xAI-Lösungs - ansätze aufgezeigt . Das Fraunhofer IPA hingegen beschäftigt sich mit der Analyse derzeit populärer Erklärungsverfahren . Die Kategorisierung der ausgewählten Verfahren sowie deren Evaluation hinsichtlich diverser Bewertungskriterien soll es Lesern erleichtern , das passende Verfahren für ihren Anwendungsfall einzugrenzen .
Parallel zu beiden Studien liefert das Übersichtspapier » A Survey on the Explainability of Supervised Machine Learning « eine vollständige Taxonomie sowie einen Über - blick über die verschiedenen Prinzipien und Methoden der Erklärbarkeit für überwachte maschinelle Lernverfahren . Nadia Burkart , Fraunhofer IOSB , und Marco Huber , Fraun - hofer IPA , betrachten dabei den Stand der Technik der letzten rund 30 Jahre . Das Überblickspapier erscheint im reno m - mierten Journal of Artificial Intelligence Research ( JAIR ).
Zur Vorabveröffentlichung des Übersichtspapiers bei arXiv : https :// arxiv . org / abs / 2011.07876
Kontakt Nina Schaaf Telefon + 49 711 970-1971 | nina . schaaf @ ipa . fraunhofer . de