Interaktiv - Das Kundenmagazin des Fraunhofer IPA 2.2020 | Page 13

ein Entscheidungsbaum auch bereits ein Regelsystem , ich kann diese Regeln aber noch einmal gesondert aufschlüsseln «, führt Huber aus . » So kann ich Regeln beispielsweise priorisieren oder alle gleich gewichten . Kommt es zu Widersprüchen , muss ich diese auflösen . Und auch hier muss ich aufpassen , dass die Anzahl der Regeln beherrschbar bleibt . Sonst habe ich gegenüber einem automatisierten Modell keinen Mehr - wert mehr .«
Hilfsmittel zur Erklärbarkeit
Liegt einem KI-Ergebnis ein von Natur aus nicht erklärbares Modell zugrunde , wie beispielsweise ein tiefes Neuronales Netz , braucht es eine Art Übersetzungsleistung für Anwender . Denn hier gibt es im Gegensatz zu den erklärbaren Modellen keine so klare Entscheidungsgrenze für die Ergebnisge winn ung . Die Übersetzungsleistung kann dabei entweder global orientiert sein , also das Modell als Ganzes erklären , oder lokal ausinteraktiv 2 | 2020 Titel 13
Daten , je nachdem auf welcher Seite einer Geraden sie liegen , einer Klasse zugeordnet . Sie besitzen also eine nachvollziehbare Entscheidungsgrenze .
Eine weitere Erklärungshilfe für ML-Ergebnisse sind Entschei - dungs bäume . Diese eignen sich insbesondere dann , wenn eine lineare Entscheidungsgrenze nicht mehr ausreicht , und repräsentieren anhand ihrer Verästelung regelbasierte mögliche Entscheidungspfade des Algorithmus . Die Entscheidungen sind hierarchisch gegliedert und führen so von der Ausgangs - frage entsprechend den Zwischenantworten zu einem Klassi - fizierungsergebnis . Allerdings können Entscheidungsbäume auch so komplex werden , dass sie wiederum unverständlich werden .
Als dritte Erklärungshilfe sind regelbasierte Systeme , die an - hand von vorgegebenen Wenn-dann-Regeln Entscheidungen fällen , für Anwender prinzipiell gut nachvollziehbar . » Zwar ist