xAI: Nachvollziehbarkeit maschineller Lernverfahren am Beispiel neuronaler Netze
Bitkom Akademie Bitkom Akademie
897 subscribers
2,122 views
33

 Published On Jul 31, 2019

Tiefe neuronale Netze (Deep-Learning-Algorithmen) sind zu einer Schlüsseltechnologie in Bereichen wie Fertigung, Gesundheitswesen und Finanzen geworden. Denn sie ermöglichen Vorhersagen mit hoher Genauigkeit. Es gibt jedoch viele Szenarien, in denen sehr präzise Vorhersagen allein nicht ausreichen und wo Vertrauen in die Urteilskraft der Algorithmen von entscheidender Bedeutung ist. Kritische Entscheidungen müssen also durch Erklärungen ergänzt werden, damit die Nutzer diese Entscheidungen nachvollziehen können. In diesem Vortrag stellt Prof. Dr.-Ing. Marco Huber, Leiter des Forschungszentrums Cyber Cognitive Intelligence am Fraunhofer IPA, einen praktischen Ansatz zum Extrahieren von Informationen aus neuronalen Netzen vor. Zu diesem Zweck werden einfache Entscheidungsbäume aus trainierten Modellen extrahiert, anhand deren die Entscheidungen der neuronalen Netze erklärt werden können.

Erfahren Sie mehr über die KI-Aktivitäten des Bitkom: www.bitkom.org/ai

show more

Share/Embed