Die Projektgruppe XAI der Universität hat sich mit der Erklärbarkeit von
Künstlicher Intelligenz (KI), spezieller von neuronalen Netzen, beschäftigt.
Oftmals agieren diese Modelle als undurchsichtige "Black Box", was das
Vertrauen in ihre Entscheidungen erschwert. Das Konzept der Explainable AI
(XAI) zielt darauf ab, diese Entscheidungen transparenter zu gestalten. Dies
stärkt nicht nur das Vertrauen in die Modelle, sondern hilft auch, sie zu
verbessern. Klassische Beispiele für die Notwendigkeit der Erklärbarkeit ist
die Anwendung in der medizinischen Diagnose mittels Röntgenbildern oder im
autonomen Fahren.
Die Projektgruppe hat dabei ein Framework entwickelt, bei dem neue Bilder
hochgeladen und analysiert werden können. Dabei wird die Entscheidung des
zugrundliegenden Modells untersucht und sowohl visuell, als auch sprachlich
durch ein LLM, erklärt.
Besonders in der Bildklassifikation wird mit Methoden wie LRP, Lime und CAM
gearbeitet, um für die Entscheidung relevante Bildbereiche zu identifizieren.
Diese Methoden haben sich nach einer ausgiebigen Evaluation der Projektgruppe