von Gesina Schwalbe
Neuronale Netze (DNNs) wie ChatGPT findet man dank ihrer guten Performanz inzwischen in vielerlei Bereichen, nicht nur im privaten sondern auch in ethisch relevanten Anwendungsgebieten wie medizinische Diagnostik und autonomem Fahren. Gleichzeitig werden Stimmen laut, dass die Entscheidungen von DNNs nachvollziehbar, und die genutzte KI „transparent“ sein müssen – inzwischen sogar teils gesetzlich vorgeschrieben. Aber was heißt das eigentlich, warum ist das tatsächlich wichtig und sinnvoll, und wie kann man das schon heute angehen?
In diesem Vortrag gehen wir diesen Fragen auf den Grund: Nach einem Crash-Kurs zu DNNs und deren Eigenschaften, leiten wir ab, was so alles bei DNN-basierten Entscheidungen schief gehen kann. Danach stelle ich beispielhaft Methoden aus meinem Forschungsbereich vor, der Erklärbaren Künstlichen Intelligenz. Die erlauben es, in DNNs hineinzuschauen und gelerntes sowie deren Entscheidungen besser nachzuvollziehen. Auch wenn es noch ein langer Weg zur adäquat transparenten künstlichen Intelligenz ist, soll der Ausflug dabei helfen, angemesseneres Vertrauen (also weder zu wenig aber auch nicht zu viel) in aktuelle DNN-basierte Anwendungen zu entwickeln. Und vielleicht lässt sich der eine oder die andere auch dazu inspirieren, selbst DNNs in Zukunft auf den Zahn zu fühlen.