Einsicht in das Errechnete
Von Axel Oppermann
Die Nutzung „intelligenter“ Systeme, die autonom Entscheidungen treffen und Mehrwert erbringen, kann schnellere und bessere Entscheidungen schaffen: bessere medizinische Behandlung, optimierten Einsatz von Dünger, gezieltere Ansprache des Kunden oder einen gezielteren Angriff des Terroristen in irgendeinem Vorort von Bagdad. Peng – da haben wir’s, das erste Vorurteil: dass Terroristen in der arabischen Welt zu suchen seien. Aber auch der Wunsch nach schneller Diagnose, mein Interesse an verträglicher Landwirtschaft und das Bedürfnis, an Kunden zu kommen, bilden letztlich meine Denkweise, meine Mutmaßungen ab. Und was wäre, wenn ich meine Vorurteile, meine Lern-, Denk- und Anpassungsfähigkeiten in ein KI-Modell übertrage, das über Wohl und Wehe zigtausender Menschen entscheidet und es beeinflusst? Und was wäre, wenn über diese Entscheidungen und deren Folgen keine Transparenz herrschte?
Die Gefahr besteht darin, Entscheidungen zu treffen und zu verwenden, die „nicht richtig“, nicht gerechtfertigt oder legitim sind oder bei denen es einfach nicht möglich ist, eine detaillierte Erklärung oder eine Begründung zu erhalten. Um eine Entscheidung zu verstehen, sind Erläuterungen notwendig, die den Output bzw. das Ergebnis eines KI-Modells unterstützen bzw. unterstützend erklären. Insbesondere dann, wenn von einer KI mehr erwartet wird als eine einfache binäre Vorhersage.
Ob wir KI trauen können
Künstliche Intelligenz ist, von allen definitorischen Feinheiten einmal abgesehen, in vielen Einsatzgebieten weit über die Prototypenphase hinaus in die Phase der Realisierung und Implementierung vorgedrungen. Die Raffinesse von KI-gestützten Systemen hat in letzter Zeit so zugenommen, dass sie sich zu undurchsichtigen Entscheidungssystemen entwickelt haben. Im Vergleich dazu waren die allerersten KI-Systeme noch relativ leicht zu interpretieren.
Wüssten wir genauer, wie lernende Systeme lernen, wären wir schlauer. In Deutschland geht u.a. die Projektgruppe Erklärbare Künstliche Intelligenz von Prof. Ute Schmid am Fraunhofer-Institut für Integrierte Schaltungen IIS das XAI-Problem an. In den USA ist bei der DARPA (Defense Advanced Research Projects Agency) das Information Innovation Office (I2O) von Dr. Matt Turek auf Explainable AI angesetzt. „DoD“ bedeutet hier das US-Verteidigungsministerium (Department of Defense). (Bild: DARPA)
Wenn nun Entscheidungen, die aus solchen Systemen abgeleitet werden, letztlich das Leben von Menschen beeinflussen, wie es in der Medizin, auf dem Sozialamt oder in der Landesverteidigung der Fall ist, besteht ein wachsender Bedarf an einem Verständnis, wie solche Entscheidungen durch KI-Methoden bzw. KI-Modelle zustande kommen. „Interpretierbarkeit“ und „Erklärbarkeit“ sind die Stichworte, die dann fallen. Im Kern geht es aber um Vertrauen. Die Aufgabe von Explainable AI ist es, Modelle und Techniken zu entwickeln, die es in einem ersten Schritt menschlichen Benutzern und in einem weiteren Schritt Maschinen ermöglichen, zu verstehen und zu interpretieren, wie und auf welcher Grundlage das jeweilige KI-Modell Entscheidungen getroffen hat. Ziel ist es, dabei sowohl Vertrauen aufzubauen als auch die einzelnen KI-Modelle effektiv zu verwalten.
KI kommt so oder so
KI gilt als eine der großen Zukunftstechnologien schlechthin. Dabei hat künstliche Intelligenz die Schwelle zum Massenmarkt bereits überschritten, ist bereits Alltagstechnologie. KI und verwandte Bereiche wie Deep Learning und Machine Learning haben in den vergangenen zwei bis drei Jahren die Diskussionen darüber geprägt, wie Unternehmen zukünftig Leistungen erbringen, wie Menschen konsumieren und zusammenleben. Dieses „Aufblühen“ bzw. der Fortschritt in der momentanen gesellschaftlichen und ökonomischen Breite des Themas ist auf zwei Faktoren zurückzuführen: erstens auf einen politischen Willen, zweitens auf einen wirtschaftlichen Zwang bzw. Druck. Viele Regierungen bewerten KI-Kompetenz als einen Standort- und Systemfaktor. Für Digitalkonzerne und Investoren ist KI die zentrale Grundlage für Wachstum und die Absicherung des eigenen Geschäftsmodells. Zur Erinnerung: Zuvor war künstliche Intelligenz jahrzehntelang zwar auch Gegenstand zahlreicher Diskussionen, aber fast ausschließlich unter Forschern und Entwicklern, die unterschiedliche Ansätze und Denkrichtungen vertraten, einerseits philosophische Ansichten andererseits praktische Erfahrungen.
Momentan dreht sich alles um ChatGTP. Für die Zeit davor gibt eine Einführung einen ersten Überblick über den Stand der Technologien, die Fortsetzungen skizzieren praktische Einsatzgebiete für KI, insbesondere in der Industrie. Für den Lebenslauf könnten die Ratgeber zur KI-Studienstrategie bzw. zum KI-Studium (auch in Kombination mit Robotik) sowie zum Berufsbild Machine Learning Engineer und zum KI-Manager nützlich sein – aber auch die Übersicht zu den Jobs, die KI wohl ersetzen wird.
Extrabeiträge untersuchen, wie erfolgreich Computer Computer hacken, ob und wann Vorbehalte gegen KI begründet sind und warum deshalb die Erklärbarkeit der Ergebnisse (Stichwort: Explainable AI bzw. Erklärbare KI) so wichtig ist. Hierher gehört außerdem der Seitenblick auf Maschinenethik und Münchhausen-Maschinen. Als weitere Aspekte beleuchten wir das Verhältnis von KI und Vorratsdatenspeicherung sowie die Rolle von KI in der IT-Sicherheit (KI-Security), fragen nach, wie Versicherungen mit künstlicher Intelligenz funktionieren, hören uns bei den Münchner KI-Start-ups um und sehen nach, was das AIR-Projekt in Regensburg vorhat. Ein Abstecher führt außerdem zu KI-Unternehmen in Österreich.
Auf der rein technischen Seite gibt es Berichte zu den speziellen Anforderungen an AI Storage und Speicherkonzepte bzw. generell an die IT-Infrastruktur für KI-Anwendungen. Außerdem erklären wir, was es mit AIOps auf sich hat, und im Pressezentrum des MittelstandsWiki gibt es außerdem die komplette KI-Strecke aus dem Heise-Sonderheft c’t innovate 2020 als freies PDF zum Download.
Die Marktforscher von Markets and Markets prognostizieren für den Markt für künstliche Intelligenz ein Volumen von wahrscheinlich 190,61 Milliarden US-Dollar im Jahr 2025. Dies entspricht für den Prognosezeitraum einem durchschnittlichen jährlichen Wachstum (CAGR) von über 30 %. Fortune Business Insights kommt für den Zeitraum bis 2027 auf eine jährliche Wachstumsrate von 33,2 %. Die Analysten von Gartner gehen davon aus, dass KI im Jahr 2021 weltweit einen Geschäftswert von 2,9 Billionen US-Dollar und eine Produktivität von umgerechnet 6,2 Milliarden Arbeitsstunden generiert.
Ansprüche an KI-Entscheidungen
Die Diskussionen polarisieren. Die Meinungen darüber, was KI kann, können darf und können wird, gehen weit auseinander: Zwischen KI als Retter der Gesellschaft und als ihr Untergang, ist so gut wie jede These vertreten. Klar ist allerdings: KI wird den Wandel in allen Branchen vorantreiben. Gemeint sind hierbei nicht die ewig fabelhaften Prophezeiungen der Protagonisten, die Antworten für bessere Medizin und bessere Landwirtschaft und Lösungen für die Klimakrise ausrufen. Gemeint sind vielmehr die stetigen Fortschritte durch mehr Rechenkapazitäten und bessere Algorithmen.
Das größte Hemmnis, das der KI entgegensteht, ist das Vertrauen, ist eine KI-Modellvertrautheit. Fehlendes Wissen, fehlende Vertrauenswürdigkeit, die Thematisierung von Black-Box-Modellen – diese und ähnliche Hemmnisse müssen durch Transparenz, Interpretierbarkeit bzw. Erklärbarkeit der zugrunde liegenden KI-Modelle geheilt werden.
Schwarz auf Weiß
Dieser Beitrag erschien zuerst in unserer Heise-Beilage „IT- und Technologieunternehmen stellen sich vor“. Einen Überblick mit freien Download-Links zu sämtlichen Einzelheften bekommen Sie online im Pressezentrum des MittelstandsWiki.
In allen Medien, bei Konferenzen und Diskussionen wird die „Offenlegung der Algorithmen“, die Nachvollziehbarkeit der Entscheidungen und sogar die Offenlegung der Daten gefordert. Bestimmt wird diese Diskussion von philosophischen und ethischen Überzeugungen, aber auch von klaren kommerziellen Beweggründen. Denn erst ab einem gewissen Grad an Offenheit wird KI von Menschen akzeptiert.
Benötigt wird eine gemeinsame terminologische Grundlage. Aber auch hier treffen unterschiedliche Denkschulen, Erklärungstheorien (auch aus Philosophie und Ethik) und Interessen aufeinander. Allerdings lassen sich einige akzeptierte und Definitionen zusammenfassen.
Transparent, interpretierbar, verständlich
Im Kern gilt: Verständlichkeit ist das wesentliche Konzept im Kontext von Explainable AI und der Bewertung von KI-Modellen. Transparenz und Interpretierbarkeit sind eng hiermit verbunden. Während Transparenz sich auf die Eigenschaft eines Modells bezieht, für einen Menschen verständlich zu sein, misst die Verständlichkeit den Grad, in dem ein Mensch eine von einem Modell getroffene Entscheidung verstehen kann. In anderen Worten: Interpretierbarkeit ist definiert als die Fähigkeit, einem Menschen die Bedeutung in verständlicher Form zu erklären oder zu vermitteln. Interpretierbarkeit wird als eine passive Eigenschaft eines KI-Modells gewertet. Es wird also auf eine Ebene (der Erklärung) abgezielt, auf der das Modell für einen menschlichen Beobachter Sinn ergibt. Diese Eigenschaft wird wiederum auch als Transparenz ausgedrückt. Ein KI-Modell gilt als transparent, wenn es von sich aus verständlich ist.
Da ein Modell unterschiedliche Grade der Verständlichkeit aufweisen kann, werden transparente Modelle regelmäßig in drei Kategorien unterteilt: simulierbare Modelle, zerlegbare Modelle und algorithmisch transparente Modelle. In aller Kürze: Simulierbarkeit bezeichnet die Fähigkeit eines Modells, von einem Menschen simuliert oder gedacht zu werden. Zerlegbarkeit steht für die Fähigkeit, jedes Teil eines Modells (Input, Parameter und Berechnung) zu erklären. Algorithmische Transparenz zielt auf die Fähigkeit des Benutzers ab, den vom Modell verfolgten Prozess zu verstehen.
Im Gegensatz zur Interpretierbarkeit kann Erklärbarkeit als aktives Merkmal eines KI-Modells angesehen werden. Denn hierbei handelt es sich um Aktionen bzw. Prozeduren, die die internen Funktionen klären oder im Detail beschreiben.
Verständlichkeit wiederum bezeichnet die Eigenschaft eines Modells, einem Menschen seine Funktion – respektive seine Funktionsweise – verständlich zu machen. Und dies, ohne dass seine interne Struktur oder die Algorithmen, mit denen das Modell Daten intern verarbeitet, erklärt werden müssen. Mit anderen Worten: Verständlichkeit zielt darauf, für einen Menschen in verständlichen Worten die Ergebnisse darzustellen. Dagegen meint Interpretierbarkeit die Fähigkeit, einem Menschen in verständlicher Form die Bedeutung zu erklären oder zu vermitteln.
Was bedeutet „erklären“?
Diese Definitionen sind Komplexitätsreduktion ohne Substanzverdunstung, will heißen: an sich korrekt. Allerdings ist festzuhalten, dass es im allgemeinen Diskurs oft noch keine einheitliche Auffassung darüber gibt, wie die einzelnen Begriffe genau verortet werden bzw. wie sich einzelne Begriffe, respektive deren dahinterliegende Eigenschaften, bedingen. Auch deshalb sind die Konzepte von Explainable Artificial Intelligence (XAI) von großem praktischen Wert. Denn hierbei handelt es sich regelmäßig um anwendbare Techniken, die es menschlichen Anwendern ermöglichen sollen, KI zu verstehen, KI zu vertrauen und KI absichtsvoll einzusetzen.
So haben unterschiedliche Personen und Zielgruppen unterschiedliche Erwartungen und Ansprüche, was die Interpretation der Ergebnisse von KI angeht. Der Konsument hat in der Regel kein Interesse an Erklärungstheorien und Feinheiten. Ihn interessiert, warum er den Kredit nicht bekommt oder nicht auf der Transplantationsliste ganz oben steht. Die entsprechenden Aufsichtsbehörden hingegen haben ein berechtigtes Interesse, Strukturen und Notwendigkeiten mit Ergebnissen in einen engeren Zusammenhang zu stellen; sie wollen interpretieren. Aus diesen und weiteren Gründen sind unterschiedliche Granularitäten und Konsenspunkte zu definieren. Einige Beispiele: Für Fachleute und Nutzer eines KI-Modells ist Vertrauenswürdigkeit besonders wichtig. Regulierungsbehörden ist Kausalität, Fairness und Vertrauen besonders wichtig.
Im Kern zielt alles auf die Dimensionen Vertrauen und Verständnis ab. Bei allen terminologischen Erklärungen und Definitionen ist festzuhalten, dass nicht nur eine Erklärung der Funktionsweise notwendig ist, sondern vielmehr auch eine Erklärung des Zwecks.
Explainable Artificial Intelligence
Eine Explainable AI – eine „erklärbare künstliche Intelligenz“ – ist eine, die einer definierten Zielgruppe bzw. einem bestimmten Publikum Gründe und/oder Details bereitstellt, um die Funktionsweise und den eigentlichen Zweck des Systems klar und leicht verständlich darzustellen. Nochmals (weil wichtig): Dabei steht die eigentliche Funktion genauso im Fokus wie der Zweck.
Unternehmen, die KI in die eigenen Geschäftsmodelle integrieren bzw. die Algorithmen und KI-Modelle entwickeln, stehen vor der Herausforderung, die KI „greifbar“ zu machen. Der „Output“ muss „erklärbar“ sein. Hierbei sind alle Interessensgruppen (Stakeholder) des Unternehmens zu berücksichtigen. Insbesondere Mitarbeiter, Kunden sowie Aufsichts- und Regulierungsbehörden gilt es hierbei zu adressieren. Bei allen Vorhaben sind daher zwei Dimensionen zu beachten: erstens die technische Dimension, zweitens die Marketing- und Kommunikationsdimension.
Im Bereich der technischen Dimension haben sich in den vergangenen Jahren zahlreiche Verfahren und Methoden etabliert, die KI-Modelle erklärbar machen oder diesen Schritt zumindest suggerieren. Diese modelldiagnostischen Techniken lassen sich in unterschiedliche Klassen unterteilen, die sich unter anderem in Bezug auf Simulierbarkeit und algorithmische Transparenz unterscheiden. Grundsätzlich gilt, dass bei allen Aktivitäten ein Kompromiss zwischen der Notwendigkeit einer verantwortungsvollen KI, basierend auf Explainable AI, und der dafür benötigten Leistung notwendig ist.
Im Wirtschaftskontext von Explainable AI ist aber die Dimension Marketing und Kommunikation mindestens so wichtig wie die Auswahl der modelldiagnostischen Techniken. Der Modellvertrautheit muss in der Kommunikation die gleiche Bedeutung beigemessen werden, wie es das Thema Datenschutz in anderen Bereichen bereits seit Jahren erfährt. Gezielt auf Mitarbeiter, Kunden und Behörden gerichtete Kommunikation ist der Erfolgsfaktor.
Akzeptierte künstliche Intelligenz
Die Erklärbarkeit ist eines der Haupthindernisse, mit denen KI heutzutage in Bezug auf ihre praktische Umsetzung und Akzeptanz konfrontiert ist. Die Unfähigkeit, die Ergebnisse eines KI-Modells zu erklären oder zu verstehen, schwächt die gute Leistung von modernen Algorithmen und KI-basierten Geschäftsmodellen und ist „bad for business“, wie es Mark Jones von TechHQ.com formuliert. Die selbst definierten Eliten und eine breite Masse an direkten und indirekten Nutzern verlangen immer häufiger und immer heftiger Erklärungsfähigkeit von KI. Systeme, dessen Funktion und Zweck als nicht erklärbar wahrgenommen werden, stoßen immer öfter auf Ablehnung. Auch wenn ABI Research Explainable AI zu den Technologietrends, „that won’t happen in 2021“, brauchen Unternehmen, die KI einsetzen oder selbst Algorithmen und KI-basierte Geschäftsmodelle forcieren, relativ rasch ein Explainable-AI-Konzept.
Axel Oppermann berät seit über 17 Jahren als IT-Marktanalyst Technologieunternehmen in Strategie- und Marketing-Fragen. Er arbeitet beim Beratungs- und Analystenhaus Avispador, schreibt für diverse Blogs, Portale, Fachzeitschriften und kommentiert in diversen Bewegtbildformaten aktuelle Themen sowie den Markt. Als Gesprächspartner für Journalisten und Innovatoren bringt Axel erfrischend neue Ansichten über das Geschehen der digITal-Industrie in die Diskussion ein. Seine vielfältigen Erkenntnisse gibt Axel in seinen kontroversen, aber immer humorvollen Vorträgen, Seminaren, Workshops und Trainings weiter. Seine Themen: Digital & darüber hinaus.