Modul 4 · KI verstehen
Wer entscheidet was KI tut? Wer profitiert davon — und wer nicht? Wie nutzt man KI moralisch verantwortlich? Fragen ohne einfache Antworten. Aber mit echten Konsequenzen.
← → Navigieren · ESC zurück zur Übersicht
Einstieg
„Wir haben keinen ethischen Ansatz gewählt — wir haben nur schnell gehandelt."
2020 wurde Robert Williams in Detroit verhaftet. Die Grundlage: ein KI-Gesichtserkennungssystem, das ihn fälschlicherweise als Täter identifiziert hatte.
KI-Entscheidungen ohne ethische Reflexion sind keine neutralen Entscheidungen. Sie sind Entscheidungen — nur ohne Verantwortliche.
Überblick
Keine Phrasen. Keine Utopie. Echte Fälle, echte Konsequenzen, echte Abwägungen.
Teil 1
KI ist nicht neutral. Sie spiegelt die Entscheidungen derer, die sie bauen, finanzieren und einsetzen.
Machtstruktur
Eine Technologie, die milliarden Menschen beeinflusst, wird von einigen Tausend Menschen entwickelt — mit bestimmten Hintergründen, Werten, blinden Flecken.
AI Index Report, Stanford 2024; UNESCO AI Gender Report 2023
Daten und Macht
KI-Modelle werden mit riesigen Textmengen trainiert. Welche Texte? Aus welchen Quellen? In welchen Sprachen?
Konsequenz: Das Modell „weiß" mehr über amerikanische Städte als über afrikanische. Mehr über Männer in Führungspositionen als über Frauen. Das ist keine Entscheidung — es ist eine Unterlassung.
Strukturfrage
Es gibt kein eindeutiges „besser". Beide Modelle haben reale Vor- und Nachteile — und unterschiedliche Machtdynamiken.
Teil 2
Wie Ungleichheit in Algorithmen eingebettet wird — oft ohne Absicht, immer mit Konsequenz.
Grundkonzept
Bias ist keine Meinung. Es ist eine systematische Abweichung, die bestimmte Gruppen bevorzugt oder benachteiligt.
Buolamwini & Gebru (2018), Gender Shades; Amazon Recruiting Tool (intern 2018); ProPublica COMPAS-Analyse (2016)
Fallbeispiel
COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) wurde in US-Gerichten eingesetzt um Rückfallrisiko vorherzusagen — und beeinflusste Haftentscheidungen.
War das Modell absichtlich diskriminierend? Nein. Es hat historische Verhaftungsraten gelernt — die selbst diskriminierend waren.
Diskriminierung durch historische Daten zu reproduzieren ist trotzdem Diskriminierung.
Angwin et al. (2016), „Machine Bias", ProPublica
Fallbeispiel
2018 testete Forscherin Joy Buolamwini kommerzielle Gesichtserkennungs-APIs auf Fairness.
Alle drei Systeme wurden als „kommerziell einsatzbereit" vermarktet — für Polizei, Banken, Behörden.
Buolamwini & Gebru (2018), „Gender Shades", MIT Media Lab
Joy Buolamwini
Gründerin: Algorithmic Justice League
CC BY-SA 4.0 · N. Caranti
Das Fairness-Problem
Es gibt viele mathematisch korrekte Definitionen von Fairness — und sie widersprechen sich.
| Fairness-Definition | Was sie bedeutet | Wenn sie scheitert |
|---|---|---|
| Gleiche Trefferquote | Alle Gruppen gleich häufig korrekt erkannt | Falsch-Positive können trotzdem ungleich verteilt sein |
| Gleiche Fehlerrate | Alle Gruppen gleich oft falsch klassifiziert | Kann faire Trefferquoten verhindern |
| Kalibrierung | Vorhersagen gleich zuverlässig für alle Gruppen | Mathematisch unvereinbar mit den anderen Definitionen |
Kleinberg et al. (2016): Diese drei Definitionen können nicht gleichzeitig erfüllt werden. Fairness ist keine technische Lösung — sie ist eine gesellschaftliche Entscheidung.
Teil 3
Warum es ein Problem ist, dass wir oft nicht wissen, warum KI was entscheidet.
Das Kernproblem
Moderne KI-Modelle haben Milliarden von Parametern. Selbst die Entwickler können nicht exakt erklären, warum das Modell eine bestimmte Entscheidung getroffen hat.
Ein Modell kann aus den falschen Gründen korrekt sein — und genau deshalb in neuen Situationen versagen.
Trade-off
Die EU schreibt in der DSGVO (Art. 22) ein „Recht auf Erklärung" bei automatisierten Einzelentscheidungen vor. Gleichzeitig setzt die Industrie auf Modelle, die genau das schwer machen.
DSGVO Art. 22; Rudin (2019), „Stop Explaining Black Box Machine Learning Models"
Konsequenz
In Modul 3 haben wir Halluzinationen technisch erklärt. Hier ist die ethische Dimension:
Wer haftet wenn KI falsche Informationen liefert?
Teil 4
Nicht jede Entscheidung, die ein Algorithmus treffen kann, sollte er treffen dürfen.
Grenzziehung
Manche Entscheidungen betreffen so grundlegende Rechte, dass ein Algorithmus sie nicht alleine treffen sollte — egal wie präzise er ist.
Haft, Abschiebung, Bewährung — Algorithmen als alleinige Entscheider sind rechtlich und moralisch problematisch.
Diagnosen, Behandlungsempfehlungen — KI als Hilfsmittel ja, als Arzt nein. Menschliches Urteil und Beziehung ist Teil der Behandlung.
KI-Screenings sind effizient — aber sie codieren systematisch historische Diskriminierung weiter.
Effizienz ist kein ausreichender Grund für vollständige Automatisierung von Entscheidungen, die Menschenwürde und Grundrechte betreffen.
Extremfall
„Lethal Autonomous Weapons Systems" (LAWS) — Systeme, die ohne menschliche Aufsicht töten können. Sie existieren bereits in rudimentärer Form.
Die IKRK und UN fordern ein internationales Verbot. Über 30 Staaten unterstützen das — aber es gibt noch kein bindendes Abkommen.
Wer tötet, muss Rechenschaft ablegen können. Ein Algorithmus kann das nicht. Er kann weder verstehen, was Schuld bedeutet, noch sie tragen.
Algorithmen töten ohne Hass, Panik oder Rache. Theoretisch „rationaler" — aber wessen Rationalität?
Konzept
Das Prinzip: Menschen müssen bei hochriskanten Entscheidungen bedeutsame Kontrolle haben. Nicht nur formale.
Teil 5
Wenn KI Fehler macht, Menschen schadet, oder Rechte verletzt — wer ist verantwortlich?
Strukturproblem
Ein Mensch macht einen Fehler: Es gibt einen Verantwortlichen. Eine KI macht einen Fehler: Die Verantwortung verteilt sich über eine lange Kette.
Jede Stelle in der Kette kann auf eine andere zeigen. Am Ende trägt oft niemand konkrete Verantwortung — obwohl Menschen real geschädigt wurden.
Rechtlicher Rahmen
Teil 6
Was das erste umfassende KI-Gesetz der Welt tut — und was es nicht tut.
CC BY-SA 4.0 · S. Lek
Regulierung
Im März 2024 verabschiedet. Das erste umfassende KI-Gesetz weltweit. Vollständig in Kraft ab 2026.
Nicht jede KI wird gleich reguliert. Je größer das Risiko, desto strenger die Anforderungen.
Verbote
Kritik
Der EU AI Act ist ein erster Schritt. Aber er hat reale Grenzen.
Teil 7
Training und Betrieb großer KI-Modelle kostet Energie — und das hat ethische Konsequenzen.
Fakten
Microsoft, Google und Amazon haben ihre CO₂-Neutralitätsziele verlängert oder zurückgenommen — als direkte Konsequenz des Energiehungers durch KI-Rechenzentren.
Patterson et al. (2022), „Carbon Emissions and Large Neural Network Training"; Li et al. (2023), „Making AI Less "Thirsty"
Ethische Abwägung
Die Frage ist nicht ob KI Energie verbraucht — sondern ob das Ergebnis diesen Verbrauch rechtfertigt.
Teil 8
Ethik ist keine Zuschauersportart. Hier sind echte Handlungsmöglichkeiten.
Handeln
Handeln
Besondere Verantwortung
Schule und Hochschule haben eine besondere Verantwortung — denn hier werden die nächsten KI-Nutzer und -Entwickler geprägt.
Zusammenfassung
KI ist ein Spiegel der Gesellschaft, die sie gebaut hat. Die Fragen der KI-Ethik sind keine neuen Fragen — es sind alte Fragen über Macht, Gerechtigkeit und Verantwortung. Jetzt mit neuen Werkzeugen.
Wie Bias entsteht, wer Macht hat, was Fairness bedeutet
Wer entscheidet? Wer profitiert? Wer trägt Kosten?
Als Nutzerin, Bildungseinrichtung, Bürgerin
Modul 4 abgeschlossen
Wer KI versteht, muss auch fragen: Was sollte sie tun — und was nicht? Wer die Antwort anderen überlässt, überlässt ihnen die Zukunft.