← Kursübersicht
1 / 36
Modul 4 · KI und Ethik

Modul 4 · KI verstehen

KI und Ethik

Wer entscheidet was KI tut? Wer profitiert davon — und wer nicht? Wie nutzt man KI moralisch verantwortlich? Fragen ohne einfache Antworten. Aber mit echten Konsequenzen.

← → Navigieren  ·  ESC zurück zur Übersicht

Einstieg

„Ethik ist doch nur Theorie."

„Wir haben keinen ethischen Ansatz gewählt — wir haben nur schnell gehandelt."

— Aus der Geschichte des Facial Recognition-Einsatzes bei US-Behörden

2020 wurde Robert Williams in Detroit verhaftet. Die Grundlage: ein KI-Gesichtserkennungssystem, das ihn fälschlicherweise als Täter identifiziert hatte.

KI-Entscheidungen ohne ethische Reflexion sind keine neutralen Entscheidungen. Sie sind Entscheidungen — nur ohne Verantwortliche.

👤 Robert Williams
Detroit, 2020

→ KI-Identifikation: falsch
→ Verhaftet: ✓
→ Schuldig: ✗

Kein Mensch in der Schleife.
Er war der erste dokumentierte Fall einer falschen Verhaftung durch Gesichtserkennung in den USA.

Überblick

Was dieses Modul behandelt

  • Macht: Wer entscheidet wie KI gebaut und eingesetzt wird?
  • Bias: Wie Ungleichheit in Modelle eingebettet wird
  • Transparenz: Was Erklärbarkeit bedeutet — und warum sie fehlt
  • Autonomie: Wo KI nicht entscheiden sollte
  • Verantwortung: Wer haftet wenn KI Fehler macht?
  • Regulierung: EU AI Act — was er tut und was nicht
  • Handeln: Was du konkret tun kannst

Keine Phrasen. Keine Utopie. Echte Fälle, echte Konsequenzen, echte Abwägungen.

Teil 1

Wer entscheidet — und warum das zählt

KI ist nicht neutral. Sie spiegelt die Entscheidungen derer, die sie bauen, finanzieren und einsetzen.

Machtstruktur

Wer baut die wichtigsten KI-Systeme?

~5
Unternehmen kontrollieren die Frontier-Modelle weltweit (OpenAI, Anthropic, Google, Meta, Mistral)
3
Länder produzieren >80% der Rechenleistung für KI-Training (USA, China, Taiwan)
<15%
Frauen unter den KI-Forschenden in Top-Laboren weltweit

Eine Technologie, die milliarden Menschen beeinflusst, wird von einigen Tausend Menschen entwickelt — mit bestimmten Hintergründen, Werten, blinden Flecken.

AI Index Report, Stanford 2024; UNESCO AI Gender Report 2023

Daten und Macht

Trainingsdaten sind keine neutrale Rohware

KI-Modelle werden mit riesigen Textmengen trainiert. Welche Texte? Aus welchen Quellen? In welchen Sprachen?

Was typischerweise drin ist

  • Hauptsächlich englischer Text
  • Texte aus westlichen Internetquellen
  • Wikipedia, Reddit, akademische Texte
  • Urheberrechtlich geschützte Werke (oft ohne Erlaubnis)

Was unterrepräsentiert ist

  • Nicht-englische Sprachen (Swahili, Hindi, Arabisch)
  • Mündliche Kulturen ohne schriftliche Tradition
  • Perspektiven aus dem Globalen Süden
  • Erfahrungen marginalisierter Gruppen

Konsequenz: Das Modell „weiß" mehr über amerikanische Städte als über afrikanische. Mehr über Männer in Führungspositionen als über Frauen. Das ist keine Entscheidung — es ist eine Unterlassung.

Strukturfrage

Open Source vs. Closed Source — eine Machtfrage

Open Source Modelle (z.B. Llama, Mistral)

  • Code und Gewichte öffentlich einsehbar
  • Lokal betreibbar, keine Cloud
  • Unabhängig von Unternehmens-Policies
  • Wissenschaftlich prüfbar
  • Auch für Missbrauch nutzbar

Closed Source Modelle (GPT-4, Claude)

  • Unternehmen kontrolliert Nutzungsbedingungen
  • Einschränkungen durch Unternehmens-Policies
  • Datenschutz abhängig vom Anbieter
  • Schwieriger zu prüfen und zu kritisieren
  • Oft stärker gesichert gegen Missbrauch

Es gibt kein eindeutiges „besser". Beide Modelle haben reale Vor- und Nachteile — und unterschiedliche Machtdynamiken.

🕵️

Teil 2

Bias, Fairness und blinde Flecken

Wie Ungleichheit in Algorithmen eingebettet wird — oft ohne Absicht, immer mit Konsequenz.

Grundkonzept

Was Bias im KI-Kontext bedeutet

Bias ist keine Meinung. Es ist eine systematische Abweichung, die bestimmte Gruppen bevorzugt oder benachteiligt.

Herkunft von Bias

  • Daten-Bias: Trainingsdaten spiegeln historische Ungleichheit
  • Labeling-Bias: Menschliche Bewerter bringen eigene Vorurteile mit
  • Proxy-Bias: Scheinbar neutrale Variablen codieren Diskriminierung
  • Feedback-Bias: Modell verstärkt seine eigenen Fehler

Reale Konsequenzen

  • Kreditwürdigkeit schlechter bewertet (PoC)
  • Gesichtserkennung fehlerhafte bei dunklen Hauttönen
  • Lebensläufe von Frauen schlechter bewertet
  • Medizinische KI trainiert fast ausschließlich auf Männer

Buolamwini & Gebru (2018), Gender Shades; Amazon Recruiting Tool (intern 2018); ProPublica COMPAS-Analyse (2016)

Fallbeispiel

COMPAS — wenn Algorithmen über Haft entscheiden

COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) wurde in US-Gerichten eingesetzt um Rückfallrisiko vorherzusagen — und beeinflusste Haftentscheidungen.

Was ProPublica 2016 fand

  • Schwarze Angeklagte doppelt so oft fälschlicherweise als "hohes Risiko" eingestuft
  • Weiße Angeklagte häufiger fälschlich als "niedriges Risiko"
  • Algorithmus-Entscheidungen schwer anfechtbar
  • Unternehmen (Northpointe) hielt Modell geheim

Die tiefere Frage

War das Modell absichtlich diskriminierend? Nein. Es hat historische Verhaftungsraten gelernt — die selbst diskriminierend waren.

Diskriminierung durch historische Daten zu reproduzieren ist trotzdem Diskriminierung.

Angwin et al. (2016), „Machine Bias", ProPublica

Fallbeispiel

Gender Shades — Gesichtserkennung und Hautfarbe

2018 testete Forscherin Joy Buolamwini kommerzielle Gesichtserkennungs-APIs auf Fairness.

99%
Genauigkeit bei hellen Männern (beste Kategorie)
65%
Genauigkeit bei dunklen Frauen (schlechteste Kategorie)

Alle drei Systeme wurden als „kommerziell einsatzbereit" vermarktet — für Polizei, Banken, Behörden.

Buolamwini & Gebru (2018), „Gender Shades", MIT Media Lab

Joy Buolamwini, MIT-Forscherin, Wikimania 2018

Joy Buolamwini

Gründerin: Algorithmic Justice League
CC BY-SA 4.0 · N. Caranti

Das Fairness-Problem

Fairness ist kein technisches Problem ⚖️

Es gibt viele mathematisch korrekte Definitionen von Fairness — und sie widersprechen sich.

Fairness-Definition Was sie bedeutet Wenn sie scheitert
Gleiche Trefferquote Alle Gruppen gleich häufig korrekt erkannt Falsch-Positive können trotzdem ungleich verteilt sein
Gleiche Fehlerrate Alle Gruppen gleich oft falsch klassifiziert Kann faire Trefferquoten verhindern
Kalibrierung Vorhersagen gleich zuverlässig für alle Gruppen Mathematisch unvereinbar mit den anderen Definitionen

Kleinberg et al. (2016): Diese drei Definitionen können nicht gleichzeitig erfüllt werden. Fairness ist keine technische Lösung — sie ist eine gesellschaftliche Entscheidung.

Gleiche Fehlerrate Gleiche Trefferquote Mathematisch unvereinbar
👁️

Teil 3

Transparenz und Erklärbarkeit

Warum es ein Problem ist, dass wir oft nicht wissen, warum KI was entscheidet.

Das Kernproblem

Die Black Box — wenn niemand es erklären kann

Moderne KI-Modelle haben Milliarden von Parametern. Selbst die Entwickler können nicht exakt erklären, warum das Modell eine bestimmte Entscheidung getroffen hat.

Was wir wissen

  • Welche Daten genutzt wurden
  • Was das Modell ausgegeben hat
  • Ob das Ergebnis im Durchschnitt korrekt ist

Was wir oft nicht wissen

  • Warum diese spezifische Entscheidung
  • Welche Merkmale wie gewichtet wurden
  • Ob das Modell aus den richtigen Gründen richtig liegt
  • Was in Grenzfällen passiert

Ein Modell kann aus den falschen Gründen korrekt sein — und genau deshalb in neuen Situationen versagen.

Trade-off

Das Dilemma: Genauigkeit vs. Erklärbarkeit

Einfache, erklärbare Modelle

  • Entscheidungsbäume, lineare Regression
  • Jede Entscheidung nachvollziehbar
  • Juridisch anfechtbar
  • Oft weniger genau

Komplexe, performante Modelle

  • Neuronale Netze, Large Language Models
  • Oft viel genauer
  • Entscheidungen schwer zu erklären
  • Schwer juristisch anfechtbar

Die EU schreibt in der DSGVO (Art. 22) ein „Recht auf Erklärung" bei automatisierten Einzelentscheidungen vor. Gleichzeitig setzt die Industrie auf Modelle, die genau das schwer machen.

DSGVO Art. 22; Rudin (2019), „Stop Explaining Black Box Machine Learning Models"

Konsequenz

Halluzination als ethisches Problem

In Modul 3 haben wir Halluzinationen technisch erklärt. Hier ist die ethische Dimension:

Wenn Halluzinationen schaden

  • Arzt fragt nach Medikamentendosierung → KI erfindet Dosis
  • Journalist prüft Quelle nicht → Falschinformation verbreitet sich
  • Schüler übernimmt falsche historische Fakten
  • Kreditentscheidung basiert auf falscher Bonitätsbeschreibung

Die ethische Frage

Wer haftet wenn KI falsche Informationen liefert?

  • Das Unternehmen das das Modell gebaut hat?
  • Die Person die es gefragt hat?
  • Die Plattform die es anbietet?
  • Niemand?
🚫

Teil 4

Wo KI nicht entscheiden sollte

Nicht jede Entscheidung, die ein Algorithmus treffen kann, sollte er treffen dürfen.

Grenzziehung

Entscheidungen die menschliches Urteil erfordern

Manche Entscheidungen betreffen so grundlegende Rechte, dass ein Algorithmus sie nicht alleine treffen sollte — egal wie präzise er ist.

Freiheitsentzug

Haft, Abschiebung, Bewährung — Algorithmen als alleinige Entscheider sind rechtlich und moralisch problematisch.

Medizin

Diagnosen, Behandlungsempfehlungen — KI als Hilfsmittel ja, als Arzt nein. Menschliches Urteil und Beziehung ist Teil der Behandlung.

Bewerbungen & Bildung

KI-Screenings sind effizient — aber sie codieren systematisch historische Diskriminierung weiter.

Effizienz ist kein ausreichender Grund für vollständige Automatisierung von Entscheidungen, die Menschenwürde und Grundrechte betreffen.

Extremfall

Autonome Waffensysteme — die härteste Frage

„Lethal Autonomous Weapons Systems" (LAWS) — Systeme, die ohne menschliche Aufsicht töten können. Sie existieren bereits in rudimentärer Form.

Die IKRK und UN fordern ein internationales Verbot. Über 30 Staaten unterstützen das — aber es gibt noch kein bindendes Abkommen.

Das Kernargument gegen LAWS

Wer tötet, muss Rechenschaft ablegen können. Ein Algorithmus kann das nicht. Er kann weder verstehen, was Schuld bedeutet, noch sie tragen.

Das Kernargument dafür

Algorithmen töten ohne Hass, Panik oder Rache. Theoretisch „rationaler" — aber wessen Rationalität?

Konzept

Meaningful Human Control — was das wirklich bedeutet

Das Prinzip: Menschen müssen bei hochriskanten Entscheidungen bedeutsame Kontrolle haben. Nicht nur formale.

Formale Kontrolle (nicht ausreichend)

  • Mensch drückt „Bestätigen"-Knopf am Ende
  • Entscheidung kommt in Millisekunden — kein echter Überblick
  • Mensch hat keine echte Möglichkeit abzulehnen
  • „Human on the loop" statt „Human in the loop"

Echte Kontrolle

  • Mensch versteht was das System empfiehlt und warum
  • Mensch hat Zeit und Ressourcen um zu prüfen
  • Ablehnung ist realistische Option ohne Kosten
  • Mensch trägt echte Verantwortung für das Ergebnis
⚖️

Teil 5

Wer trägt Verantwortung?

Wenn KI Fehler macht, Menschen schadet, oder Rechte verletzt — wer ist verantwortlich?

Strukturproblem

Die Verantwortungslücke in KI-Systemen

Ein Mensch macht einen Fehler: Es gibt einen Verantwortlichen. Eine KI macht einen Fehler: Die Verantwortung verteilt sich über eine lange Kette.

┌──────────────┐ ┌──────────────┐ ┌──────────────┐ ┌──────────────┐ │ Trainings- │ │ Modell- │ │ System- │ │ Nutzer │ │ daten-Team │ → │ Entwickler │ → │ Integrator │ → │ (Ende) │ └──────────────┘ └──────────────┘ └──────────────┘ └──────────────┘ ↑ ↑ ↑ ↑ „Wir haben „Wir haben „Wir haben „Wir haben nur Daten ein Modell eine App nur das kuratiert" gebaut" gebaut" benutzt"

Jede Stelle in der Kette kann auf eine andere zeigen. Am Ende trägt oft niemand konkrete Verantwortung — obwohl Menschen real geschädigt wurden.

Rechtlicher Rahmen

Wie Haftung in der Praxis aussieht

Aktueller Status (EU)

  • EU AI Act (2024): Hochrisiko-KI muss zertifiziert werden
  • Produkthaftungsrichtlinie (überarbeitet 2024): KI-Fehler können als Produktfehler gelten
  • DSGVO: automatisierte Entscheidungen müssen anfecht- und erklärbar sein
  • Noch keine umfassende KI-Haftungsrichtlinie in Kraft

Offene Fragen

  • Wie beweist ein Geschädigter, dass KI Ursache war?
  • Wie wird Schaden bewertet wenn er statistisch verteilt ist?
  • Was gilt wenn ein Modell ständig lernt und sich verändert?
  • Wie haftet ein Modell das aus Open-Source-Basis weiterentwickelt wurde?
📜

Teil 6

Regulierung — der EU AI Act

Was das erste umfassende KI-Gesetz der Welt tut — und was es nicht tut.

Europäisches Parlament, Brüssel

CC BY-SA 4.0 · S. Lek

Regulierung

Der EU AI Act — was er ist

Im März 2024 verabschiedet. Das erste umfassende KI-Gesetz weltweit. Vollständig in Kraft ab 2026.

Der Kernansatz: Risikobasiert

Nicht jede KI wird gleich reguliert. Je größer das Risiko, desto strenger die Anforderungen.

Verbotene KI ← Social Scoring, Echtzeit-Biometrie (verboten) Hochrisiko-KI ← Bewerbungen, Bildung, Justiz, Medizin (zertifizierungspflichtig) Begrenzt riskante KI ← Chatbots, Deepfakes (Transparenzpflicht) Minimales Risiko ← Spam-Filter, Empfehlungen (keine besonderen Pflichten)

Zeitplan

2024
Verabschiedung. Verbote für inakzeptables Risiko treten in Kraft
2025
Pflichten für General Purpose AI (wie GPT, Claude)
2026
Vollständige Anwendung inkl. Hochrisiko-KI-Pflichten

Verbote

Was der EU AI Act verbietet

Verboten (Artikel 5)

  • Social Scoring durch Behörden
  • Echtzeit-Biometrie im öffentlichen Raum (fast vollständig)
  • Manipulation durch unterschwellige Techniken
  • Ausnutzung von Schwächen (Alter, Behinderung)
  • Präventive Strafverfolgung auf Basis von Profiling
  • Emotionserkennung am Arbeitsplatz / in Schulen

Eingeschränkt, nicht verboten

  • KI in der Justiz — möglich, aber streng reguliert
  • Bewerbungsscreening — möglich mit Transparenz
  • Kreditwürdigkeitsprüfung — möglich mit Anfecht­barkeit
  • Biometrie nachträglich (forensisch) — unter Bedingungen

Kritik

Was der EU AI Act nicht löst

Der EU AI Act ist ein erster Schritt. Aber er hat reale Grenzen.

Schwächen

  • Militärische KI: explizit ausgenommen
  • Durchsetzung: wer prüft die Prüfer?
  • Sandboxing: Unternehmen können in „Experimentierbereichen" Ausnahmen erhalten
  • General Purpose AI: Regeln vage, schwer durchsetzbar
  • Drittstaaten: US-Unternehmen exportieren Systeme ohne EU-Anforderungen

Was er trotzdem bewirkt

  • Setzt weltweiten Standard (Brüssel-Effekt)
  • Macht Hochrisiko-KI nachvollziehbar
  • Gibt Betroffenen Rechte und Rechtsmittel
  • Zwingt zur Dokumentation von Trainingsdaten
🌍

Teil 7

Der ökologische Fußabdruck von KI

Training und Betrieb großer KI-Modelle kostet Energie — und das hat ethische Konsequenzen.

Fakten

Wie viel Energie KI wirklich verbraucht

~50 GWh
Geschätzter Energieverbrauch beim Training von GPT-4 (entspricht 3.600 Menschenleben à 80 Jahre Gehirnleistung)
10×
Mehr Wasser pro Google-Anfrage wenn KI (Gemini) antwortet statt klassischer Suche
10–100×
Mehr CO₂ pro KI-Anfrage gegenüber klassischer Websuche

Microsoft, Google und Amazon haben ihre CO₂-Neutralitätsziele verlängert oder zurückgenommen — als direkte Konsequenz des Energiehungers durch KI-Rechenzentren.

Patterson et al. (2022), „Carbon Emissions and Large Neural Network Training"; Li et al. (2023), „Making AI Less "Thirsty"

Ethische Abwägung

Wann ist KI-Energieverbrauch gerechtfertigt?

Mögliche Rechtfertigungen

  • Medizinische Forschung: Proteinfaltung, Krebsfrüherkennung
  • Klimamodellierung: bessere Vorhersagen, weniger Emissionen
  • Bildung: Zugänglichkeit für Menschen ohne Ressourcen
  • Effizienzgewinne die Energieverbrauch anderswo senken

Schwieriger zu rechtfertigen

  • KI-generierte Marketing-Texte
  • Deepfake-Videos für Unterhaltung
  • Personalisierte Werbung
  • Chatbots die kein wirkliches Problem lösen

Die Frage ist nicht ob KI Energie verbraucht — sondern ob das Ergebnis diesen Verbrauch rechtfertigt.

💪

Teil 8

Was du konkret tun kannst

Ethik ist keine Zuschauersportart. Hier sind echte Handlungsmöglichkeiten.

Handeln

Als Nutzerin und Nutzer

Informiert entscheiden

  • Welches Unternehmen steckt hinter dem Tool? Welche Werte?
  • Was passiert mit meinen Daten?
  • Gibt es Transparenzberichte zum Training?
  • Welche Sicherheitsversprechen macht das Unternehmen?

Verantwortlich handeln

  • KI-Outputs kritisch lesen und faktenprüfen
  • Keine persönlichen Daten anderer eingeben
  • Fehler und Schaden melden — Feedback-Kanäle nutzen
  • Eigene Bedenken kommunizieren

Handeln

Als Schule, Unternehmen oder Organisation

Vor dem Einsatz

  • Risikoabschätzung durchführen
  • Betroffene einbeziehen
  • Datenschutz-Folgenabschätzung

Während des Einsatzes

  • Klare Richtlinien für Mitarbeitende
  • Wer prüft die Ausgaben?
  • Wer trägt Verantwortung?

Langfristig

  • Regelmäßige Überprüfung auf Bias
  • Mitarbeitende schulen
  • Feedback-Kanäle für Betroffene

Besondere Verantwortung

Bildung als ethische Arena

Schule und Hochschule haben eine besondere Verantwortung — denn hier werden die nächsten KI-Nutzer und -Entwickler geprägt.

Was Bildung leisten sollte

  • KI nicht nur bedienen, sondern verstehen
  • Fragen stellen: Wer profitiert? Wer nicht?
  • Kritisches Denken gegenüber Algorithmen
  • Ethische Reflexion als Pflichtbestandteil

Konkret im Unterricht

  • Bias-Experimente mit echten Tools
  • Fallstudien analysieren (COMPAS, Gender Shades)
  • Eigene ethische Positionen entwickeln
  • Medienkompetenz: KI-Outputs erkennen

Zusammenfassung

Das Kernprinzip dieses Moduls

KI ist ein Spiegel der Gesellschaft, die sie gebaut hat. Die Fragen der KI-Ethik sind keine neuen Fragen — es sind alte Fragen über Macht, Gerechtigkeit und Verantwortung. Jetzt mit neuen Werkzeugen.

Verstehen

Wie Bias entsteht, wer Macht hat, was Fairness bedeutet

Hinterfragen

Wer entscheidet? Wer profitiert? Wer trägt Kosten?

Handeln

Als Nutzerin, Bildungseinrichtung, Bürgerin

Modul 4 abgeschlossen

Ethik ist nicht optional.
Sie ist der entscheidende Teil.

Wer KI versteht, muss auch fragen: Was sollte sie tun — und was nicht? Wer die Antwort anderen überlässt, überlässt ihnen die Zukunft.

← Modul 3: KI richtig nutzen · Kursübersicht →