← Kursübersicht
1 / 38
Modul 3 · KI richtig nutzen

Modul 3 · KI verstehen

KI richtig nutzen

Von Einzelprompts zu persistenten Workflows. Wie man KI-Modelle versteht, sinnvoll einsetzt — und was dabei wirklich wichtig ist.

← → Navigieren  ·  ESC zurück zur Übersicht

Einstieg

Warum „einfach fragen" nicht reicht

„Ich habe ChatGPT mal ausprobiert, aber die Antworten waren so generisch. Damit kann ich nichts anfangen."

— Reaktion, die ich immer wieder höre

Das ist kein Problem mit KI. Das ist ein Problem mit der Art, wie KI benutzt wird.

Was die meisten tun

Eine Frage eingeben. Antwort lesen. Enttäuscht sein. Aufhören.

Was funktioniert

Kontext geben. Ziel definieren. Iterieren. Workflows bauen, die morgen noch funktionieren.

Überblick

Was du in diesem Modul lernst

01
Modelle verstehen
Was Claude, GPT und Co. wirklich tun — und unterscheiden
02
Prompts bauen
Architektur, die konsistent und vorhersagbar funktioniert
03
Workflows
Persistente Systeme, nicht Einzelgespräche
04
Qualität
Bewerten, iterieren, verbessern
05
Teams
KI in Gruppen und Schulen einführen

Ziel: Du verlässt dieses Modul mit konkreten Methoden — nicht Buzzwords.

🤖

Teil 1

Welches Modell — und warum?

Nicht jedes KI-Modell ist gleich. Die Unterschiede sind real — und relevant für das, was du damit tun willst.

Modelle

Claude, ChatGPT, Gemini — was ist der Unterschied?

Eigenschaft Claude (Anthropic) ChatGPT (OpenAI) Gemini (Google)
Trainingsphilosophie Constitutional AI — Werte eingebettet RLHF — Nutzerfeedback-optimiert Multimodal-first, Google-Daten
Kontextfenster 200.000 Token (ca. 150.000 Wörter) 128.000 Token (GPT-4o) 1 Mio. Token (Gemini 1.5)
Stärken Langer Kontext, Nuancen, Sicherheit Ökosystem, Plugins, Bekanntheit Google-Integration, Bilder
Schwächen Manchmal zu vorsichtig Tendenz zu Ja-Sager-Antworten Halluzinationen bei Fakten

Stand: Mai 2026. Modelle entwickeln sich schnell — Vergleiche veralten rasch.

Claude verstehen

Constitutional AI — was das konkret bedeutet

Anthropic hat Claude nicht nur darauf trainiert, nützlich zu sein. Sondern auf eine spezifische Art nützlich zu sein.

Standard-RLHF (ChatGPT)

  • Menschliche Rater bewerten Antworten
  • Modell optimiert auf: „Was gefällt Menschen?"
  • Risiko: Sycophancy — sagen, was Nutzer hören wollen
  • Fakten können Bewertung schlechter machen als angenehme Lügen

Constitutional AI (Claude)

  • Prinzipienliste als Trainingsgrundlage
  • Modell bewertet sich selbst gegen diese Prinzipien
  • Explizite Hierarchie: Sicherheit > Ethik > Prinzipien > Hilfe
  • Ziel: Konsistenz, nicht nur Beliebtheit

Praktisch heißt das: Claude widerspricht öfter. Gibt Unsicherheit zu. Lehnt Anfragen ab — auch wenn das dem Nutzer nicht gefällt. Das ist ein Feature, kein Bug.

Schlüsselkonzept

Das Kontextfenster — Claudes Kurzzeitgedächtnis

Alles, was Claude in einem Gespräch „weiß", ist im Kontextfenster. Wenn das Gespräch endet — ist alles weg.

200K
Token Kontextfenster
bei Claude 3.5 Sonnet
~150K
Wörter — entspricht
ca. 3 langen Romanen
0
Erinnerung nach
Ende des Chats

Häufiger Fehler: Claude in einem neuen Chat fragen, was es in einem alten gesagt hat. Es hat keine Ahnung.

KONTEXTFENSTER System Prompt Du: „Erkläre mir..." Claude: „Das Konzept..." Du: „Und was bedeutet..." Claude: „Das bezieht sich auf..." ← alles auf einmal sichtbar → ⚡ Chat endet → alles weg
🍽️ Wie wenn jedes Mal ein neuer Kellner kommt — der hat keinen Plan, was du vorhin bestellt hast.

Kritisches Konzept

Halluzinationen — warum KI lügt, ohne zu lügen

KI-Modelle „lügen" nicht absichtlich. Sie tun etwas Seltsameres: Sie generieren plausiblen Text — auch wenn dieser falsch ist.

Wie es entsteht

Das Modell optimiert auf: „Was würde hier wahrscheinlich stehen?" — nicht auf: „Was ist wahr?" Wenn es keine sichere Antwort kennt, erfindet es eine plausible.

Besonders gefährlich: Zitate, DOIs, Gerichtsfälle, Zahlen — alles klingt richtig und ist manchmal komplett erfunden.

GPT-4o sagt: Lalaland enthält zwei a's — es sind tatsächlich drei
⚠️ Selbst getestet:
„Wie viele a's sind in Lalaland?"
→ GPT-4o: „Zwei"

Richtige Antwort: drei.
(La·la·land)
🏗️

Teil 2

Prompt-Architektur

Wie man Anweisungen so schreibt, dass KI konsistent, vorhersagbar und nützlich antwortet — statt jedes Mal überrascht zu werden.

Grundlagen

Was ein Prompt wirklich ist

Ein Prompt ist nicht „eine Frage". Er ist die vollständige Konfiguration eines Gesprächs.

Rolle

Wer soll Claude sein? Was ist sein Auftrag? Sein Ton?

Kontext

Was muss Claude über dich, dein Ziel, deinen Hintergrund wissen?

Aufgabe

Was soll konkret geliefert werden? In welchem Format?

Schlechter Prompt

„Schreib mir eine E-Mail an meinen Chef."

Guter Prompt

„Du bist ein erfahrener Kommunikationsberater. Ich möchte meinem Chef erklären, dass das Projekt 2 Wochen später fertig wird als geplant. Ton: professionell, direkt, keine Ausflüchte. Max. 150 Wörter."

Prompt-Architektur

Die 5 Bausteine eines starken Prompts

Je mehr Claude weiß, desto besser die Antwort. Ein zu kurzer Prompt ist fast immer das Problem — nicht das Modell.

Praxisbeispiel

Einen starken Prompt bauen — live

Version 1 — naiv

Erkläre mir Neuronale Netze.

Problem: Für wen? Wie tief? Welches Vorwissen?

Version 2 — mit Rolle + Zielgruppe

Du erklärst komplexe KI-Themen für Schüler der 10. Klasse. Erkläre Neuronale Netze so, dass jemand ohne Mathe-Vorkenntnisse es versteht.

Besser. Aber: Wie lang? In welchem Format?

Version 3 — vollständig

Rolle: Du bist Lehrer für Informatik an einer Gesamtschule. Aufgabe: Erkläre Neuronale Netze für Schüler der 10. Klasse ohne Vorkenntnisse. Format: - 3 kurze Abschnitte - Je ein konkretes Alltagsbeispiel - Abschluss: 1 Satz was das mit KI zu tun hat - Kein Fachjargon, keine Formeln

Das liefert konsistent gute Ergebnisse — egal wie oft du es ausführst.

Fortgeschritten

System Prompts — Claudes Grundkonfiguration

Ein System Prompt ist eine Anweisung, die vor dem eigentlichen Gespräch gesetzt wird. Claude verhält sich danach in der gesamten Sitzung entsprechend.

Wo du sie einstellst

  • In claude.ai: „Edit System Prompt" (Pro-Funktion)
  • In Claude Projects: persistente Konfiguration für alle Chats im Projekt
  • In der API: das system-Feld

Beispiel System Prompt

Du bist mein persönlicher Schreibassistent. Mein Stil: direkt, konkret, keine Füllwörter. Meine Zielgruppe: Lehrkräfte ohne KI-Vorkenntnisse. Wenn ich dir Text gebe: - Kürze um 20-30% - Markiere Füllwörter in [eckigen Klammern] - Frage nicht ob du Änderungen vornehmen sollst — tu es.

Mit einem guten System Prompt musst du in jedem Chat deutlich weniger erklären — Claude kennt bereits deinen Kontext und Stil.

Fehler vermeiden

Die häufigsten Prompt-Fehler

Fehler Warum er passiert Bessere Alternative
„Schreib etwas über X" Keine Länge, kein Format, kein Ton Format + Länge + Zielgruppe angeben
„Mach das besser" Kein Kriterium für „besser" „Kürzer, direkter, ohne Fachjargon"
Kein Feedback auf Antwort Man gibt auf statt zu iterieren „Das war zu lang. Probier es in 3 Sätzen."
Prompt in neuem Chat wiederholen Kontext aus altem Chat angenommen System Prompt oder Projektkontext nutzen
Alles in einen Prompt packen Hofft auf magische Vollständigkeit Aufgaben aufteilen, einzeln lösen

Denkweise

Iteration ist kein Fehler — sie ist die Methode

Kein Prompt ist beim ersten Mal perfekt. Das ist kein Problem. KI-Nutzung ist ein Dialog, kein Befehl.

✍️ Prompt schreiben 👁 Antwort lesen 🔧 Verfeinern oder im Chat korrigieren Loop 💾 guten Prompt speichern!
💬 Meine Faustregel:

Wenn die Antwort zu ~70% stimmt — im Chat weiterarbeiten, nicht alles neu schreiben.

„Das ist gut, aber mach den zweiten Absatz konkreter."

Fortgeschrittene Technik

Chain of Thought — lass Claude laut denken

Bei komplexen Aufgaben hilft es, Claude explizit aufzufordern, Schritt für Schritt zu denken, bevor es eine Antwort gibt.

Ohne Chain of Thought

„Ist das ein gutes Argument?"

Claude gibt direkt eine Ja/Nein-Antwort. Oft oberflächlich.

Mit Chain of Thought

„Analysiere dieses Argument Schritt für Schritt: Welche Prämissen werden angenommen? Sind sie haltbar? Welche Gegenargumente gibt es? Dann gib ein Gesamturteil."

Studien zeigen: Modelle die Schritt für Schritt denken, machen deutlich weniger Fehler bei logischen Aufgaben. Das gilt auch für Claude.

Wei et al. (2022), „Chain-of-Thought Prompting Elicits Reasoning in Large Language Models"

🔄

Teil 3

Von Prompts zu Workflows

Der Unterschied zwischen jemand der KI gelegentlich nutzt — und jemand bei dem sie dauerhaft etwas verändert.

Konzept

Was ein KI-Workflow ist — und warum er besser ist

Einzelgespräch

  • Jeden Tag neu erklären wer du bist
  • Kontext jedes Mal von vorne aufbauen
  • Ergebnisse variieren stark
  • Kein Lerneffekt über Zeit

Persistenter Workflow

  • System Prompt speichert deinen Kontext dauerhaft
  • Aufgaben werden immer gleich formatiert
  • Ergebnisse sind vorhersagbar
  • Wiederholbare Qualität ohne Aufwand

Ein Workflow ist ein System, kein Gespräch. Es funktioniert auch dann noch gut, wenn du in 3 Monaten wieder zurückkommst.

Tool: Claude Projects

Claude Projects — persistente Kontexte

Claude Projects (verfügbar mit Claude Pro) erlauben es, einen dauerhaften Kontext für alle Chats in einem Projekt zu setzen.

Was du reinpacken kannst

  • Deinen System Prompt (Rolle, Tonalität, Stil)
  • Dokumente als Kontext (Lehrplan, Unterrichtsmaterialien, Texte)
  • Explizite Arbeitsregeln
  • Eigene Prompt-Templates als Referenz

Praxisbeispiel: Unterrichtsvorbereitung

Projekt: Unterrichtsvorbereitung Klasse 9b Kontext: [Lehrplan hochgeladen] System: Du hilfst mir Unterrichtseinheiten für 9b zu planen. Klasse: 28 Schüler, heterogen, 3 mit DaZ. Zeitrahmen: 45 Min. Format: Immer: Lernziel → Einstieg → Hauptphase → Sicherung

Praxis

Eine persönliche Prompt-Bibliothek aufbauen

Gute Prompts sind wiederverwendbar. Wer sie nicht speichert, erfindet sie immer wieder neu.

Schreib-Prompts

  • E-Mail kürzen
  • Argument stärken
  • Für Zielgruppe umschreiben
  • Zusammenfassung erstellen

Analyse-Prompts

  • Text auf Argumente prüfen
  • Stärken/Schwächen auflisten
  • Gegenargumente generieren
  • Quellen-Bewertung

Unterrichts-Prompts

  • Unterrichtsplan erstellen
  • Differenzierung für 3 Niveaus
  • Aufgaben für verschiedene Lerntypen
  • Feedback auf Schülertext

Speichere Prompts in einer einfachen Textdatei, Notion, oder Obsidian. Wichtig: Notiere auch warum ein Prompt gut funktioniert hat.

Anwendung

5 Workflows mit dem größten Nutzen

Ehrlichkeit

Was Workflows nicht lösen

Bleibt dein Problem

  • Ob das Ziel das richtige ist
  • Ob die Fakten stimmen
  • Ob der Stil wirklich zu dir passt
  • Ob die ethischen Implikationen bedacht sind
  • Die finale Entscheidung

Was Workflows abnehmen

  • Ersten Entwurf schreiben
  • Struktur vorschlagen
  • Alternativen generieren
  • Formatierung übernehmen
  • Wiederholende Aufgaben skalieren

KI ist ein Werkzeug das dir Zeit gibt, besser zu denken — nicht eines das das Denken übernimmt.

🔍

Teil 4

Qualität bewerten und iterieren

Wie du erkennst ob eine KI-Antwort wirklich gut ist — und was du tust wenn sie es nicht ist.

Qualitätskriterien

Wann ist eine KI-Antwort wirklich gut?

„Klingt gut" ist kein Qualitätskriterium. Hier sind echte Kriterien:

Faktisch richtig?

Überprüfbar. Keine erfundenen Zahlen oder Quellen. Bei Unsicherheit: gibt Claude das zu?

Aufgabe erfüllt?

Hat Claude wirklich das geliefert was gefragt war — oder etwas Ähnliches, das leichter zu generieren war?

Für Zielgruppe geeignet?

Passt Tonalität, Komplexität und Umfang zu dem Menschen der es lesen wird?

Größte Falle: Flüssiger Text klingt überzeugend — auch wenn er falsch ist. Lese KI-Antworten kritisch, nicht bewundernd.

Praxis

Wie man Claude im Chat korrigiert

Claude verbessert sich innerhalb eines Gesprächs durch konkretes Feedback.

Vages Feedback (hilft nicht)

  • „Das war nicht gut"
  • „Versuch es nochmal"
  • „Besser bitte"
  • „Ich mag das nicht"

Konkretes Feedback (hilft)

  • „Zu lang — auf 100 Wörter kürzen"
  • „Formulierung in Zeile 3 ist zu formell"
  • „Du hast Punkt 2 vergessen"
  • „Überschrift ist zu allgemein — mach sie spezifischer"

Stelle dir vor, du gibst einem menschlichen Mitarbeiter Feedback. Was würde helfen? Das gleiche gilt für Claude.

Umgang mit Grenzen

Wenn Claude eine Anfrage ablehnt

Claude lehnt manchmal Anfragen ab — auch solche, die harmlos sind. Das passiert aus drei Gründen:

Echter Verstoß

Die Anfrage verletzt echte Sicherheitsprinzipien. Nicht diskutieren — Anthropic hat das so entschieden.

Missverständnis

Claude hat den Kontext falsch interpretiert. Lösung: mehr Kontext geben, Absicht erklären.

Übervorsicht

Claude ist manchmal zu konservativ bei harmlosen Anfragen. Lösung: Zweck erläutern, Kontext klären.

Wenn Claude ablehnt: Erkläre wer du bist, was dein Ziel ist, und warum das legitim ist. Das löst die meisten Missverständnisse.

Kritische Grenze

Wann man KI nicht vertrauen sollte

Niemals ungeprüft übernehmen

  • Medizinische oder rechtliche Aussagen
  • Statistische Zahlen ohne Quellenangabe
  • Aktuelle Ereignisse (Trainingsdaten veralten)
  • Zitate von realen Personen
  • Literaturangaben und DOIs

Hier ist KI verlässlicher

  • Bekannte Konzepte erklären
  • Argumentationsstruktur und Logik
  • Textüberarbeitung und Stil
  • Ideen generieren und variieren
⚖️ New York, 2023:

Anwalt Steven Schwartz nutzte ChatGPT für einen Schriftsatz. Es zitierte 6 Gerichtsfälle als Belege.

Alle sechs waren erfunden.

Der Richter war not amused. Schwartz bekam eine Geldstrafe.
🎯

Teil 5

KI in konkreten Kontexten

Wie KI-Workflows in Schule, Studium und Beruf konkret aussehen — nicht theoretisch, sondern praxisnah.

Kontext: Schule

KI im Unterricht — für Lehrende

Zeitsparen in der Vorbereitung

  • Ersten Entwurf einer Unterrichtseinheit generieren
  • Differenzierungsmaterial für 3 Niveaus
  • Quizfragen und Aufgaben zu einem Text erstellen
  • Erklärungen für verschiedene Altersgruppen

Wichtige Einschränkungen

  • KI kennt eure Schüler nicht — Kontext fehlt immer
  • Keine personenbezogenen Schülerdaten eingeben
  • Fachdidaktisches Urteil bleibt bei der Lehrkraft
  • Fachinhalte immer prüfen — KI irrt

KI als Assistenz, nicht als Ersatz: Der pädagogische Kern — Beziehung, Beurteilung, Anpassung — bleibt menschlich.

Kontext: Schülerinnen & Schüler

KI als Lernpartner — die entscheidende Unterscheidung

KI sinnvoll nutzen

  • „Erkläre mir X anders als im Buch"
  • „Prüfe ob mein Argument logisch ist"
  • „Gib mir Feedback auf meinen Text"
  • „Welche Fragen sollte ich noch stellen?"
  • „Zeig mir ein Beispiel für Konzept Y"

KI nutzen statt denken

  • Aufsätze direkt abgeben lassen
  • Hausaufgaben generieren statt lösen
  • Antworten kopieren ohne Verständnis
  • Sich auf Fakten verlassen ohne zu prüfen
  • Den eigenen Denkprozess überspringen
🏫 Lehrerin, München 2024:

„Die Schüler die KI als Sparringspartner nutzen — die werden besser. Die die es zum Abschreiben nutzen — bleiben stehen."

Kontext: Studium & Wissenschaft

KI im akademischen Kontext

Erlaubt und sinnvoll

  • Literatur verstehen und zusammenfassen
  • Eigene Argumente testen
  • Schreibblockaden überwinden
  • Code für Auswertungen schreiben

Je nach Kontext

  • Formulierungshilfe (uni-spezifisch prüfen)
  • Strukturvorschläge
  • Thesengenerierung als Ausgangspunkt

Niemals

  • Arbeiten als eigene ausgeben
  • Quellen nicht prüfen
  • KI-generierte Argumente als eigene Analyse

Prüfe immer die Regelung deiner Einrichtung. Viele Hochschulen aktualisieren ihre Richtlinien gerade.

Kontext: Beruf

KI im Berufsalltag — wo sie wirklich Zeit spart

Kommunikation

  • E-Mails kürzen und schärfen
  • Ton für verschiedene Empfänger anpassen
  • Schwierige Gespräche vorbereiten
  • Meeting-Protokolle strukturieren

Analyse

  • Große Textmengen zusammenfassen
  • Argumentationsstrukturen extrahieren
  • Daten beschreiben und interpretieren

Datenschutz: Was niemals rein darf

Keine echten Namen, Kundendaten, Unternehmensgeheimnisse, Personalnummern, oder vertrauliche Vertragsdaten in öffentliche KI-Modelle eingeben.

Viele Unternehmen setzen eigene Claude-Instanzen auf (via API) mit eigenen Datenschutzvereinbarungen. Das ist der sichere Weg für sensible Daten.

👥

Teil 6

KI in Gruppen und Teams einführen

Warum das größte Hindernis nicht Technologie ist — und wie man es trotzdem schafft.

Gruppenpsychologie

Warum KI-Einführungen in Gruppen scheitern

Das häufigste Muster: Ein Workshop, begeisterte Reaktion, dann: nichts ändert sich.

Warum das passiert

  • Keine konkreten Aufgaben für die erste Woche
  • Kein geteiltes Verständnis was „gut" aussieht
  • Angst vor Blamage beim Ausprobieren
  • Kein Team-Champion der nachhält
  • Zu abstrakt — kein Bezug zur echten Arbeit

Was stattdessen funktioniert

  • Konkrete Aufgabe sofort im Workshop ausprobieren
  • Jeder bringt eine eigene Aufgabe mit
  • Erste Woche: ein bestimmter Anwendungsfall
  • Team-Champion bestimmen
  • Erfahrungen teilen — auch Misserfolge

Struktur

Der Team-Champion — warum eine Person zählt

Gruppen brauchen eine Person, die nicht nur KI nutzt, sondern das Wissen weitergibt.

Was ein Team-Champion tut

  • Neue Prompts und Workflows ausprobieren
  • Andere auf dem Laufenden halten
  • Wenn etwas nicht klappt: nachfragen und weitergeben
  • Eigene Prompt-Bibliothek teilen
  • Neue Tools einschätzen bevor das Team sie nutzt

Was einen guten Champion ausmacht

  • Neugier und Bereitschaft zu experimentieren
  • Geduld für Fragen der Kolleginnen
  • Kein Perfektionismus — Ausprobieren ist das Ziel
  • Kommunikationsstärke: Dinge einfach erklären

Das muss kein Technik-Experte sein. Oft sind die besten Champions Menschen mit pädagogischem Instinkt.

Team-Struktur

Gemeinsame Regeln für KI-Nutzung im Team

Ohne Regeln entstehen Inseln: Jeder macht es anders, niemand profitiert voneinander.

Drei sinnvolle Regeln

  • Transparenz: Wenn KI genutzt wurde, ist das kein Geheimnis — sondern ein Ausgangspunkt für Gespräch
  • Teilen: Prompts, die gut funktionieren, kommen in die geteilte Bibliothek
  • Verantwortung: Was KI generiert, hat mein Name drunter — ich bin verantwortlich

Was Teams vereinbaren sollten

  • Welche Modelle werden genutzt (und warum)?
  • Was darf nicht in externe KI-Modelle?
  • Wie kennzeichnen wir KI-gestützte Texte intern?
  • Wer hält die Prompt-Bibliothek aktuell?

Zusammenfassung

Das Kernprinzip — in einem Satz

KI macht dich nicht besser, indem sie für dich denkt. Sie macht dich besser, indem sie dir Zeit gibt, tiefer zu denken.

Verstehen

Was Modelle tun — und was sie nicht tun

Gestalten

Prompts und Workflows, die wirklich funktionieren

Urteilen

KI-Outputs kritisch bewerten, nicht unkritisch übernehmen

Modul 3 abgeschlossen

Du hast jetzt das Werkzeug.
Der Rest ist Praxis.

Prompts ausprobieren. Workflows bauen. Resultate kritisch lesen. Wiederholen.

← Kursübersicht · Modul 4: KI und Ethik →