Skip to main content
KI & Machine Learning

Überwachtes Lernen

Ein Machine-Learning-Ansatz, bei dem Modelle aus gelabelten Trainingsdaten lernen, um Ausgaben vorherzusagen.

Auch bekannt als: Supervised ML, Gelabeltes Lernen, Prädiktive Modellierung, Induktives Lernen

Definition

Überwachtes Lernen ist ein Machine-Learning-Paradigma, bei dem Algorithmen aus gelabelten Trainingsdaten lernen—Beispiele, die sowohl Eingabe-Features als auch die korrekte Ausgabe (Label) enthalten. Das Modell lernt die Zuordnung zwischen Eingaben und Ausgaben und wendet diese gelernte Beziehung dann an, um Labels für neue, ungesehene Daten vorherzusagen. Es heißt “überwacht”, weil der Trainingsprozess von bekannten korrekten Antworten geleitet wird, wie ein Lehrer, der einen Schüler beaufsichtigt.

Warum es wichtig ist

Überwachtes Lernen ist der gebräuchlichste ML-Ansatz:

  • Klares Trainingssignal — bekannte Antworten leiten das Lernen
  • Messbare Genauigkeit — Vorhersagen vs. Labels ermöglicht Validierung
  • Praktische Anwendungen — Spam-Erkennung, medizinische Diagnose, Kreditbewertung
  • Fundament für LLMs — Next-Token-Vorhersage ist überwachtes Lernen
  • Interpretierbare Ergebnisse — Vorhersagen werden definierten Klassen oder Werten zugeordnet

Die meisten Produktions-ML-Systeme verwenden überwachtes Lernen.

Wie es funktioniert

┌────────────────────────────────────────────────────────────┐
│                   ÜBERWACHTES LERNEN                       │
├────────────────────────────────────────────────────────────┤
│                                                            │
│  TRAININGSPHASE:                                           │
│  ───────────────                                           │
│                                                            │
│  Gelabelte Trainingsdaten:                                 │
│  ┌─────────────────────────────────────────────────┐      │
│  │ Eingabe (Features)            │ Label (Ziel)    │      │
│  ├─────────────────────────────────────────────────┤      │
│  │ [Email: "Gewinne 1000€..."]   │    SPAM        │      │
│  │ [Email: "Meeting um 15 Uhr"]  │    KEIN SPAM   │      │
│  │ [Email: "Klick hier!"]        │    SPAM        │      │
│  │ [Email: "Projekt-Update"]     │    KEIN SPAM   │      │
│  └─────────────────────────────────────────────────┘      │
│                        │                                   │
│                        ▼                                   │
│  ┌─────────────────────────────────────────────────┐      │
│  │              LERNALGORITHMUS                     │      │
│  │                                                  │      │
│  │  1. Vorhersage machen: ŷ = f(x)                 │      │
│  │  2. Mit Label vergleichen: Fehler = ŷ - y      │      │
│  │  3. Modell aktualisieren um Fehler zu reduz.    │      │
│  │  4. Wiederholen bis Fehler minimiert            │      │
│  └─────────────────────────────────────────────────┘      │
│                        │                                   │
│                        ▼                                   │
│                  TRAINIERTES MODELL                        │
│                                                            │
│  VORHERSAGEPHASE:                                          │
│  ────────────────                                          │
│                                                            │
│  Neue Email ──► Trainiertes Modell ──► Vorhersage: SPAM?  │
│                                                            │
│  ZWEI HAUPTTYPEN:                                          │
│  ────────────────                                          │
│                                                            │
│  KLASSIFIKATION:              REGRESSION:                  │
│  Kategorien vorhersagen       Kontinuierliche Werte        │
│                                                            │
│  "Katze" oder "Hund"?        "Hauspreis = 450.000€"       │
│  "Spam" oder "Kein Spam"?    "Temperatur = 23,5°C"        │
│  "Positiv" oder "Negativ"?   "Verkauf = 12.500€"          │
│                                                            │
│       ┌───┐ ┌───┐                    ↗                    │
│       │ A │ │ B │             ──────●────                 │
│       └───┘ └───┘                ↗                        │
│    Diskrete Klassen        Kontinuierliche Linie           │
│                                                            │
│  GÄNGIGE ALGORITHMEN:                                      │
│  ────────────────────                                      │
│  • Logistische Regression (Klassifikation)                │
│  • Entscheidungsbäume     (beide)                         │
│  • Random Forests         (beide)                         │
│  • Neuronale Netze        (beide)                         │
│  • Support Vector Machines(Klassifikation)                │
│  • Lineare Regression     (Regression)                    │
│                                                            │
└────────────────────────────────────────────────────────────┘

Klassifikation vs Regression:

AspektKlassifikationRegression
AusgabeDiskrete KategorienKontinuierliche Werte
BeispielSpam-ErkennungPreisvorhersage
MetrikenAccuracy, F1-ScoreMSE, R-Quadrat
VerlustfunktionKreuzentropieMittlerer quadratischer Fehler

Häufige Fragen

F: Was macht Daten “gelabelt”?

A: Gelabelte Daten haben sowohl Eingaben als auch bekannte korrekte Ausgaben. Für Bildklassifikation: Bilder (Eingabe) + was darauf ist (Label). Für Spam-Erkennung: E-Mails (Eingabe) + Spam/Kein-Spam-Tags (Label). Menschen erstellen typischerweise Labels, was teuer und zeitaufwändig ist.

F: Wie ist LLM-Training überwachtes Lernen?

A: LLM-Pretraining ist selbstüberwacht: Das “Label” für jedes Token ist einfach das nächste Token im Text. Bei “Die Katze saß auf der” lernt das Modell “Matte” vorherzusagen. Kein menschliches Labeling nötig—der Text selbst bietet Überwachung.

F: Was wenn ich keine gelabelten Daten habe?

A: Sie haben mehrere Optionen: (1) Unüberwachtes Lernen verwenden um Muster zu finden, (2) Semi-überwachtes Lernen mit einigen Labels verwenden, (3) Labels selbst oder mit Crowdsourcing generieren, (4) Transfer Learning von vortrainierten Modellen nutzen, (5) Active Learning anwenden um zuerst die informativsten Beispiele zu labeln.

F: Wie viele gelabelte Daten sind genug?

A: Es variiert stark. Einfache Probleme: hunderte Beispiele. Komplexes Deep Learning: tausende bis Millionen. Faustregel: 10× mehr Samples als Features. Mit Transfer Learning/Fine-Tuning kann viel weniger ausreichen.

Verwandte Begriffe


Referenzen

Bishop (2006), “Pattern Recognition and Machine Learning”, Springer. [Grundlegender Text]

Hastie et al. (2009), “The Elements of Statistical Learning”, Springer. [70.000+ Zitationen]

Goodfellow et al. (2016), “Deep Learning”, MIT Press, Kapitel 5. [Grundlagen überwachtes Lernen]

Vapnik (1998), “Statistical Learning Theory”, Wiley. [Grundlegende Theorie]

References

Bishop (2006), “Pattern Recognition and Machine Learning”, Springer. [Foundational text]

Hastie et al. (2009), “The Elements of Statistical Learning”, Springer. [70,000+ citations]

Goodfellow et al. (2016), “Deep Learning”, MIT Press, Chapter 5. [Supervised learning fundamentals]

Vapnik (1998), “Statistical Learning Theory”, Wiley. [Foundational theory]