Zum Inhalt

Embedding

Ein Embedding ist eine dichte Vektorrepräsentation von diskreten Objekten (Wörter, Tokens, IDs). Es wandelt kategoriale Daten in Zahlen um, mit denen neuronale Netze arbeiten können.


Von Token zu Vektor

"Katze" → Token ID 4523 → [0.23, -0.45, 0.12, ..., 0.67]
                          └──────── d-dimensional ────────┘

Die Embedding-Tabelle ist eine große Matrix: (vocab_size, embedding_dim)


Semantische Ähnlichkeit

Gute Embeddings platzieren ähnliche Konzepte nah beieinander:

cosine_similarity("König", "Königin") → 0.85
cosine_similarity("König", "Apfel")   → 0.12

Berühmtes Beispiel: $$ \text{König} - \text{Mann} + \text{Frau} \approx \text{Königin} $$


In Transformern

  • Input Embedding: Token → Vektor (trainiert)
  • Position Embedding: Position → Vektor
  • Beide werden addiert vor dem ersten Attention-Layer

Siehe auch

  • Tokenisierung – Wie Text zu Token-IDs wird
  • Transformer – Wo Embeddings verwendet werden
  • Attention – Was mit Embeddings passiert