Ein Large Language Model (LLM) ist ein künstliches Intelligenz-System, das trainiert wurde, menschliche Sprache zu verstehen und zu generieren. Die drei Wörter bedeuten:
Einfach gesagt: Ein LLM ist eine "Wahrscheinlichkeitsmaschine" – es berechnet, welches Wort oder welcher Satz als Nächstes folgen sollte, basierend auf Milliarden von Trainingsdaten und komplexer Mathematik.
Beispiele im Alltag:
Während unser Gehirn durch Erfahrung, Gefühle und Erinnerungen lernt, lernt ein LLM durch riesige Mengen an Textmaterial:
Das Modell "liest" diese Texte nicht zur Wissensspeicherung, sondern zur Mustererkennung. Es merkt sich nicht, was konkret in einem Text stand, sondern wie Sprache aufgebaut ist.
LLMs können nicht direkt mit Text arbeiten. Sie brauchen Zahlen. Im ersten Schritt wird jedes Wort oder jeder Wortteil in Tokens zerlegt – in numerische Codes, die das Modell verarbeiten kann.
Beispiel:
Satz: "Die Sonne geht auf"
Tokens: [123, 456, 789, 101]
Jedes Token wird in einen multidimensionalen Raum abgebildet. "Sonne" und "Mond" sitzen näher beieinander als "Sonne" und "Schuhe", weil ihre Bedeutung ähnlich ist. Diese Embeddings ermöglichen es dem Modell, Wörter zu verstehen.
Der Transformer ist die revolutionäre Architektur (2017 erfunden) hinter modernen LLMs. Sein Geheimnis sind Attention Mechanisms – diese zeigen dem Modell, welche Wörter wichtig sind.
Wenn du schreibst: "John spielte den Ball. Er war schnell." – Das Modell erkennt durch Attention-Mechanismen, dass "Er" sich auf "John" bezieht, nicht auf "Ball".
Der LLM wählt das statistisch wahrscheinlichste nächste Wort. Dies geschieht Wort für Wort, Satz für Satz:
Das Ergebnis ist deine AI-Antwort.
Das ist die wichtigste Erkenntnis:
Ein LLM versteht nicht – es berechnet. Das ist ein fundamentaler Unterschied.
Mensch vs. LLM – Ein Beispiel:
Aufgabe: Ergänze: "Die Sonne geht im ___ auf."
Ein Mensch denkt:
Ein LLM rechnet:
Das Ergebnis ist gleich – der Weg ist fundamental anders.
Das ist auch, warum LLMs manchmal "halluzinieren" – erfundene Fakten mit Selbstbewusstsein präsentieren. Sie wissen nicht, was wahr ist. Sie wissen nur, was statistisch passt.
LLMs bestehen aus Parametern – Millionen oder Milliarden von numerischen Gewichten, die das Modell während des Trainings optimiert.
| Modellgrösse | Parameter | Fähigkeiten | Herausforderungen |
| Klein | 1–10 Milliarden | Einfache Textklassifikation, mobil | Niedrige Qualität, begrenzte Nuancen |
| Mittel | 20–70 Milliarden | Gute Textgenerierung, Code | Moderate Kosten, gute Balance |
| Gross | 100–500+ Milliarden | Komplexes Reasoning, Kreativität | Hohe Kosten, lange Antwortzeit |
Grössere Parameter = Komplexere Muster, bessere Ergebnisse – aber höhere Kosten und längere Verarbeitung.
LLMs sind exzellent bei:
LLMs sind unzuverlässig bei:
LLM-Halluzinationen sind möglicherweise die grösste Herausforderung für den Enterprise-Einsatz.
Definition: Das Modell erzeugt Ausgaben, die faktisch korrekt klingen, aber völlig erfunden sind.
Praxis-Beispiel:
Ein Finanzteam nutzt ein LLM zur Erstellung von Quartalsergebnissen. Das Modell "halluziniert" mehrere Finanzkennzahlen. Die falschen Zahlen werden versehentlich in den offiziellen Bericht aufgenommen. Rechtskonsequenzen folgen.
| Art | Beschreibung | Beispiel |
| Faktische Halluzination | Erfundene, falsche Fakten | "Wikipedia wurde 1995 gegründet" (falsch: 2001) |
| Semantische Halluzination | Logisch widersprüchlicher Text | "Das Produkt ist kostenlos und kostet CHF 99.-" |
| Attribution Halluzination | Falsche Quellenangaben | "Zitat von Einstein" (nie gesagt) |
Mehr zu diesem Thema in unserem Guide zu RAG-Systemen und Company GPT →
| Typ | Beispiele | Besonderheiten | Best For |
| Proprietary (Geschlossen) |
GPT-4, Claude, Gemini | Beste Leistung, Cloud-basiert, Lizenzgebühren | Enterprise, hohe Anforderungen |
| Open Source (Offen) |
LLaMA, Mistral, Falcon | Lokal hosting-bar, volle Kontrolle, DSGVO-konform | DACH-Unternehmen, Datenschutz-kritisch |
| Spezialisiert | LawGPT, MedGPT | Domänenwissen, optimiert für ein Feld | Jura, Medizin, Finanzen |
| On-Premise/ Self-Hosted |
Beliebige Modelle, eigengehostet | Maximale Sicherheit, 100% Datenkontrolle | Behörden, kritische Infrastruktur |
DSGVO-Tipp: Für Unternehmen in der Schweiz und der EU ist der Datenspeicherungsort kritisch. Viele proprietäre US-Modelle versenden Daten über den Atlantik – problematisch für sensitive Daten. Open-Source-Modelle auf europäischen Servern sind sicherer.
| Aspekt | Klassische KI / ML | LLM / Generative AI |
| Eingabe | Strukturierte Daten, Zahlen | Text, Sprache, Kontext |
| Ausgabe | Klassifikation, Vorhersage | Generative Inhalte, Konversation |
| Training | Supervised Learning, Klassifizierung | Self-Supervised Learning, Unsupervised |
| Grösse | Millionen Parameter | Milliarden Parameter |
| Kosten | Mittel | Hoch (beim Inference) |
| Beispiele | Spam-Filter, Betrugserkennung, Prognosen | ChatGPT, Claude, Copilot |
So wie Unternehmen für Google SEO optimieren, müssen sie jetzt auch für Large Language Model Optimization (LLMO) optimieren. Das bedeutet:
Ihre Inhalte müssen nicht nur für Suchmaschinen, sondern auch für ChatGPT, Claude und Perplexity sichtbar sein.
Large Language Models sind mächtige Werkzeuge – aber sie sind nicht intelligent im menschlichen Sinne. Sie sind:
Für Unternehmen bedeutet das:
Möchtest du verstehen, wie dein Unternehmen von LLMs profitieren kann? NORTHBOT berät dich bei der Auswahl, Integration und Optimierung von KI-Lösungen – mit Fokus auf Sicherheit, Compliance und Business-Impact.
Unsere Lösungen für Unternehmen: