valantic · AI Enablement · 2026
Zwei verschiedene Hebel. Beide mächtig. Keiner ein Ersatz für den anderen. Dieser Leitfaden trennt die Konzepte sauber, zeigt die echten Voraussetzungen und gibt einen hands-on Einstieg — ohne Buzzword-Bingo.
Kontext
System Prompt Engineering und Agent Skills lösen grundlegend verschiedene Probleme. Das eine formt das Wesen eines Modells — das andere kapselt Arbeitsabläufe. Wer beides verwechselt, verbaut sich Skalierbarkeit.
System Prompt Engineering
Definiert Identität, Rolle, Constraints und Reasoning-Stil eines Modells. Wird einmalig gesetzt und gilt für jede Interaktion. Liegt auf der Operator-Ebene. Kein User sieht es, kein User ändert es.
Agent Skills
Kapselt Domänen-Know-how, Schritt-für-Schritt-Prozesse und Werkzeuge in wiederverwendbaren Dateien. Wird on-demand aktiviert. User können es einschalten. Skaliert Tribal Knowledge org-weit.
| System Prompt Engineering | Agent Skills | |
|---|---|---|
| Abstraktionsebene | Operator / Deployment | User / Workflow |
| Reichweite | Jede Nachricht der Session | Beim match der description |
| Wer erstellt es? | Entwickler, Architect, Power User | AI Lead, Power User |
| Änderbar durch User? | Nein (als fixierter System-Prompt) | Toggle on/off |
| Einstiegshürde & Setup | Minimal (Browser reicht, 0 Installation) | Mittel (.zip Upload, IDE/Terminal oft hilfreich) |
| Code erforderlich? | Nein | Nein — nur SKILL.md |
| Produktiv ohne API? | Ja (Web-UI, Custom Instructions, Projects) | Ja — claude.ai Team |
| Versionierung | Im Code-Repo | .zip Upload / Git |
| Skalierung | Pro Deployment | Org-weit in Minuten |
| Typischer Fehlerfall | Prompt-Injection, Überlänge | Vage description, zu viele aktiv |
Deep Dive I
System Prompts sind der unsichtbare Vertrag zwischen dem Deployer und dem Modell. Was hier steht, gilt always — bevor der erste User-Satz gelesen wird. Falsch gemacht erzeugen sie Schwachstellen. Richtig gemacht schaffen sie reproduzierbare, kontrollierbare KI-Personas.
## Rolle
Du bist [Persona], KI-Assistent für [Unternehmen].
Deine Aufgabe: [Kernaufgabe in einem Satz].
## Scope
Du beantwortest ausschließlich Fragen zu [Thema A], [Thema B].
Du gibst keine Rechts-, Finanz- oder Medizinberatung.
Bei Off-Topic: "Das liegt außerhalb meines Zuständigkeitsbereichs."
## Verhalten
- Antworte auf Deutsch, es sei denn, die Frage ist auf Englisch.
- Strukturiere Antworten mit Überschriften bei > 3 Absätzen.
- Halluziniere keine Produktnamen, Preise oder Ansprechpartner.
- Bei Unsicherheit: explizit kennzeichnen mit "Ich bin nicht sicher, ob...".
## Ausgabeformat
Standard: Markdown. Bei JSON-Anfragen: valides JSON, kein Fließtext.
## Eskalation
Wenn du die Antwort nicht weißt: empfehle [Ansprechpartner / Kanal].
# NICHT hier: Workflow-Anleitungen, Domänen-Doks, User-Prefs
Strukturmuster
Zwei Prinzipien aus der Unternehmensberatung, die sich direkt in Prompt-Design übersetzen lassen. Kein Luxus — sondern der Unterschied zwischen einem Modell, das rät, und einem, das denkt.
Kategorien überschneiden sich nicht. Im System Prompt: Scope-Definitionen die sich nicht beißen. Kein "antworte professionell" und "sei locker und kumpelhaft" — das ist nicht ME.
✗ "Antworte kurz und präzise. Gib detaillierte Hintergründe." ✓ "Standard: maximal 3 Absätze. Auf explizite Nachfrage: ausführlichere Analyse."
Alle relevanten Fälle sind abgedeckt. Im System Prompt: Was tut das Modell, wenn keine Kategorie passt? Fehlt ein Eskalationspfad, halluziniert das Modell eine Lösung.
✗ Scope: SAP ERP, SAP BTP ✓ Scope: SAP ERP, SAP BTP Sonstiges: "Ich bin auf SAP-Themen spezialisiert."
Skill-Descriptions müssen ME sein: kein Skill mit überlappenden Triggern. Sonst feuern zwei Skills gleichzeitig — und das Modell wählt zufällig.
Ein Skill muss CE sein: alle Verzweigungen müssen instruiert werden. "Wenn die Datei fehlt" ist ein Fall — nicht "normalerweise liegt die Datei vor".
Das Skill-Set einer Org sollte MECE über den Workflow sein. Lücken → Modell improvisiert. Überlappungen → inkonsistente Outputs.
Deep Dive II
Ein Skill ist eine Markdown-Datei, die Claude zum Domänenspezialisten macht. Nicht für jede Session neu erklärt — einmal gebaut, org-weit einsetzbar. Aber: falsch designed, werden Skills zu Rauschquellen, nicht Signalverstärkern.
--- YAML Frontmatter (immer geladen, ~50–100 tokens) ---
---
name: mein-skill # kebab-case
description: [Was es tut] + [Wann benutzen] + [Trigger-Phrasen]
---
# Skill: Titel
## Anweisungen
### Schritt 1: Kontext prüfen
Prüfe zuerst ob [Bedingung].
### Schritt 2: Ausführen
Führe [Aktion] durch.
## Beispiele
User sagt: "Erstelle ein Konzept für..."
Aktion: 1. Scope klären 2. Struktur aufbauen 3. Deliverable
## Troubleshooting
Fehler X → Ursache Y → Fix Z
Level 1 — Immer geladen
YAML Frontmatter. ~50–100 Tokens. Triggert den Skill.
Level 2 — Bei Relevanz
SKILL.md Body. Wenn der Skill matched. Enthält Haupt-Instruktionen.
Level 3 — On Demand
Reference Files. Claude liest sie nur, wenn explizit angewiesen. Spart Tokens bei selten genutzten Details.
Entscheidungsrahmen
Kein Werkzeug ist universell. Diese Matrix hilft bei der Entscheidung — und zeigt, wann beide kombiniert werden müssen.
Hohe Operator-Kontrolle, niedrige User-Wiederverwendung.
Custom Deployments, interne Tools, API-Produkte.
Enterprise-Szenario: Operator setzt Rolle & Limits, Skills kapseln Workflows. Der Normalfall in skalierenden Orgs.
Ad-hoc Nutzung, keine Standardisierung nötig. Individuelle, einmalige Tasks.
Niedrige Operator-Kontrolle, hohe User-Wiederverwendung.
Interne Wissensplattform, Beratungsmethodik, CI.
Hands-on Setup
Kein Buzzword-Bingo. Hier sind die konkreten Voraussetzungen für jeden Ansatz — aufgeschlüsselt nach Zugangslevel, Kosten und echten Constraints.
In claude.ai tippen:
"Use the skill-creator skill to help me build a skill for [dein Workflow]"
Claude führt durch alle Steps.
In neuem Chat:
"When would you use the [skill-name] skill?"
Claude quotet die Description zurück. Stimmt die Beschreibung?
Brauchen mindestens 3 Teams diesen Skill? Wenn ja: Org-Upload lohnt sich. Wenn nicht: Personal Skill reicht.
valantic Perspektive
Kein Consultant sollte einen Unternehmens-Chatbot auf Basis eines informell geteilten Slack-Prompts betreiben. System Prompts sind deployment-kritisch: versioniert, reviewed, dokumentiert — wie jede andere Konfigurationsdatei.
Ein Skill kapselt Methodik — er ersetzt nicht das Methodenverständnis. Wer nicht weiß, was MECE bedeutet, wird auch keinen MECE-Skill bauen. Der Hebel multipliziert Expertise. Er schafft sie nicht.
Org-Skills die aus der Hüfte geschossen werden — ohne MECE-Trigger-Logik, ohne Benchmarking, ohne Version Control — erzeugen Vertrauen in zufällige Outputs. Schlechter als kein Skill. Das 10-Stage-Pipeline-Denken ist keine Bürokratie, es ist Qualitätssicherung.
System Prompt definiert Persona und Guardrails auf Operator-Ebene. Skills liefern Workflow-Expertise on-demand. Zusammen ergibt das eine konsistente, spezialisierte KI — die sich trotzdem an neue Domänen anpassen kann, ohne einen Deployment-Zyklus.
Weiterführend