Was ist das Model Context Protocol?
Das Model Context Protocol (MCP) ist ein offener Standard, der definiert, wie KI-Modelle mit externen Datenquellen und Tools kommunizieren. Statt für jeden Service eine eigene Integration zu bauen, bietet MCP eine einheitliche Schnittstelle, über die LLMs auf Dateisysteme, Datenbanken, APIs und beliebige andere Ressourcen zugreifen können.
Vereinfacht gesagt: MCP ist für KI-Modelle das, was USB für Hardware war – eine standardisierte Verbindung, die die Fragmentierung beseitigt.
Die Architektur verstehen
MCP folgt einer Client-Server-Architektur. Der MCP Client ist das KI-Tool (z.B. Claude Code, Cursor, oder eine eigene Anwendung), das Zugriff auf externe Ressourcen braucht. Der MCP Server stellt diese Ressourcen über ein standardisiertes Protokoll bereit.
Ein MCP Server kann drei Arten von Fähigkeiten anbieten:
Resources – Datenquellen, die das Modell lesen kann. Das können Dateien, Datenbankeinträge, API-Antworten oder jede andere Art von strukturierten Daten sein.
Tools – Funktionen, die das Modell aufrufen kann, um Aktionen auszuführen. Zum Beispiel: eine Datenbank abfragen, eine E-Mail senden oder einen Deployment-Prozess starten.
Prompts – Vordefinierte Prompt-Templates, die das Modell nutzen kann, um häufige Aufgaben standardisiert auszuführen.
Wann ein MCP Server sinnvoll ist
Nicht jede Integration braucht einen MCP Server. Hier sind die Szenarien, in denen sich der Aufwand lohnt:
Wiederkehrende KI-Workflows: Wenn Ihr Team regelmäßig die gleichen Datenquellen mit KI-Tools verbindet – zum Beispiel Jira-Tickets lesen, Datenbankzustände prüfen oder Logs analysieren – dann lohnt sich ein dedizierter MCP Server.
Multi-Tool-Umgebungen: Wenn Sie verschiedene KI-Clients nutzen (Claude Code im Terminal, Cursor in der IDE, eigene Agents), bietet ein MCP Server eine einheitliche Schnittstelle für alle.
Proprietäre Datenquellen: Wenn Ihre Organisation über interne Systeme verfügt, die nicht über Standard-APIs erreichbar sind, macht ein MCP Server diese Daten für KI-Tools zugänglich.
Einen MCP Server bauen: Schritt für Schritt
Ein minimaler MCP Server in TypeScript sieht überraschend einfach aus. Das offizielle SDK abstrahiert das Protokoll und lässt Sie sich auf die Geschäftslogik konzentrieren.
Der grundlegende Ablauf:
- Server initialisieren – Name, Version und Capabilities definieren
- Tools registrieren – Jedes Tool bekommt einen Namen, eine Beschreibung und ein JSON-Schema für die Parameter
- Handler implementieren – Die eigentliche Logik, die ausgeführt wird, wenn das KI-Modell ein Tool aufruft
- Transport konfigurieren – Stdio für lokale Nutzung, HTTP/SSE für remote Server
Praxisbeispiel: Datenbank-MCP-Server
Ein konkretes Beispiel aus unserer Arbeit: Wir haben für ein Kundenprojekt einen MCP Server gebaut, der lesenden Zugriff auf eine PostgreSQL-Datenbank bietet. Das KI-Modell kann damit Tabellenschemas abfragen, Daten filtern und aggregierte Statistiken abrufen – ohne direkten Datenbankzugriff.
Die wichtigsten Design-Entscheidungen dabei:
Read-Only by Default – Der Server erlaubt ausschließlich SELECT-Queries. Keine INSERTs, keine UPDATEs, keine DELETEs. Das eliminiert eine ganze Klasse von Risiken.
Query-Limits – Jede Abfrage hat ein LIMIT von 100 Zeilen und ein Timeout von 5 Sekunden. Das verhindert, dass ein schlecht formulierter Query die Datenbank belastet.
Schema-Awareness – Der Server stellt das Datenbankschema als Resource bereit, sodass das KI-Modell die Tabellenstruktur kennt, bevor es Queries formuliert.
Häufige Fehler vermeiden
Aus unserer Erfahrung mit MCP-Implementierungen gibt es wiederkehrende Stolperfallen:
Zu breite Tool-Definitionen: Ein Tool namens „database" mit einem freien SQL-Parameter ist gefährlich. Besser: Spezifische Tools wie „get_user_by_id", „list_recent_orders", „get_monthly_revenue" mit klar definierten Parametern.
Fehlende Validierung: Jeder Input vom KI-Modell muss validiert werden. LLMs können unerwartete Werte generieren. Zod-Schemas für jeden Parameter sind Pflicht.
Keine Rate-Limits: Ohne Rate-Limiting kann ein KI-Agent in einer Schleife Hunderte von Anfragen pro Minute senden. Implementieren Sie Throttling auf Server-Ebene.
Zu viel Kontext auf einmal: Wenn ein Tool Megabytes an Daten zurückgibt, überfordert das das Kontextfenster des Modells. Paginierung und Zusammenfassungen sind essentiell.
Security-Überlegungen
MCP Server erweitern die Angriffsfläche Ihres Systems. Ein paar nicht verhandelbare Sicherheitsmaßnahmen:
- Principle of Least Privilege: Der Server sollte nur die minimal nötigen Berechtigungen haben
- Input Sanitization: Alles, was vom KI-Modell kommt, ist untrusted Input
- Audit Logging: Jeder Tool-Aufruf sollte geloggt werden – wer, was, wann
- Secrets Management: API-Keys und Credentials gehören in Umgebungsvariablen, niemals in den Server-Code
Wann Sie keinen MCP Server brauchen
MCP ist nicht immer die richtige Antwort. Verzichten Sie darauf, wenn:
- Die Integration nur von einem einzelnen Tool genutzt wird – dann ist eine direkte API-Integration einfacher
- Die Datenquelle bereits eine gut dokumentierte REST-API hat, die das KI-Tool direkt ansprechen kann
- Der Aufwand für Entwicklung und Wartung den Zeitgewinn durch die KI-Integration übersteigt
- Sicherheitsanforderungen eine direkte Verbindung zwischen KI-Modell und Datenquelle ausschließen
Fazit
MCP Server sind ein mächtiges Werkzeug, um KI-Modelle mit den Daten und Systemen zu verbinden, die sie für echte Arbeit brauchen. Der Standard ist ausgereift genug für Produktionseinsatz, aber jung genug, dass Best Practices sich noch entwickeln.
Unser Rat: Starten Sie mit einem eng begrenzten, read-only MCP Server für einen konkreten Anwendungsfall. Sammeln Sie Erfahrung. Erweitern Sie schrittweise. Und behandeln Sie jeden MCP Server wie eine öffentliche API – mit entsprechender Sorgfalt bei Security, Validierung und Monitoring.