Engineering
15 Min.

MCP Server sinnvoll einsetzen: Das Model Context Protocol in der Praxis

MCP ist der neue Standard, mit dem KI-Modelle auf externe Tools und Datenquellen zugreifen. Wir zeigen, wie man MCP Server baut, wann sie sinnvoll sind – und wann man sie besser lässt.

Was ist das Model Context Protocol?

Das Model Context Protocol (MCP) ist ein offener Standard, der definiert, wie KI-Modelle mit externen Datenquellen und Tools kommunizieren. Statt für jeden Service eine eigene Integration zu bauen, bietet MCP eine einheitliche Schnittstelle, über die LLMs auf Dateisysteme, Datenbanken, APIs und beliebige andere Ressourcen zugreifen können.

Vereinfacht gesagt: MCP ist für KI-Modelle das, was USB für Hardware war – eine standardisierte Verbindung, die die Fragmentierung beseitigt.

Die Architektur verstehen

MCP folgt einer Client-Server-Architektur. Der MCP Client ist das KI-Tool (z.B. Claude Code, Cursor, oder eine eigene Anwendung), das Zugriff auf externe Ressourcen braucht. Der MCP Server stellt diese Ressourcen über ein standardisiertes Protokoll bereit.

Ein MCP Server kann drei Arten von Fähigkeiten anbieten:

Resources – Datenquellen, die das Modell lesen kann. Das können Dateien, Datenbankeinträge, API-Antworten oder jede andere Art von strukturierten Daten sein.

Tools – Funktionen, die das Modell aufrufen kann, um Aktionen auszuführen. Zum Beispiel: eine Datenbank abfragen, eine E-Mail senden oder einen Deployment-Prozess starten.

Prompts – Vordefinierte Prompt-Templates, die das Modell nutzen kann, um häufige Aufgaben standardisiert auszuführen.

Wann ein MCP Server sinnvoll ist

Nicht jede Integration braucht einen MCP Server. Hier sind die Szenarien, in denen sich der Aufwand lohnt:

Wiederkehrende KI-Workflows: Wenn Ihr Team regelmäßig die gleichen Datenquellen mit KI-Tools verbindet – zum Beispiel Jira-Tickets lesen, Datenbankzustände prüfen oder Logs analysieren – dann lohnt sich ein dedizierter MCP Server.

Multi-Tool-Umgebungen: Wenn Sie verschiedene KI-Clients nutzen (Claude Code im Terminal, Cursor in der IDE, eigene Agents), bietet ein MCP Server eine einheitliche Schnittstelle für alle.

Proprietäre Datenquellen: Wenn Ihre Organisation über interne Systeme verfügt, die nicht über Standard-APIs erreichbar sind, macht ein MCP Server diese Daten für KI-Tools zugänglich.

Einen MCP Server bauen: Schritt für Schritt

Ein minimaler MCP Server in TypeScript sieht überraschend einfach aus. Das offizielle SDK abstrahiert das Protokoll und lässt Sie sich auf die Geschäftslogik konzentrieren.

Der grundlegende Ablauf:

  1. Server initialisieren – Name, Version und Capabilities definieren
  2. Tools registrieren – Jedes Tool bekommt einen Namen, eine Beschreibung und ein JSON-Schema für die Parameter
  3. Handler implementieren – Die eigentliche Logik, die ausgeführt wird, wenn das KI-Modell ein Tool aufruft
  4. Transport konfigurieren – Stdio für lokale Nutzung, HTTP/SSE für remote Server

Praxisbeispiel: Datenbank-MCP-Server

Ein konkretes Beispiel aus unserer Arbeit: Wir haben für ein Kundenprojekt einen MCP Server gebaut, der lesenden Zugriff auf eine PostgreSQL-Datenbank bietet. Das KI-Modell kann damit Tabellenschemas abfragen, Daten filtern und aggregierte Statistiken abrufen – ohne direkten Datenbankzugriff.

Die wichtigsten Design-Entscheidungen dabei:

Read-Only by Default – Der Server erlaubt ausschließlich SELECT-Queries. Keine INSERTs, keine UPDATEs, keine DELETEs. Das eliminiert eine ganze Klasse von Risiken.

Query-Limits – Jede Abfrage hat ein LIMIT von 100 Zeilen und ein Timeout von 5 Sekunden. Das verhindert, dass ein schlecht formulierter Query die Datenbank belastet.

Schema-Awareness – Der Server stellt das Datenbankschema als Resource bereit, sodass das KI-Modell die Tabellenstruktur kennt, bevor es Queries formuliert.

Häufige Fehler vermeiden

Aus unserer Erfahrung mit MCP-Implementierungen gibt es wiederkehrende Stolperfallen:

Zu breite Tool-Definitionen: Ein Tool namens „database" mit einem freien SQL-Parameter ist gefährlich. Besser: Spezifische Tools wie „get_user_by_id", „list_recent_orders", „get_monthly_revenue" mit klar definierten Parametern.

Fehlende Validierung: Jeder Input vom KI-Modell muss validiert werden. LLMs können unerwartete Werte generieren. Zod-Schemas für jeden Parameter sind Pflicht.

Keine Rate-Limits: Ohne Rate-Limiting kann ein KI-Agent in einer Schleife Hunderte von Anfragen pro Minute senden. Implementieren Sie Throttling auf Server-Ebene.

Zu viel Kontext auf einmal: Wenn ein Tool Megabytes an Daten zurückgibt, überfordert das das Kontextfenster des Modells. Paginierung und Zusammenfassungen sind essentiell.

Security-Überlegungen

MCP Server erweitern die Angriffsfläche Ihres Systems. Ein paar nicht verhandelbare Sicherheitsmaßnahmen:

  • Principle of Least Privilege: Der Server sollte nur die minimal nötigen Berechtigungen haben
  • Input Sanitization: Alles, was vom KI-Modell kommt, ist untrusted Input
  • Audit Logging: Jeder Tool-Aufruf sollte geloggt werden – wer, was, wann
  • Secrets Management: API-Keys und Credentials gehören in Umgebungsvariablen, niemals in den Server-Code

Wann Sie keinen MCP Server brauchen

MCP ist nicht immer die richtige Antwort. Verzichten Sie darauf, wenn:

  • Die Integration nur von einem einzelnen Tool genutzt wird – dann ist eine direkte API-Integration einfacher
  • Die Datenquelle bereits eine gut dokumentierte REST-API hat, die das KI-Tool direkt ansprechen kann
  • Der Aufwand für Entwicklung und Wartung den Zeitgewinn durch die KI-Integration übersteigt
  • Sicherheitsanforderungen eine direkte Verbindung zwischen KI-Modell und Datenquelle ausschließen

Fazit

MCP Server sind ein mächtiges Werkzeug, um KI-Modelle mit den Daten und Systemen zu verbinden, die sie für echte Arbeit brauchen. Der Standard ist ausgereift genug für Produktionseinsatz, aber jung genug, dass Best Practices sich noch entwickeln.

Unser Rat: Starten Sie mit einem eng begrenzten, read-only MCP Server für einen konkreten Anwendungsfall. Sammeln Sie Erfahrung. Erweitern Sie schrittweise. Und behandeln Sie jeden MCP Server wie eine öffentliche API – mit entsprechender Sorgfalt bei Security, Validierung und Monitoring.