MCP (Model Context Protocol) – Standard für KI-Tool-Integration
Das Model Context Protocol (MCP) ist ein von Anthropic entwickelter offener Standard für die Integration von Tools und Datenquellen in KI-Assistenten. Über MCP können Agenten wie Claude Code auf Dateisysteme, Datenbanken, Browser und APIs zugreifen. Das Client-Server-Protokoll ermöglicht plattformübergreifende Tool-Nutzung und ist zentral für Agentic Coding.
Das Model Context Protocol (MCP) ist ein von Anthropic entwickelter offener Standard, der es KI-Assistenten wie Claude ermöglicht, mit externen Tools, Datenbanken, APIs und anderen Systemen zu interagieren. MCP erweitert KI-Assistenten von reinen Text-Generatoren zu aktiven Agenten, die reale Aktionen ausführen können.
Vor MCP mussten Entwickler für jede KI-Plattform eigene Tool-Integrationen bauen. Mit MCP gibt es einen einheitlichen Standard: Einmal ein MCP-Server für ein Tool entwickeln, und alle MCP-kompatiblen KI-Assistenten können es nutzen.
Wie funktioniert MCP?
Architektur: Client-Server-Modell
MCP basiert auf einer Client-Server-Architektur:
- MCP Client: Der KI-Assistent (z.B. Claude Code, Cursor)
- MCP Server: Ein Programm, das spezifische Tools oder Datenquellen bereitstellt
- Kommunikation: Standardisiertes JSON-basiertes Protokoll
Was kann ein MCP Server bereitstellen?
- Tools: Funktionen, die die KI aufrufen kann (z.B. "Führe Playwright-Test aus")
- Resources: Daten, die die KI lesen kann (z.B. Datenbank-Einträge)
- Prompts: Vordefinierte Prompt-Templates für häufige Aufgaben
MCP in der Praxis: Beispiele
1. Playwright MCP - Browser-Automation
Einer der bekanntesten MCP Server ermöglicht Browser-Automation:
- Was es kann: Webseiten öffnen, klicken, Formulare ausfüllen, Screenshots machen
- Use Case: End-to-End-Tests, Web-Scraping, UI-Debugging
- Beispiel: "Öffne meine Website, klicke auf Login, fülle das Formular aus und mache einen Screenshot"
- Installation:
npx @playwright/mcp@latest
2. Filesystem MCP - Datei-Zugriff
Ermöglicht strukturierten Zugriff auf lokale Dateien:
- Dateien lesen und schreiben
- Verzeichnisse durchsuchen
- Datei-Metadaten abrufen
3. Database MCP - Datenbank-Zugriff
Direkte Abfragen von Datenbanken:
- SQL-Queries ausführen
- Schema inspizieren
- Daten analysieren
- Achtung: Nur für Entwicklungs-DBs, nie Production!
4. Git MCP - Versionskontrolle
Git-Operationen direkt durch die KI:
- Commits erstellen
- Branches wechseln
- Diff anzeigen
- History durchsuchen
5. Custom MCP Server
Entwickler können eigene MCP Server für spezifische Tools bauen:
- Zugriff auf interne APIs
- Integration von Legacy-Systemen
- Firmenspezifische Workflows
MCP Setup: Schritt für Schritt
1. MCP Server installieren
Beispiel: Playwright MCP
npm install -g @playwright/mcp@latest
2. MCP Server konfigurieren
In der Claude Code Konfiguration (~/.claude.json):
{
"mcpServers": {
"playwright": {
"command": "npx",
"args": ["@playwright/mcp@latest"]
}
}
}
3. Claude Code neustarten
Nach Config-Änderungen muss die Session neugestartet werden.
4. MCP Server nutzen
In Claude Code:
- Tippe
/mcpum verfügbare Server zu sehen - KI kann automatisch auf Tools zugreifen
- Beispiel: "Öffne https://elasticbrains.de und mache einen Screenshot"
Projekt-spezifische MCP Server
Problem: Globale vs. Projekt-Konfiguration
MCP Server können global oder pro Projekt konfiguriert werden:
- Global:
~/.claude.jsonuntermcpServers - Projekt:
~/.claude.jsonunterprojects.<path>.mcpServers
Best Practice
Projekt-spezifische MCP Server in der Projekt-Konfiguration definieren:
{
"projects": {
"/Users/me/my-project": {
"mcpServers": {
"custom-api": {
"command": "node",
"args": ["./mcp-server.js"]
}
}
}
}
}
MCP Server entwickeln
Grundstruktur eines MCP Servers
Ein MCP Server ist ein Programm, das über stdio kommuniziert:
- Empfange JSON-RPC Anfragen über stdin
- Verarbeite die Anfrage (Tool aufrufen, Daten abrufen)
- Sende JSON-RPC Response über stdout
Beispiel: Einfacher MCP Server (Node.js)
import { MCPServer } from '@anthropic-ai/mcp-sdk';
const server = new MCPServer({
name: 'my-custom-tool',
version: '1.0.0'
});
// Tool registrieren
server.addTool({
name: 'get_weather',
description: 'Get current weather for a location',
inputSchema: {
type: 'object',
properties: {
location: { type: 'string' }
}
},
handler: async ({ location }) => {
// API-Call an Wetter-Service
const weather = await fetchWeather(location);
return { temperature: weather.temp, condition: weather.condition };
}
});
server.start();
MCP SDK
Anthropic bietet SDKs für verschiedene Sprachen:
- Node.js/TypeScript:
@anthropic-ai/mcp-sdk - Python:
anthropic-mcp - Weitere: Community-SDKs für Go, Rust, etc.
MCP im Agentic Coding Workflow
Use Cases für Agentic Coding
- Testing: Playwright MCP für automatisierte UI-Tests
- Debugging: Database MCP für Datenbank-Inspections
- CI/CD: Git MCP für automatisierte Commits und Deploys
- Integration: Custom MCP für firmenspezifische APIs
Beispiel-Workflow
- Entwickler: "Implementiere Login-Feature und teste es"
- Claude Code:
- Generiert Login-Component (Code-Generation)
- Schreibt Playwright-Test (via MCP)
- Führt Test aus (via Playwright MCP)
- Screenshot bei Fehler (via Playwright MCP)
- Ergebnis: Vollständig getestetes Feature, ohne manuelles Testing
Sicherheit und Best Practices
⚠️ Sicherheitshinweise
- Niemals Production-Datenbanken: MCP mit DB-Zugriff nur für Dev/Staging
- Credentials: Nicht in MCP-Konfiguration hardcoden, nur ENV-Variablen
- Berechtigungen: MCP Server so restriktiv wie möglich konfigurieren
- Review: KI-generierte Änderungen immer reviewen, auch bei MCP-Nutzung
Best Practices
- MCP Server pro Projekt konfigurieren statt global
- Tool-Namen klar und beschreibend wählen
- Input-Schemas strikt definieren (Validation)
- Error-Handling: Klare Fehlermeldungen zurückgeben
- Logging: MCP-Calls für Debugging protokollieren
Die Zukunft von MCP
Emerging Trends
- MCP Marketplace: Zentrale Plattformen für MCP Server (wie npm für Tools)
- Multi-Agent MCP: Mehrere KI-Agenten teilen sich MCP Server
- Bidirectionale MCP: Tools können proaktiv mit der KI kommunizieren
- MCP-as-a-Service: Cloud-gehostete MCP Server für Teams
MCP über Anthropic hinaus
Obwohl von Anthropic entwickelt, ist MCP ein offener Standard:
- OpenAI könnte MCP in GPT-Modelle integrieren
- Open Source LLM-Frameworks (LangChain, LlamaIndex) bauen MCP-Support
- Potenzial für branchenweiten Standard
MCP bei elasticbrains
Bei elasticbrains nutzen wir MCP intensiv:
- Playwright MCP: Automatisierte UI-Tests in allen Frontend-Projekten
- Custom MCP Server: Zugriff auf interne Development-Tools
- Database MCP: Schnelle Datenbank-Analysen während der Entwicklung
- Workshop: In unserem Agentic Coding Workshop lernen Sie MCP-Setup und Best Practices
MCP lernen
In unserem Agentic Coding Workshop behandeln wir MCP ausführlich:
- MCP Server installieren und konfigurieren
- Playwright MCP für automatisierte Tests nutzen
- Custom MCP Server für firmenspezifische Tools entwickeln
- Best Practices für Sicherheit und Performance
- Hands-on: MCP in echten Projekten einsetzen
Weiterführende Ressourcen
- Dokumentation: Anthropic MCP GitHub
- SDK:
@anthropic-ai/mcp-sdk(npm) - Beispiele: Playwright MCP, Filesystem MCP, Database MCP
- Glossar: Agentic Coding, Context Engineering
- Workshop: Agentic Coding Workshop
Agentic Coding Workshop
Lernen Sie dieses Thema praxisnah in unserem Workshop - mit echten Projekten und erfahrenen Trainern.
Weitere Glossarbegriffe
AI Pair Programming – KI als Programmierpartner
AI Pair Programming bezeichnet den Einsatz eines KI-Agenten als gleichwertigen Programmierpartner in der Softwareentwicklung. Die KI übernimmt die Navigator-Rolle aus dem klassischen Pair Programming – verfügbar rund um die Uhr, ohne soziales Overhead, mit konsistenter Qualität. Tools wie Claude Code, Cursor und GitHub Copilot ermöglichen diese Arbeitsweise.
Agentic Coding – KI-gestützte Softwareentwicklung mit autonomen Agenten
Agentic Coding ist der professionelle Ansatz der KI-gestützten Softwareentwicklung, bei dem autonome KI-Agenten eigenständig planen, implementieren und testen. Der Mensch steuert als Architekt und Reviewer. Durch CLAUDE.md, Context Engineering, Memory Files und MCP-Integration entsteht ein strukturierter Workflow, der reproduzierbare Ergebnisse und höhere Entwicklungsgeschwindigkeit ermöglicht.
LLM (Large Language Model) - Was ist ein Sprachmodell?
Large Language Models (LLMs) sind KI-Modelle, die natürliche Sprache verstehen und generieren. Sie basieren auf der Transformer-Architektur und werden auf riesigen Textmengen trainiert. LLMs wie GPT-4, Claude und Llama kommen in Chatbots, Code-Generierung, Textanalyse und Wissensmanagement zum Einsatz und bilden die Grundlage moderner KI-Anwendungen in Unternehmen.