Tengo 5 servidores MCP. Esto es lo que hacen realmente.
En algún momento del año pasado, empecé a ver «MCP» por todas partes. Hilos de Twitter. Boletines informativos para desarrolladores. Charlas en conferencias. La mayoría de las explicaciones eran demasiado abstractas («¡es un protocolo para conectar la IA con herramientas!») o demasiado empresariales («el nuevo marco agentivo de IBM basado en MCP transforma las operaciones comerciales»). Ninguna de ellas me decía lo que realmente quería saber: ¿qué hace esto, en la práctica, para un desarrollador en activo?
Así que creé algunos. Ahora utilizo cinco servidores MCP como parte de mi flujo de trabajo diario de desarrollo. Se conectan a Claude Code, el asistente de codificación de IA que utilizo en mi terminal, y le dan acceso a diferentes modelos y herramientas de IA. Voy a explicar qué es realmente MCP, por qué existe y cómo es mi configuración específica.
MCP en lenguaje sencillo
El Protocolo de contexto de modelo es un estándar para conectar asistentes de IA a herramientas externas y fuentes de datos. Eso es todo. Es un formato de comunicación, algo así como el USB para la IA.
Antes de MCP, si querías que un asistente de IA hiciera algo fuera de sus capacidades integradas (buscar en la web, consultar una base de datos, llamar a una API), tenías que escribir un código de integración personalizado para cada combinación de IA y herramienta. Claude se comunica con Notion de una manera, ChatGPT se comunica con Notion de otra manera, y si cambias de asistente, tienes que empezar de nuevo.
MCP estandariza eso. Se crea un servidor MCP que expone las herramientas (funciones que la IA puede llamar) y cualquier cliente compatible con MCP (Claude Code, Cursor, Windsurf, lo que sea) puede utilizarlas. Se crea una vez y funciona en todas partes.
Mi configuración
Tengo cinco servidores MCP configurados globalmente en mi máquina. Todos son aplicaciones Node.js que he creado yo mismo. Cada uno envuelve un proveedor de IA diferente y expone sus capacidades como herramientas que Claude Code puede invocar mientras trabajo.
gemini-research
Google Gemini Flash. 7 herramientas para investigación, generación de contenido, comparaciones y estudios de casos. Conectado a la web para obtener datos actuales.
groq-fast
Llama 3.3 70B a ~500 tok/seg. 4 herramientas para respuestas rápidas, análisis, generación y código. También alimenta el widget de chat de myseodesk.com.
ollama-local
Modelos locales a través de Ollama. 4 herramientas que funcionan sin conexión, totalmente gratuitas y sin que salga ningún dato de mi equipo.
glm-free
GLM 4.7 a través de API gratuita. 4 herramientas para chat, código, escritura y análisis. Sólida copia de seguridad cuando otros proveedores tienen interrupciones.
opencode
Pasarela multimodelo. 6 herramientas que dirigen a GPT 5.1 Codex, Kimi, MiniMax y GPT 5 Nano. El modelo adecuado para cada tarea.
Cómo es el día a día
He aquí un ejemplo real de la semana pasada. Estaba creando una nueva página para el sitio web de un cliente y necesitaba:
- Investigar el enfoque SEO de sus competidores.
- Generar un primer borrador del contenido de la página
- Escribir la plantilla HTML
- Revisar el código en busca de problemas
Claude Code se encargó de la coordinación. Llamó a gemini-research para investigar a la competencia. Llamó a groq-fast para generar un borrador rápido del contenido. Llamó a opencode_kimi_free para crear el esqueleto del HTML. Luego llamó a ollama-local para realizar una revisión del código. Todo esto ocurrió en una sola conversación. No tuve que cambiar manualmente entre herramientas ni copiar y pegar entre ventanas.
El valor real no es ningún servidor en particular, sino que todos ellos utilizan el mismo protocolo, por lo que la IA puede elegir la herramienta adecuada para cada subtarea sin que usted tenga que pensar en ello.
Crear tu propio servidor MCP
La barrera de entrada es menor de lo que la mayoría de los tutoriales dan a entender. Un servidor MCP es una aplicación Node.js que:
- Declara una lista de herramientas (nombre, descripción, parámetros de entrada)
- Gestiona las llamadas entrantes de las herramientas y devuelve los resultados
- Se comunica a través de stdin/stdout (el transporte más sencillo) o HTTP
Mis servidores tienen entre 100 y 200 líneas de código cada uno. La mayor parte del trabajo consiste en configurar el cliente API para cualquier proveedor que estés envolviendo y definir descripciones sensatas de las herramientas para que la IA sepa cuándo utilizar cada una.
Los servidores MCP se configuran en un archivo JSON. Para Claude Code, es ~/.claude/settings.json. Cada entrada del servidor especifica el comando para ejecutarlo y cualquier variable de entorno (como las claves API). Una vez configuradas, las herramientas están disponibles automáticamente en todos los proyectos.
Cuándo tiene sentido MCP (y cuándo no)
Vale la pena si...
Trabaja a diario con herramientas de IA, cambia de proveedor y quiere que todas sean accesibles desde una sola interfaz.
Es excesivo si...
Estás satisfecho con la interfaz web de una herramienta de IA. El valor proviene de la integración y la automatización, no del MCP en sí.
Otra cosa que hay que saber: MCP aún es joven. Las especificaciones son estables, pero las herramientas que lo rodean están en constante evolución. La depuración puede resultar molesta: cuando falla una llamada a la herramienta, los mensajes de error no siempre son útiles. He pasado más tiempo del que me gustaría mirando la salida de stderr tratando de averiguar por qué un servidor no se conecta. Mejora con cada actualización, pero hay que ajustar las expectativas en consecuencia.
Hacia dónde va
Creo que MCP o algo similar se convertirá en la infraestructura estándar para los desarrolladores en el próximo año. El patrón de «asistente de IA + servidores de herramientas especializadas» es demasiado útil como para quedarse en un nicho. Microsoft, Google y Amazon están creando sistemas compatibles con MCP. El ecosistema está creciendo rápidamente.
Yo tengo cinco servidores y los uso todos los días. La configuración total me llevó varios fines de semana. La ganancia en productividad ha sido significativa, no porque ningún modelo en particular sea mágico, sino porque tener el modelo adecuado para cada tarea elimina fricciones que ni siquiera sabías que tenías.
Cree un servidor que integre su API favorita. Pruebe cómo funciona. Es posible que acabe creando cuatro más.