Saltar al contenido principal
onext technology
IA 31 marzo 2026 - 11 min de lectura

Por qué la mayoría de proyectos con LLM fracasan (y cómo convertirlos en sistemas que realmente funcionan)

El 95% de pilotos de IA enterprise no genera impacto medible en P&L. El problema no es el modelo. Es que se usan prompts aislados en lugar de construir sistemas integrados con contexto, flujo y control.

Jordi Garcia
Tech Lead en onext
Equipo técnico analizando un sistema de IA integrado en producción con dashboards de métricas y flujos de trabajo estructurados

En los últimos 12 meses, la mayoría de empresas han empezado a experimentar con modelos de lenguaje. El primer paso ha sido casi siempre el mismo: usar ChatGPT para generar contenidos, redactar ofertas, resumir información o apoyar tareas internas. Al principio, el impacto es evidente. Pero después de esa primera fase aparece siempre el mismo problema: "Funciona, pero no podemos convertirlo en un proceso fiable."

Y los datos lo confirman. Según un estudio del MIT de julio 2025, el 95% de pilotos de IA enterprise no genera impacto medible en P&L. Solo el 5% consigue resultados que justifiquen la inversión. No es un problema de tecnología. Es un problema de cómo se está usando.

El falso avance: usar LLMs como herramienta individual

Herramientas como ChatGPT han democratizado el acceso a la IA. Pero también han creado una falsa sensación de adopción. El 92% de las empresas Fortune 500 usa ChatGPT o su API. Suena a adopción masiva. Pero cuando miras más de cerca, el 90% de los empleados usa herramientas de IA personales para tareas del trabajo, y el 68% no lo comunica a sus responsables.

Lo que ocurre en la práctica es esto:

  • Cada persona usa sus propios prompts
  • No hay consistencia en los resultados
  • El conocimiento no se comparte entre el equipo
  • No existe integración con los sistemas de la empresa

Resultado: Mejoras individuales, pero cero impacto estructural. Y, sobre todo, ninguna escalabilidad. Cada persona reinventa la rueda cada vez que abre ChatGPT.

Es la diferencia entre que tu equipo tenga acceso a una calculadora y que tu empresa tenga un sistema de contabilidad. La calculadora ayuda. Pero no escala, no se audita, no se integra y no produce resultados consistentes.

El error: tratar los LLM como herramientas, no como sistemas

Cuando las empresas intentan dar el siguiente paso, el patrón se repite. "Vamos a usar IA para generar ofertas." "Vamos a automatizar el marketing con IA." "Vamos a filtrar CVs automáticamente." Pero siguen construyendo sobre el mismo enfoque:

  • Prompts aislados, sin contexto del negocio
  • Pruebas sin estructura ni criterios de éxito
  • Soluciones desconectadas de los sistemas existentes

Sin contexto. Sin integración. Sin control. El resultado es predecible: outputs inconsistentes, baja confianza del negocio y abandono del proyecto.

El dato: Las organizaciones abandonarán el 60% de los proyectos de IA no respaldados por datos preparados para IA antes de que acabe 2026 (Gartner). Y el 63% de las organizaciones no tiene, o no sabe si tiene, las prácticas de gestión de datos necesarias para soportar IA.

Lo que sí funciona: diseñar sistemas, no prompts

Los LLM no son una feature que se añade a un producto. Son una nueva capa operativa. Para que funcionen en producción, necesitan convertirse en un sistema con cuatro componentes:

1. Contexto estructurado

Un modelo no puede trabajar "en vacío". Necesita datos internos (CRM, documentos, histórico), reglas de negocio y memoria del proceso. Sin contexto, el LLM genera respuestas genéricas que no sirven para tu caso específico.

En la práctica, esto significa que antes de enviar un prompt, el sistema inyecta automáticamente el contexto relevante: datos del cliente, histórico de interacciones, restricciones del producto, tono de marca. El usuario no tiene que explicar todo cada vez.

2. Flujo de trabajo definido

No es una llamada única al modelo. Es un proceso con pasos claros:

  1. Entrada: Input estructurado (formulario, datos del CRM, brief del cliente)
  2. Transformación: Uno o varios pasos con IA (generación, refinamiento, validación)
  3. Validación: Automática (reglas de negocio) o humana (revisión ligera)
  4. Salida: Resultado usable por el negocio (documento en CRM, email enviado, contenido publicado)

Cada paso tiene criterios claros de entrada y salida. El modelo no opera como una caja negra: es una pieza dentro de un flujo controlado.

3. Integración real

Si el resultado del LLM no se integra en el flujo de trabajo existente, no existe. Una oferta generada que no llega al CRM no sirve. Un contenido que no se publica no escala. Un CV filtrado que nadie revisa no aporta valor.

La integración no es opcional. Es lo que transforma un experimento en una operación.

4. Control y calidad

Sin control, no hay adopción. El negocio necesita confiar en que los outputs cumplen un estándar mínimo. Eso requiere:

  • Criterios de calidad: Definir qué es un output aceptable antes de poner el sistema en marcha
  • Mecanismos de validación: Automáticos (reglas, checks) y humanos (revisión cuando el score no supera el umbral)
  • Métricas de rendimiento: Tiempo por tarea, tasa de aceptación, ratio de intervención humana

Herramienta individual vs sistema integrado

ChatGPT como herramienta

  • Cada persona escribe sus propios prompts
  • Resultados inconsistentes entre miembros del equipo
  • Sin integración con CRM, ERP o herramientas internas
  • Imposible medir impacto ni auditar resultados
  • El conocimiento se pierde entre sesiones

LLM como sistema

  • Contexto inyectado automáticamente desde datos internos
  • Outputs estandarizados con calidad predecible
  • Integrado en el flujo de trabajo (CRM, publicación, email)
  • Métricas de rendimiento y trazabilidad completa
  • Conocimiento acumulado y reutilizable

Caso real: generación de ofertas B2B

Contexto: Empresa B2B con proceso manual de generación de propuestas comerciales. Equipo de 5 comerciales que dedicaban 2-3 horas por propuesta, con alta variabilidad en calidad y dependencia de perfiles senior para las ofertas complejas.

Antes: ChatGPT como herramienta individual

  • Cada comercial usaba ChatGPT con sus propios prompts
  • Las propuestas salían con tonos y estructuras diferentes
  • No había integración con el CRM: la oferta se generaba aparte y se copiaba manualmente
  • Sin criterios de calidad definidos: cada uno decidía cuándo la propuesta "estaba lista"

Después: LLM integrado como sistema

  • El sistema extrae automáticamente datos del cliente desde el CRM (histórico, sector, tamaño, interacciones previas)
  • Genera una propuesta estructurada siguiendo el template de marca y las reglas comerciales
  • Validación automática: checks de precios, márgenes y condiciones antes de presentar al comercial
  • Revisión humana ligera (5-10 minutos vs 2-3 horas de redacción)
  • La propuesta aprobada se registra directamente en el CRM

Resultados

-70% Tiempo por propuesta
+85% Consistencia entre propuestas
x2 Capacidad comercial
0 Propuestas sin registro en CRM

Por qué esto importa ahora

Muchas empresas ya han invertido en IA. Muchas ya usan ChatGPT a diario. Pero muy pocas han conseguido convertir ese uso en procesos sólidos, repetibles y escalables. La inversión media en GenAI por empresa es de 1,9 millones de dólares, pero el ROI medio de iniciativas enterprise es del 5,9% frente a un 10% de inversión de capital.

La diferencia entre las empresas que obtienen retorno y las que no está consistentemente en lo mismo: las que funcionan han construido un sistema alrededor del modelo. Las que no, siguen usando prompts aislados y esperando resultados diferentes.

Y hay un factor adicional que hace esto urgente: los equipos que ya construyen con LLMs integrados están acumulando una ventaja que se amplía con el tiempo. Cada interacción mejora el sistema. Cada feedback refina el contexto. Las empresas que siguen en la fase de "cada uno usa ChatGPT por su cuenta" no solo no avanzan: se quedan atrás respecto a las que ya operan con sistemas.

Conclusión: la diferencia entre usar IA y construir con IA

Los proyectos con LLM no fracasan porque la tecnología no funcione. Fracasan porque se quedan en la capa superficial: uso individual, prompts aislados, herramientas sin sistema. Y no evolucionan hacia lo que realmente genera impacto: procesos estructurados, sistemas integrados y operaciones escalables.

Esa es la diferencia entre usar IA y construir una ventaja competitiva con IA.

Si en tu empresa ya usáis IA pero no está generando impacto real en procesos clave, probablemente no es un problema de herramienta. Es un problema de sistema.

Convierte tu uso de IA en un sistema que funcione

En onext ayudamos a equipos a pasar de prompts aislados a sistemas de IA integrados en producción. Contexto estructurado, flujos definidos, integración real y control de calidad.

12 equipos transformados. 0 sprints perdidos.