La consultoría en IA empresarial se vende bien y se ejecuta mal. El problema no suele estar en el modelo, sino en procesos rotos, datos sucios y dirección ausente.
Ese patrón se repite más de lo que admite el mercado. McKinsey ha documentado durante años que una parte relevante de las iniciativas de inteligencia artificial no llega a producción o no captura el valor previsto, casi siempre por causas menos glamourosas que el algoritmo: mala definición del caso de uso, fuentes dispersas, baja adopción interna y ausencia de responsables con poder real de decisión. Cuando una compañía compra licencias, monta pilotos y no corrige la base operativa, lo que obtiene no es automatización rentable, sino una factura nueva.
Donde se rompe el despliegue
El atasco aparece pronto. Marketing automatiza textos con modelos generativos, ventas prueba asistentes conversacionales y operaciones sigue trabajando con exportaciones manuales desde el ERP hacia hojas de cálculo que nadie reconcilia a tiempo. El comité escucha una historia de modernización, pero el EBITDA no se mueve porque los procesos críticos siguen dependiendo de datos inconsistentes y de decisiones tomadas fuera del sistema.
En la práctica, el fallo suele verse en piezas muy concretas de ingeniería de datos. La tabla clientes no coincide con opportunities en el CRM, los campos de ingresos llegan como string cuando deberían tratarse como float, y los pipelines de extracción arrastran errores 404 o 500 sin alertas serias. Después llega el clásico parsing defectuoso con pandas por separadores mal definidos o scrapings frágiles con BeautifulSoup que rompen en cuanto cambia una clase HTML. Con esa base, cualquier sistema de scoring, previsión de demanda o recomendación comercial hereda basura y la presenta con apariencia estadística.
También hay un problema de secuencia. Muchas empresas intentan aplicar modelos antes de limpiar catálogos, unificar identificadores o fijar un criterio de verdad para pedidos, márgenes y churn. El resultado es un piloto eterno que no escala. El enfoque de consultoría de inteligencia artificial de Arbentia insiste, con razón, en empezar por procesos y objetivos antes que por la capa tecnológica. No es una preferencia metodológica; es una condición para no invertir sobre un dato que luego nadie defenderá en comité.
El coste real del piloto eterno
Hay síntomas fáciles de reconocer. El modelo funciona en una demo, pero no entra en producción porque no existe una tabla maestra fiable; el equipo comercial ignora la recomendación porque contradice su intuición; y tecnología acaba manteniendo integraciones provisionales durante meses. En empresas B2B esto se traduce en oportunidades mal priorizadas, previsiones infladas y ciclos de venta más largos. Un error del 10% en forecast en una unidad con alto coste comercial no es anecdótico; distorsiona compras, objetivos y caja.

La capa cultural agrava el cuadro. Si la dirección no redefine incentivos ni decide qué decisiones pasan a estar asistidas por sistemas automáticos, la adopción cae por pura inercia. Entonces aparece la frase que ya se ha oído demasiadas veces: la IA no funciona aquí. No es cierta. Lo que no funciona es pretender que un modelo arregle un proceso que nadie quiso rediseñar.
Qué se mide y qué se exige
Una firma seria no empieza ofreciendo un chatbot ni una licencia. Empieza pidiendo acceso a fuentes, responsables y métricas: tablas de ventas, histórico de incidencias, estructura del CRM, tiempos de ciclo, tasa de conversión, coste por adquisición y margen por línea. Si no puede trazar de dónde sale el dato y quién lo valida, no tiene base para recomendar nada que merezca presupuesto.
Ese diagnóstico debe aterrizar en casos de uso con impacto medible. En ventas, un asistente conectado al CRM puede priorizar cuentas y sugerir argumentos a partir del histórico de correos, llamadas y cierre por sector. Bien instrumentado, ese sistema puede mover la tasa de cierre entre un 8% y un 15%, pero solo si se mide contra una cohorte comparable y no contra semanas sueltas elegidas a conveniencia. En marketing, la automatización inteligente aplicada a campañas y audiencias solo sirve si baja el coste por adquisición o mejora el valor del cliente; el CTR por sí solo no paga nóminas. En operaciones, los modelos predictivos para mantenimiento o demanda reducen paradas y sobrestock cuando el dato de sensores, órdenes y consumos está completo y bien etiquetado.
Lo que debe incluir un diagnóstico serio
Hay mínimos que conviene exigir. Primero, una priorización de casos según impacto económico y viabilidad técnica, no según entusiasmo interno. Segundo, un mapa de datos con fuentes, tablas, frecuencia de actualización, campos críticos y huecos de calidad. Tercero, un plan de despliegue con responsables, métricas antes y después, criterios de rollback y revisión de riesgos para usos generativos que toquen información sensible o interacción con clientes. La propuesta de asesoría en IA de Panel IALab acierta al insistir en el acompañamiento posterior al piloto; el prototipo impresiona, la operación diaria es la que decide si había negocio o solo presentación.
Conviene desconfiar de cualquier propuesta que prometa resultados sin revisar el proceso previo. Automatizar una ineficiencia solo acelera el desperdicio. También conviene desconfiar del lenguaje inflado, de los roadmaps vagos y de las métricas de escaparate. Si una consultora no puede explicar por qué una tabla se rompe, qué campo falta, dónde aparece un 5xx o cómo se corrige una deduplicación deficiente de clientes, difícilmente podrá defender impacto cuando el proyecto salga del entorno de pruebas.
Si necesitas separar una implementación seria de otra decorativa, pide un diagnóstico con trazabilidad operativa, responsables y métricas de negocio desde la primera semana. Solicita una revisión en el formulario de contacto para evaluar datos, procesos y casos de uso; retrasarlo otros tres meses suele salir bastante más caro que hacerlo ahora.


