Chatbots: por qué la mayoría no funcionan

Chatbots: por qué la mayoría no funcionan

La promesa

Durante años, los chatbots se convirtieron en una especie de demostración de modernidad. Empresas que pocos meses antes se identificaban como “muy tecnológicas” al haber estrenado su ecommerce, y aún obligaban a sus empleados a hacer cursos de “transformación digital“, presumían de pioneros porque alguien les había puesto un chatbot en su web.

No importaba demasiado qué hacía exactamente la empresa o si tenía un problema real que resolver con conversación: si querías parecer innovador, añadías un chatbot. Era casi un estándar obligatorio. Una pequeña burbuja en la esquina de la web que prometía inmediatez, eficiencia y, en el mejor de los casos, una experiencia más cómoda para el usuario. La idea era potente: atención al cliente automatizada, disponible las veinticuatro horas, sin esperas y sin fricción.

Sin embargo, a la hora de la verdad, rara vez cumplía esa promesa: El usuario preguntaba algo sencillo y el sistema respondía con algo irrelevante, repetía opciones genéricas o simplemente no entendía la consulta. En lugar de reducir fricción, la añadía y en lugar de acelerar procesos, los complicaba. Y poco a poco se fue instaurando una sensación bastante clara: la mayoría de los chatbots no solo no ayudaban, sino que en muchos casos empeoraban la experiencia del usuario.

Ojo, porque no hablamos de una tecnología marginal o experimental. Los chatbots han sido una de las aplicaciones más extendidas de la inteligencia artificial en entornos reales. Y aun así, el resultado general ha sido decepcionante. Un maravilloso ejemplo de que, a veces, no es que la tecnología falle sino que se implanta sin saber cómo ni por qué.

El problema de base: automatizar algo que no es simple

Para entender el fallo casi generalizado de los chatbots hay que empezar por una idea bastante básica que muchas empresas pasaron por alto: automatizar una conversación no es lo mismo que automatizar un proceso.

Por qué no funcionan los chatbots

Durante décadas, las empresas han automatizado tareas estructuradas: pagos, reservas, inventario, logística. Son sistemas donde las reglas están claras y las variables están relativamente controladas. Pero una conversación no funciona así. El lenguaje humano es ambiguo, flexible, lleno de matices y, sobre todo, muy dependiente del contexto.

Cuando una persona escribe “no me funciona”, puede referirse a un problema técnico, a un error puntual, a una duda de cómo utilizar algo o incluso a una frustración emocional. Entender eso requiere interpretación, no solo ejecución.

Durante mucho tiempo, la tecnología simplemente no estaba preparada para funcionar a ese nivel, pero aún así, las empresas se empeñaron en construir sistemas que simularan esa capacidad, lo que generó una brecha enorme entre lo que el usuario esperaba y lo que el sistema podía realmente ofrecer.

El error original: sistemas rígidos con “inteligencia aparente”

Los primeros chatbots no eran realmente sistemas inteligentes, aunque se presentaran como tal. Eran solo árboles de decisión, es decir, sistemas diseñados para detectar ciertas palabras clave y devolver respuestas predefinidas. Funcionaban razonablemente bien en escenarios muy acotados, donde el usuario seguía el camino previsto, pero fallaban en cuanto aparecía cualquier variación inesperada.

El problema no era solo técnico, sino que se estaba intentando resolver un problema complejo con una herramienta pensada para problemas simples. ¿Cómo iba a funcionar? En lugar de diseñar sistemas que entendieran, se diseñaron sistemas que clasificaban. Y eso generó una experiencia muy concreta: el usuario sentía que estaba hablando con algo que no comprendía realmente lo que decía y a veces, eso llevaba a la desesperación.

El segundo error: intentar parecer humano demasiado pronto

A este problema se le sumó otro bastante común. Muchas empresas decidieron que, si el chatbot no podía ser realmente inteligente, al menos podía parecerlo. Se le daba un nombre, un tono cercano, incluso una personalidad (a veces, de todo menos profesional). El objetivo era humanizar la interacción, hacerla más agradable y reducir la fricción psicológica del usuario.

Pero esto tuvo un efecto contrario al esperado. Cuando algo parece humano, el usuario espera inteligencia humana. Espera comprensión, flexibilidad, capacidad de adaptación. Y cuando eso no ocurre, la frustración es mayor que si el sistema fuera claramente una herramienta limitada. El problema ya no es solo que falle, sino que genera una sensación de engaño. Como si prometiera algo que no puede cumplir.

El error estructural: usar conversación donde no hacía falta

Aquí aparece uno de los puntos más importantes y menos evidentes: muchas empresas utilizaron chatbots para resolver problemas que no requerían conversación. Consultar el estado de un pedido, cambiar una contraseña o cancelar una suscripción son tareas estructuradas que pueden resolverse de forma más eficiente con interfaces claras y flujos bien diseñados.

Sin embargo, se intentó convertir estos procesos en conversaciones, como si hablar fuera mejor que interactuar con un sistema bien diseñado y esto fue un error de base: entendieron que la conversación era valor en sí misma, cuando no lo era. La conversación era solo un medio. Y cuando se utiliza en el contexto equivocado, produce más frustración.

La llegada de la “IA conversacional”

La aparición de los modelos de lenguaje cambió radicalmente el panorama. A diferencia de los sistemas basados en reglas, estos modelos no dependen de estructuras rígidas, sino que generan respuestas en función del contexto. Esto permite manejar variaciones en el lenguaje, interpretar mejor la intención y adaptarse a diferentes formas de preguntar.

Por primera vez, la idea de tener una conversación relativamente natural con una máquina empezó a ser viable. Esto abrió una nueva fase en la evolución de los chatbots, mucho más prometedora que la anterior. Sin embargo, también apareció un nuevo tipo de problema.

El nuevo riesgo: ahora entienden mejor, pero no siempre aciertan

Los modelos actuales son mucho más flexibles, pero no son infalibles. Pueden generar respuestas incorrectas con total seguridad, lo que en entornos sensibles puede tener consecuencias importantes.

Un ejemplo bastante ilustrativo es el caso de Air Canada, donde su chatbot proporcionó información incorrecta sobre la política de reembolsos. El cliente siguió esas indicaciones y posteriormente la aerolínea intentó desentenderse, argumentando que el chatbot se había equivocado. El caso acabó en los tribunales, y la conclusión fue clara: la empresa es responsable de lo que dice su sistema.

Este tipo de situaciones muestra que el problema ya no es solo técnico, sino también operativo y legal. No basta con que el sistema funcione “la mayoría de las veces”. En muchos contextos, tiene que funcionar correctamente siempre, o al menos dentro de unos márgenes muy controlados.

Por qué no funcionan los chatbots

La ilusión actual: la IA hace fácil construirlos, pero no hacer bien el producto

La nueva generación de herramientas de IA ha hecho algo muy relevante: ha reducido drásticamente la barrera de entrada. Hoy es mucho más fácil construir un chatbot, desplegarlo y ponerlo en producción y lo que antes requería equipos técnicos especializados, ahora puede hacerse en mucho menos tiempo.

Pero hay una confusión muy peligrosa en esto: que algo sea más fácil de construir no significa que sea fácil hacerlo bien. Diseñar un buen sistema conversacional implica entender el problema, definir bien el alcance, validar con usuarios reales, iterar, medir resultados y ajustar continuamente. Implica también una gestión interna clara: quién supervisa el sistema, cómo se corrigen errores, qué datos se utilizan y cómo se integra con el resto de procesos de la empresa.

En otras palabras, la IA facilita la tecnología, pero no sustituye el trabajo de diseñar correctamente el producto ni elimina la necesidad de planteamiento, diseño, validación y gestión. De hecho, muchas empresas siguen cayendo en ese error: el de pensar que desplegar un chatbot es lo mismo que construir una solución útil e infalible.

Cuando sí funcionan: el caso de Klarna y otros ejemplos

A pesar de todo esto, hay algunos casos donde los chatbots sí están funcionando y muy bien. Uno de los ejemplos más conocidos es Klarna. La empresa ha conseguido automatizar una parte significativa de su atención al cliente utilizando IA conversacional, gestionando millones de interacciones con resultados comparables a los de agentes humanos en ciertos tipos de consultas.

Lo interesante del caso no es solo la tecnología, sino el enfoque: Klarna no intenta que su chatbot haga todo. Lo utiliza en escenarios donde el problema está bien definido, donde las consultas son repetitivas y donde el sistema puede acceder a contexto relevante del usuario. Además, el chatbot está integrado dentro de un sistema más amplio, donde hay supervisión, medición y mejora continua.

Otros casos interesantes aparecen en entornos internos de empresas tecnológicas, donde los asistentes se utilizan para ayudar a empleados a acceder a información, generar documentación o resolver dudas operativas. En estos contextos, el riesgo es menor, el alcance está más controlado y el valor es más evidente.

Por qué no funcionan los chatbots

La diferencia real: no es la IA, es el planteamiento

Después de todo lo que hemos visto, la conclusión es bastante clara: la diferencia entre un chatbot que funciona y uno que no lo hace, no está en el modelo de inteligencia artificial sino een cómo se plantea el problema.

Los sistemas que funcionan bien tienen algo en común: están diseñados para resolver un caso concreto, tienen acceso a contexto relevante, están bien integrados en el producto y forman parte de un proceso continuo de mejora. Los que fallan, en cambio, suelen partir de una idea más superficial. Se construyen porque “hay que tener un chatbot”, sin una reflexión real sobre para qué sirve, cómo se va a usar, qué valor aporta o si realmente hace falta.

Reflexión final

Los chatbots son un buen ejemplo de cómo una tecnología puede fracasar en su implementación aunque la idea original sea buena. La automatización de conversaciones tiene sentido y la IA conversacional tiene un potencial enorme, pero su éxito no depende tanto de la tecnología como depende de las decisiones de producto, de entender cuando tiene sentido y cuando no y, sobre todo, de aceptar una realidad muy simple: la inteligencia artificial puede facilitar la ejecución, pero no sustituye el planteamiento y al diseño correcto de producto y del proceso.