La decisión que se rompe: cuando el “mejor dashboard” castiga a la sucursal correcta
Medir no es el problema. El problema es decidir.
Porque puedes tener el dashboard más bonito del mundo y, aun así, terminar castigando a la sucursal que está haciendo lo correcto. En soporte pasa muchísimo cuando se juntan tres cosas en el mismo mes: campaña, cambio de canal y rotación. En LatAm eso no es “un caso aislado”: es martes.
Mini caso realista: sucursal A presume 92% de “resolución” y 4 horas de tiempo promedio. Sucursal B trae 78% y 9 horas. En comité aparece la frase peligrosa: “A es mejor, recortemos a B”. Dos semanas después suben los reclamos en la zona de A.
¿Qué pasó?
A cerraba rápido para cumplir el KPI, pero tenía 18% de reaperturas en 72 horas. B tenía 6%. A resolvía en papel. B resolvía en la vida real.
Y ojo: esto no siempre es fraude. Es incentivo.
Cuando un KPI se vuelve premio o regaño, el workflow “aprende”. Si premias “cerrar”, la operación aprende a cerrar. Si castigas “reaperturas”, aprenderán a evitarlas… o a etiquetarlas distinto. El dashboard no miente, pero el sistema se adapta.
En este artículo, “comparar sucursales” no es hacer un ranking de KPIs. Es comparar desempeño entre sucursales con tickets, conversaciones, eventos operativos y resultados de cliente, con suficientes guardrails para no premiar datos maquillados.
Tip práctico #1 (de los que te ahorran peleas): antes de discutir “quién va arriba”, pregunta en voz alta “¿qué decisión vamos a tomar hoy con esto?”. Si nadie puede contestar en 10 segundos, estás a punto de comparar por deporte.
Cuando cada sucursal entiende algo distinto: definiciones que rompen la comparación (Errores 1 y 2)
Antes de discutir “quién es mejor”, asegúrate de que todas las sucursales están hablando del mismo objeto. Si no, no comparas performance: comparas semántica. Y la semántica, en comité, siempre gana por cansancio.
Error 1: “conversación” no es “caso” (y el denominador te cambia el resultado)
En omnicanal, un cliente puede abrir WhatsApp, luego llamar, después mandar correo y finalmente contestar en el chat web. Si una sucursal agrupa todo como 1 caso y otra lo cuenta como 3, tus ratios dejan de significar lo mismo.
Ejemplo simple (mismo volumen real): 100 clientes, 1 problema cada uno, 160 interacciones.
Si X agrupa 160 conversaciones en 100 casos y “resuelve” 80 problemas, reporta 80% por caso. Si Y convierte 160 conversaciones en 160 casos y “resuelve” esos mismos 80 problemas, reporta 50%. Y no: Y no es peor. Cambió el denominador.
En voz también pasa. El IVR corta, el cliente vuelve a llamar, cae con otro agente. Una sucursal lo une, otra lo cuenta como “nuevo”. Terminas castigando reintentos como si fueran baja productividad, cuando quizá lo que tienes es fricción (o telecom, o enrutamiento roto).
Dos señales típicas de que la definición se rompió: un salto raro de volumen justo después de un cambio de CRM/etiquetado, o un cambio fuerte de mix de canal sin que se mueva la “productividad por agente” (suele ser el contador compensando por debajo).
Tip práctico #2: cuando sospeches de definiciones, mira dos números juntos: “clientes únicos” y “casos”. Si el ratio casos/cliente cambia de golpe sin campaña ni incidentes, casi siempre es un cambio de conteo (o un duplicado masivo) disfrazado de performance.
Error 2: “resuelto” no es lo mismo que “cerrado” (y ahí se deforma la calidad)
En muchas operaciones, “cerrado” significa “ya no está en mi cola”. “Resuelto” debería significar “el cliente no volvió por lo mismo”. Si mezclas ambos, premias cierre rápido y castigas el trabajo bien hecho.
Regla operativa mínima (sin ponerte académico): un caso cuenta como resuelto si se cerró y no hubo nuevo contacto por el mismo motivo dentro de una ventana acordada. Suele funcionar así: 72 horas para temas simples; 7 días para facturación, garantías, devoluciones o temas que naturalmente rebotan.
El tradeoff es real. Si la ventana es muy corta, te autoengañas y te da una “calidad” que solo existe en tu gráfica. Si la ventana es muy larga, castigas complejidad: el equipo “se ve lento” aunque esté resolviendo lo correcto.
Aquí está el error que más se repite: dejar que cada sucursal elija su propia ventana porque “su operación es distinta”. Puede ser distinta, sí. Pero tu comité toma decisiones con el mismo presupuesto. Si cada quien usa su regla, tu comparación deja de ser comparación.
Definición mínima común (para comparar sin pelear cada mes)
No necesitas 40 páginas. Necesitas dos acuerdos que destraban la mayoría de pleitos:
Primero, qué cuenta como caso único cuando hay múltiples contactos. Segundo, qué cuenta como resuelto cuando hay cierre, seguimiento o reapertura.
Un consejo que suena aburrido pero salva el año: elige una sola unidad para decisiones (por ejemplo, “caso”) y usa el resto (conversaciones, clientes únicos) como diagnóstico. Así evitas que una discusión se vuelva “pero en mi sucursal lo contamos diferente” y se coma la reunión.
Esto es donde te quemas: perseguir “la definición perfecta” que nadie adopta. Mejor una definición mínima común, documentada, y un margen de error parejo.
Checklist corto para alinear definiciones (rápido y usable): ¿tu KPI principal corre sobre conversaciones, casos o clientes únicos? ¿Qué evento crea un caso por canal? Si el cliente vuelve por lo mismo, ¿se une o se crea uno nuevo? ¿En tu operación, qué diferencia hay entre “cerrado” y “resuelto”? ¿Cuál es la ventana de no contacto para “resolución real”? ¿Cómo atribuyes transfers entre sucursales cuando un caso rebota?
Si necesitas un recordatorio de que estas disparidades existen incluso fuera de soporte, hay ejemplos de inconsistencia entre sucursales en servicios como garantías: [1]
Comparar sin castigar contextos distintos: normalización por horarios, estacionalidad, mix de canal y tamaño (Errores 3 y 4)
Con definiciones alineadas aparece el siguiente monstruo: contextos distintos.
Si comparas promedios crudos, premias a quien vive en el carril rápido. Y en LatAm no todos corren en la misma pista: hay zonas con picos raros, horarios comerciales distintos, mix de canal impredecible y temporadas que cambian el comportamiento de clientes de un día a otro.
Error 3: comparar promedios sin ajustar por demanda (tamaño y volumen)
El promedio cabe perfecto en una slide… y también cabe perfecto el error. Si una sucursal atiende 10 veces más volumen, su carga y su variabilidad son otras.
Ejemplo con normalización por 1000 interacciones:
A: 8,000 conversaciones al mes, 160 quejas escaladas. Eso da 20 por 1000. B: 800 conversaciones al mes, 30 escaladas. Eso da 37.5 por 1000.
En absolutos, A “se ve peor”. En riesgo por volumen, B está peor.
Regla rápida: si el volumen difiere mucho, usa ratios (por 1000) además de absolutos. Y cuando el volumen es bajo, el promedio es un dado cargado: un puñado de casos te mueve todo el “desempeño”. Ahí conviene mirar rangos, percentiles o al menos separar “semana típica” de “semana rara”.
Una sola línea de humor (prometida y medida): el promedio es como perfume; un poquito ayuda, pero si lo usas para tapar todo… la gente se da cuenta.
Error 4: comparar SLA y tiempos sin considerar horarios, picos y estacionalidad
En LatAm el calendario manda: quincena, fin de mes, Buen Fin, Hot Sale, Cyber, feriados. Y encima el canal cambia el “tiempo natural” de atención.
Dos sesgos típicos que te hacen celebrar mejoras que no existen:
Cuando entra WhatsApp fuerte, puede bajar el tiempo de primera respuesta pero subir el seguimiento: “mejoras” la respuesta sin mejorar la solución. Y cuando una sucursal atiende más voz versus más chat, el AHT de voz casi siempre será mayor; si no separas por canal, castigas al que se comió la parte difícil.
Normalización mínima que sí paga en operación: por hora abierta (12 horas versus 8 cambia backlog y SLA de forma brutal); por cohortes comparables (no compares una sucursal en semana de campaña con otra en semana normal); y por canal cuando el mix difiere fuerte.
Tip práctico #3: si no te da la vida para “modelar todo”, elige una sola semana control al trimestre (una semana sin campañas) y úsala como referencia de salud operativa entre sucursales. No reemplaza el análisis, pero evita que una campaña te reescriba la historia.
Comparabilidad versus complejidad (cuándo parar de ajustar)
Ajustar sin límite es otra trampa: terminas explicándolo todo y mejorándolo nada.
Tres frenos útiles en comité: no ajustes por más de 2 a 3 factores a la vez para performance (si nadie entiende qué movió el KPI, nadie confía en la decisión); si un ajuste cambia el ranking, se justifica por razón operativa, no porque “se ve justo”; y no ajustes con variables que son consecuencia del desempeño (por ejemplo, “ajustar por transfers” cuando los transfers son el problema).
Pregunta freno: “¿Este ajuste cambia una decisión real esta semana?” Si no, déjalo como análisis lateral.
Modos de fallo que inflan o deflactan KPIs sin que nadie mienta: duplicados, reaperturas y transfers (Errores 5 y 6)
Aquí viene una verdad incómoda: nadie miente y aun así tus KPIs están mal.
La causa suele ser el flujo. Duplicados, reaperturas y transfers son normales. El problema es compararlos sin control: de pronto se convierten en “productividad” o “calidad” ficticias.
Error 5: duplicados y multicanalidad que inflan volumen
El duplicado típico no es un agente torpe. Es un cliente insistente, fricción de experiencia o canales mal integrados.
Eso infla volumen y destruye la productividad aparente. Y lo peor: te empuja a “optimizar” donde no era. Si tu respuesta instintiva es apretar al equipo (“atienden lento”), cuando en realidad el problema era recontacto (“el cliente vuelve porque no quedó claro”), terminas bajando calidad para “recuperar números”.
Tip que evita discusiones: mira casos por cliente único.
Si una sucursal tiene 1.9 casos por cliente y otra 1.2, no compares productividad como si fueran iguales. Puede ser peor experiencia, peor integración, un canal con más recontacto, o incluso un producto con mayor tasa de falla en esa zona. Pero primero nómbralo, porque lo que no se nombra se termina premiando (o castigando) sin querer.
Señal de alerta que suele estar subestimada: cuando “sube el volumen” pero no suben las ventas, ni hay campaña, ni hubo incidentes. Muchas veces no subió la demanda: subió el duplicado.
Error 6: reaperturas, transferencias y rebotes que maquillan resolución y tiempos
Cadena típica que distorsiona todo:
Un cliente reporta un cargo no reconocido. Entra por chat y lo “cierran” en 6 minutos con una respuesta estándar. Luego llama por voz y se transfiere a fraude. Fraude cierra por falta de documento. El cliente manda el documento por WhatsApp y se reabre.
El KPI de primera respuesta se ve brillante. La “resolución por interacción” también. Pero la resolución real por cliente es mala, el costo operativo se duplicó y el cliente ya está pensando en irse.
Ojo con el doble conteo: si un transfer cuenta como “atendido” en origen y en destino, inflas output sin resolver más. Resultado: quien transfiere se ve eficiente, quien recibe se ve lento. Premias eso y entrenas a la operación a rebotar como pelota de playa.
Señales diagnósticas que casi siempre valen oro: si sube resolución y también suben reclamos/devoluciones, suele ser cierre rápido o mala clasificación. Si baja AHT pero suben transfers, empujaste trabajo a otro lado. Si baja backlog pero suben reaperturas en 72 horas, barriste, pero escondiste el polvo.
Tip práctico #4: mira distribuciones, no solo promedios. Un promedio “bonito” con una cola larga de outliers suele significar cobertura desigual, enrutamiento roto o cortes de sistema. Si no puedes ver distribuciones, al menos revisa los 10 tiempos más altos y pregúntate si son “casos difíciles” o “casos perdidos”.
Qué automatizar y qué auditar (sin paralizar la operación)
Automatiza lo repetible, audita lo riesgoso. No porque “auditar sea lo ideal”, sino porque el incentivo pega más duro justo en el top y el bottom del ranking. Ahí se cocina la creatividad.
Un esquema realista: muestrea 30 casos al mes por sucursal y sube a 50 para el top y el bottom. Prioriza outliers de tiempo, transfers, reaperturas y categorías que generan reclamos.
Tres pruebas de sanidad (umbral como alerta, no como sentencia): reapertura a 72 horas en categoría simple por encima de 12% (huele a cierre sin resolver), transfers por motivo que suben fuerte mes contra mes (entrenamiento/enrutamiento), y casos por cliente único que suben más de 20% sin campaña (duplicados o fricción).
Consejo de supervivencia: si no puedes auditar todo, audita donde duele. Las categorías que terminan en reclamos o devoluciones son tu radar; lo demás puede esperar.
El error final: decidir por ranking en vez de por reglas (Error 7)
El Error 7 convierte un tablero útil en una fábrica de incentivos tóxicos: crear un ranking único como si todas las sucursales corrieran la misma pista, con el mismo clima y el mismo auto.
Si premias SLA, evitan casos difíciles. Si premias AHT bajo, transfieren. Si premias “resolución” sin ventana, cierran y rezan para que el cliente no vuelva. El problema no es el KPI: es el “KPI rey” sin límites de seguridad.
Regla que salva reuniones (y relaciones): no decidas por ranking. Decide por reglas según objetivo. Un objetivo por reunión es mejor que diez KPIs peleándose en la mesa.
En expansión se agrava. Abrir más puntos sin consistencia te lo cobra con intereses. Hay recordatorios frecuentes sobre crecer con sucursales sin control operativo: [2] y sobre el error de operar varias sucursales sin tener costos y controles claros: [3]
La salida práctica no es “más KPIs”. Es separar lo que guía la decisión (KPI líder) de lo que evita trampas (guardrails), y tener un lenguaje común para detectar los 7 errores sin volverlo político.
A continuación va, tal cual, el set de artefactos que suele destrabar la conversación sin convertirla en burocracia. Léelo como menú: eliges lo que te falta, no lo que se ve más elegante.
Cómo usar esa tabla sin “montar un teatro”: si hoy estás en modo contención, la regla de priorización te dice qué KPI lidera, y los modos de fallo (duplicados/reaperturas/transfers) te ponen el cinturón de seguridad. Si tu problema es que cada reunión se vuelve discusión de definiciones, el checklist de preparación y el framework de los 7 errores te dan lenguaje común para discutir causas, no egos. Y si el negocio te pide comparar sucursales “porque hay que decidir recortes o inversión”, decisión por reglas vs. ranking evita que el premio se lo lleve quien aprendió a jugar el KPI.
Reglas de decisión: qué KPI manda según el objetivo
Piensa en “KPI líder” y “límites de seguridad”. El líder es el que te guía; los límites evitan que ganes por trampas.
Si el objetivo es costo, mira productividad por hora abierta y por canal, con límites de seguridad para transfers y reaperturas. Si el objetivo es calidad, mira reaperturas y reclamos por 1000: el SLA queda como guardrail, no como trofeo. Si el objetivo es retención, mira resolución real por cliente y tiempo a solución, no tiempo a cierre. Si el objetivo es cumplimiento, mira SLA y backlog, pero acompáñalo con muestreo para evitar cierres artificiales.
Dos reglas anti ranking ciego que evitan accidentes: si el mix de canal difiere más de 20 puntos entre sucursales, compara por canal, no agregado. Y si el volumen difiere más de 5 veces, usa ratios por 1000 y percentiles, no solo promedio.
Tip práctico #5: define antes de la reunión qué KPI es “decisión” y cuáles son “guardrails”. Si lo defines después de ver los resultados, es humano… pero también es el inicio de la política.
Checklist de “señal sucia” antes de la reunión (10 a 15 minutos)
No necesitas una auditoría forense para evitar decisiones tontas. Necesitas un “olfato” mínimo: confirma si hubo cambios de CRM/etiquetado, si el mix de canal cambió fuerte, si hubo campañas/feriados/quincena, si el volumen entre sucursales está desbalanceado, y si se movieron raro casos por cliente único, reaperturas y transfers. Si dos o tres de esas señales se encienden, la reunión no es de ranking: es de diagnóstico.
Qué llevarte hoy: 3 decisiones para esta semana (sin rehacer todo tu reporting)
Si esto se queda como documento bonito, no sirvió. Lo que funciona es cambiar la conversación en la próxima reunión.
La idea no es “rehacer todo tu reporting”. Es elegir tres decisiones pequeñas que mueven el sistema: definición común, normalización suficiente y control de señal sucia.
Decisión 1: una definición mínima común y un glosario vivo
Objetivo: que todas las sucursales digan lo mismo cuando dicen conversación, caso y resuelto.
No perfecto: consistente. Las excepciones locales se documentan, no se improvisan. Y si hay cambios (CRM, reglas, etiquetado), se anuncian como “evento” que afectará comparabilidad por un periodo.
Tip práctico #6: trata el glosario como “producto”: versión, fecha y dueño. Sin dueño, el glosario se vuelve folclore.
Decisión 2: una normalización suficiente (y un freno explícito)
Elige 2 normalizaciones oficiales (por ejemplo, por 1000 interacciones y por hora abierta) y una regla simple de cohortes para campañas.
Declara, explícitamente, cuándo está prohibido el ranking agregado: cuando el mix de canal es muy distinto o cuando hay diferencias de volumen enormes. Ese “freno” evita la tentación de forzar comparaciones injustas solo porque el comité quiere un número único.
Decisión 3: un control anti “señal sucia” (muestreo más excepciones)
Define un muestreo mensual mínimo para outliers, transfers y reaperturas, y una nota corta de excepciones: qué cambió, qué impacto se espera en el KPI y desde cuándo. Cuando haces esto, dejas de perseguir fantasmas y empiezas a discutir causas.
Advertencia final (la más cara): si pagas bonos por ganar el KPI, te van a ganar el KPI. A veces con excelencia real. A veces con creatividad.
Tu trabajo es que el sistema premie lo que de verdad mejora al cliente, no lo que se ve bonito en la gráfica.
| Estrategia de asignación | Mejor para | Ventajas | Riesgos | Recomendado cuando |
|---|---|---|---|---|
| Regla de priorización por objetivo (ej: contención) | Mercados maduros, alta competencia | Retención, minimiza fugas, foco recursos | Descuidar crecimiento, estancamiento | Costo de adquisición de cliente (CAC) muy alto |
| Checklist de preparación de reunión | Evitar discusiones improductivas | Datos consistentes, roles claros, detecta sesgos | Burocrático, requiere disciplina | Historial de reuniones sin decisiones o datos inconsistentes |
| Tabla framework de los 7 errores | Diagnosticar fallas en la comparación | Lenguaje común, identifica problemas, estandariza | Complejo inicial, requiere capacitación | Necesidad de estandarizar análisis y evitar errores recurrentes |
| Normalización de contexto (horarios, estacionalidad) | Comparar sucursales con realidades operativas distintas | Resultados justos, accionables, reduce sesgos | Requiere datos detallados, modelos complejos, lento | Sucursales en zonas geográficas o flujos de clientes muy diferentes |
| Decisión por reglas vs. ranking | Decisiones objetivas, estratégicas | Evita subjetividad, alinea con objetivos | Reglas rígidas si no se revisan, deben ser flexibles | Asignación de recursos o evaluación de desempeño transparente |
| Detección de modos de fallo (duplicados, reaperturas) | Asegurar integridad de KPIs | Evita inflar/deflactar métricas, mejora confianza en datos | Sistemas de monitoreo robustos, auditorías constantes | KPIs con variaciones inexplicables o sospecha de datos sucios |
Fuentes
- eldigitaldepanama.com — eldigitaldepanama.com
- emprendedor.com — emprendedor.com
- infobae.com — infobae.com

