Descripción

La Ley de Goodhart es un principio que advierte sobre los peligros de utilizar métricas para dirigir comportamientos. Su definición más famosa y sencilla es:

Cuando una medida se convierte en un objetivo, deja de ser una buena medida.

Esta frase, popularizada por la antropóloga Marilyn Strathern, resume un fenómeno psicológico y económico: en cuanto las personas saben que serán evaluadas según un número específico, harán todo lo posible para «optimizar» ese número, incluso si eso significa sacrificar el propósito real que había detrás.

La ley la formuló el economista Charles Goodhart en la década de 1970. Inicialmente, se refería a cuestiones de estadística, pero posteriormente se ha ido aplicando a otras materias y especialmente al campo del análisis económico.

Su formulación original planteaba que «cualquier regularidad estadística observada tenderá a desplomarse una vez se presione para utilizarla con propósitos de control».

Causas

La Ley de Goodhart ocurre por dos razones principales:

  • El «juego» del sistema: Los seres humanos somos ingeniosos. Si damos a alguien un incentivo basado en un número, esa persona encontrará el camino más corto hacia dicho número, aunque no sea el camino que deseábamos.

  • Confundir el indicador con el éxito: Una métrica suele ser solo un proxy (un sustituto) de la realidad. Por ejemplo, una buena nota en un examen es un indicador de aprendizaje, pero no es el aprendizaje. Si el objetivo es solo la nota, el estudiante copiará o memorizará sin entender y la nota dejará de ser una medida útil de su conocimiento.

Cómo evitar que ocurra

No se trata de dejar de medir, sino de medir con inteligencia.

Uso de métricas múltiples

No deberíamos depender de un solo número; si medimos velocidad, midamos también calidad.

Métricas «ciegas»

Observemos los indicadores sin que las personas sepan exactamente qué estamos midiendo para evitar que alteren su comportamiento.

Enfoque en resultados, no solo en procesos

Tengamos siempre presente cuál es el objetivo final y ajustemos las métricas si vemos que están incentivando comportamientos negativos.

Ejemplos

En la India colonial, el gobierno británico quería reducir la población de cobras. Ofrecieron una recompensa por cada piel de cobra entregada.

  • La medida: Número de cobras muertas.

  • El resultado: La gente empezó a criar cobras en sus casas para matarlas y cobrar la recompensa. Cuando el gobierno canceló el programa, los criadores soltaron a las serpientes y terminó habiendo más cobras que al principio.

Se dice que en la antigua Unión Soviética una fábrica de clavos fue evaluada por la cantidad de clavos producidos. ¿Qué hicieron? Fabricaron miles de clavos diminutos e inútiles para cumplir la cuota. Cuando el gobierno cambió la métrica al peso total, la fábrica empezó a hacer clavos gigantes y pesadísimos que tampoco servían para nada.

Si a un empleado de un call center se le mide únicamente por el tiempo promedio de llamada (cosa que, efectivamente, ocurre), el empleado colgará a los clientes con problemas difíciles antes de resolverlos, solo para que su estadística se mantenga baja.

Sinónimos:
Goodhart's Law
Categorías: Teoría