Páginas

domingo, 2 de marzo de 2025

ERRORES COMPLEJOS: CÓMO DETECTARLOS Y CORREGIRLOS

 


Amy Edmondson en “Right kind of wrong. The art of failing well”, que estamos comentando, destaca, tras comentar los errores inteligentes y los errores básicos, la importancia de prevenir y evitar que se produzcan los errores complejos, que se caracterizan por ser la suma de “pequeñas cosas” que se juntan para producir un fallo.

Este tipo de fallos se está incrementando en casi todas las facetas de la vida contemporánea y como en el caso de los fallos básicos, no podemos considerarlos como el tipo correcto de error (analizado en una entrada anterior). Esto no implica que sean censurables. Algunos lo son, pero la mayoría no y como los errores básicos e inteligentes, los fallos complejos pueden convertirse en un buen aprendizaje si somos capaces de sacar todas las enseñanzas que nos pueden ofrecer.

La tendencia a culpar a alguien, a asignar el fallo a un solo individuo o causa es universal. Desgraciadamente reduce la seguridad psicológica necesaria  para practicar la ciencia de fallar bien. Es fácil y natural buscar causas únicas y culpables únicos, pero en el caso de los errores complejos este instinto, no solo no ayuda, sino que resulta inexacto. También, dificulta el poder hablar abiertamente y lógicamente sobre lo que ha pasado realmente y sobre cómo hacerlo mejor la vez siguiente. Por tanto, hay que destacar que un entorno psicológicamente seguro, en el que las personas saben que no serán culpabilizadas por los errores o por los resultados decepcionantes, es el cimiento que permite, tanto a las organizaciones como a las familias, que experimenten menos errores del tipo incorrecto y más del correcto.

Evidentemente esto no implica que las personas no se tengan que responsabilizar por sus acciones. Los individuos deben enfrentarse a las consecuencias  de los errores para evitar crear una cultura muy laxa. Si las personas no son responsabilizadas por sus fallos no tendrían una motivación para mejorar, en muchos casos. La preocupación por esta cuestión se basa en una falsa dicotomía. En la actualidad una cultura que fomente el que sea seguro admitir los errores, puede  ( y en entornos de alto riesgo debe), coexistir con altos estándares de desempeño. Una cultura de la culpa sirve primariamente para asegurar que las personas no hablen de los problemas en el tiempo necesario para corregirlos, lo cual, obviamente, no ayuda al desempeño. Esta es la razón por la que la notificación libre de culpa es tan valiosa. La rápida información, sin ningún tipo de inhibición, sobre  anomalías, es vital para un alto desempeño en cualquier contexto dinámico.

Mientras los fallos básicos presentan problemas con soluciones razonablemente sencillas a las causas individuales, los fallos complejos son arquetípicamente diferentes. Suelen ser prevalentes en entornos como las urgencias de los hospitales y cadenas de suministros globales porque múltiples personas y factores interactúan de formas bastante impredecibles. Los fenómenos meteorológicos, con su volatilidad creciente, son también un caldo de cultivo para los errores complejos.

Los fallos complejos aparecen en entornos familiares, lo que les distingue de los errores inteligentes y, a pesar de resultar familiares, estos escenarios presentan un nivel de complejidad en el que múltiples factores pueden interactuar de forma inesperada. Normalmente, este tipo de fallos suelen venir precedidos por avisos sutiles y suelen incluir, al menos, un factor externo, aparentemente incontrolable.

Suelen presentarse en entornos donde podemos encontrar gran cantidad de conocimientos y experiencias previas. Es esta familiaridad la que hace que sean tan perniciosos. En situaciones familiares sentimos que tenemos más control del  que realmente tenemos, por ejemplo conducir de vuelta a casa (algo familiar), a pesar de haber consumido un exceso de alcohol en una fiesta, es fácil que nos parezca algo sencillo y sintamos la falsa confianza y seguridad de que podemos hacerlo correctamente. Debemos estar alerta ante situaciones en las que decimos: ”puedo hacer esto con los ojos cerrados o dormido”. El exceso de confianza es un precursor tanto de los fallos básicos, como de los complejos.

Los fallos complejos tienen más de una causa, ninguna de las cuales, por sí sola, produce el fallo. Normalmente una mezcla de factores internos, como los relacionados con los procedimientos y habilidades, colisionan con factores externos, como pueden ser el tiempo o un retraso en una entrega de suministros. En ocasiones, los múltiples factores interactúan exacerbándose unos a otros y otras veces se mezclan entre sí

En ocasiones, la línea que existe entre un fallo básico y uno complejo se difumina. Lo que en un principio parece un fallo básico, como erróneamente cargar un arma con una bala normal, en lugar de con una de fogueo, se convierte, tras un examen más minucioso en uno complejo, cuando la causa obvia inicial única, revela causas detrás de ella. Por esta razón el centrarnos en culpar a una sola causa nos puede despistar, ya que implica que no tenemos que examinar otros posibles factores contribuyentes meticulosamente, lo cual es esencial para prevenir futuros errores complejos.

Los errores complejos, como hemos comentado suelen venir precedidos de pequeñas señales de advertencia que, con frecuencia, pasan desapercibidas o son ignoradas o minimizadas. Entender las cusas por las que frecuentemente no observamos las señales que nos avisan de posibles fallos es crucial para su prevención.

Un análisis exhaustivo de un fallo complejo normalmente identifica señales no detectadas, al tiempo que nos facilita una comprensión más profunda de quién y qué han sido los responsables del mismo.

El resquicio de esperanza que tenemos ante las “tormentas perfectas” que desencadenan fallos complejos es que cada fallo de este tipo presenta múltiples oportunidades de prevenirlo. En ocasiones, debemos retroceder muchas décadas para entender los orígenes de un fallo complejo y para identificar las múltiples oportunidades de prevención ( como en el caso de múltiples accidentes en la navegación aérea).

La causa más obvia de los fallos complejos en la actualidad es la crecientemente compleja tecnología de la información que subyace en todos los aspectos de la vida y el trabajo. Industrias, cadenas de montaje y de abastecimiento y operaciones en muchas otras organizaciones se apoyan y dependen de sofisticados controles computarizados  en los que cualquier pequeño problema técnico en una parte de un sistema puede descontrolarse, ocasionando graves fallos. Las redes sociales han alterado el mundo de los negocios, el político, el de las relaciones, convirtiendo el término “hacerse viral” en algo común y, por ejemplo, el mundo financiero liga a los bancos con los hogares en todos los países, haciendo que seamos vulnerables a cualquier error humano que ocurra en el otro lado del mundo. La interdependencia actual crea nuevas vulnerabilidades porque la interconexión extiende instantáneamente el impacto de pequeños fallos.

Entender cómo los sistemas ocasionan fallos  y, especialmente, qué sistemas son más proclives a tenerlos, ayuda a apartar la culpa de la ecuación al analizar los fallos. También facilita que nos centremos en reducir los fallos cambiando el sistema en lugar de centrarnos en cambiar o reemplazar a una persona que trabaje en ese sistema defectuoso.

Charles Perrow identificó factores de riesgo que hacen que determinados tipos de sistemas  sean más vulnerables a las averías. En su libro “Normal accidents” pone el foco en cómo son los sistemas, más que los individuos, los que producen fallos relevantes. Para Perrow llamar a un accidente “normal”  significa que determinados sistemas funcionan como si esperasen que ocurriesen accidentes, ya que su diseño les hace peligrosos y es simplemente cuestión de tiempo que fallen. Lo describe como la consecuencia previsible de un sistema con una complejidad interactiva y un acoplamiento fuerte. Complejidad interactiva  implica que múltiples partes interaccionan de forma que hace que la consecuencia de las acciones sea difícil de predecir. Y fuerte acoplamiento significa que una acción en una parte del sistema conduce inexorablemente a una reacción en otra parte, sin que sea posible interrumpir la cadena de hechos.

En un hospital, por ejemplo, la asistencia a los pacientes ofrece una considerable complejidad interactiva, como puede ser el caso de un facultativo que prescribe un fármaco que llega al farmacéutico  del centro, que lo envía a planta por medio de otro trabajador y es administrado por personal de enfermería diverso durante la estancia del enfermo en el hospital. Los nexos en esta cadena están holgadamente acoplados, ya que un fallo en una parte del sistema puede ser detectado y corregido en cualquier momento, por lo que en teoría se podía conseguir “cero daño”, pero la realidad muestra que no garantiza el evitar errores complejos, solo que se pueden detectar y evitar antes de que ocurran.

James Reason, experto en errores de la Universidad de Manchester, introdujo en 1990 el “modelo del queso suizo” en el que asimilaba los agujeros del queso a pequeños defectos de los procesos o a errores. Un agujero en un bloque de queso suizo puede ser considerado como un defecto ( un espacio vacío que no contribuye a nuestra nutrición). Afortunadamente estos agujeros son discretos y limitados por lo que dejan al queso intacto. Pero en ocasiones los agujeros se alinean creando un túnel, que facilita que se produzca un accidente.

Imaginar el queso con sus agujeros nos ayuda a apreciar el papel del azar y de la siempre presente oportunidad de detectar y corregir pequeños defectos antes de que se acumulen de forma catastrófica. Reason enfatizaba que los errores en los sistemas son frecuentes pero pueden y normalmente son evitados por las numerosas capas defensivas con que cuentan los sistemas.

Aspirar a cero daños en sistemas complejos como los hospitales no es lo mismo que aspirar a erradicar el error humano. Errar es humano y siempre estarán con nosotros los errores. Pero podemos diseñar sistemas sociales que hagan que todos sean conscientes de la inevitabilidad del error y de la necesidad de detectar y corregirlo antes de que cause un daño. Esto implica entender que los agujeros del queso suizo en ocasiones se alinean, aunque estén separados por el tiempo y la distancia, para crear un túnel a través del cual el error complejo fluye sin que le detengan.

Los errores complejos catastróficos con frecuencia se convierten en las señales de alarma que propician la investigación y el cambio en la formación, la tecnología o las regulaciones, para evitar que se vuelvan a repetir.

Reducir los fallos complejos comienza por prestar atención a lo que la autora llama “amenazas ambiguas” , ya que mientras las amenazas claras, como puede ser el aviso de un huracán de gran fuerza, impulsan a acciones correctivas ( como la evacuación de las casas), tendemos a quitar importancia a las amenazas ambiguas, puesto que pueden convertirse en verdaderas amenazas de errores o quedarse en nada. Es natural y más agradable asumir que nada está mal y adoptar una actitud de espera y observación.

Para contrarrestar nuestra tendencia a minimizar las amenazas ambiguas podemos pensar en la ventana de oportunidad en la que la recuperación todavía es posible antes de que ocurra un fallo complejo. La ventana se abre cuando alguien detecta una señal, aunque sea débil, de que un fallo puede ocurrir y se cierra cuando éste se produce. Esta ventana puede durar de minutos a meses y cuando se reconoce ofrece una oportunidad crucial de identificar, evaluar y responder, primero aprendiendo más de lo que está pasando y posteriormente actuando correctivamente.

Es importante, también, que cambiemos nuestra actitud en relación a las falsas alarmas y apreciar cuando los demás nos exponen sus preocupaciones, aunque éstas se muestren luego como reales o imaginarias. Agradecer a las personas que adopten el micro- riesgo de hablar aunque no tengan la certidumbre, refuerza el comportamiento que puede ayudar a evitar accidentes serios.

Edmondson recomienda seguir tres prácticas para ayudar a prevenir los errores complejos. Éstas son:

1.- Enfatizar de forma explícita la complejidad o novedad de una situación, para no esperar siempre que las cosas van a ir bien.

2.- Amplificar, en lugar de minimizar o suprimir las señales débiles de alarma. No significa que exageremos o hablemos de ellas incesantemente, sino que nos aseguremos que esa señal sea percibida.

3.- Practicar cómo detectar y corregir errores y crear una cultura en la que sea seguro hablar de ellos y  que nos permita responder ante el error humano y los eventos inesperados con rapidez y elegancia.

No hay comentarios:

Publicar un comentario