Amy Edmondson en “Right kind of wrong. The
art of failing well”, que estamos comentando, destaca, tras comentar los errores
inteligentes y los errores básicos, la importancia de prevenir y evitar que se
produzcan los errores complejos, que se caracterizan por ser la suma de “pequeñas
cosas” que se juntan para producir un fallo.
Este tipo de fallos se
está incrementando en casi todas las facetas de la vida contemporánea y como en
el caso de los fallos básicos, no podemos considerarlos como el tipo correcto
de error (analizado en una entrada anterior). Esto no implica que sean censurables.
Algunos lo son, pero la mayoría no y como los errores básicos e inteligentes,
los fallos complejos pueden convertirse en un buen aprendizaje si somos capaces
de sacar todas las enseñanzas que nos pueden ofrecer.
La tendencia a culpar a
alguien, a asignar el fallo a un solo individuo o causa es universal. Desgraciadamente
reduce la seguridad psicológica necesaria
para practicar la ciencia de fallar bien. Es fácil y natural buscar
causas únicas y culpables únicos, pero en el caso de los errores complejos este
instinto, no solo no ayuda, sino que resulta inexacto. También, dificulta el
poder hablar abiertamente y lógicamente sobre lo que ha pasado realmente y
sobre cómo hacerlo mejor la vez siguiente. Por tanto, hay que destacar que un
entorno psicológicamente seguro, en el que las personas saben que no serán
culpabilizadas por los errores o por los resultados decepcionantes, es el
cimiento que permite, tanto a las organizaciones como a las familias, que
experimenten menos errores del tipo incorrecto y más del correcto.
Evidentemente esto no
implica que las personas no se tengan que responsabilizar por sus acciones. Los
individuos deben enfrentarse a las consecuencias de los errores para evitar crear una cultura
muy laxa. Si las personas no son responsabilizadas por sus fallos no tendrían
una motivación para mejorar, en muchos casos. La preocupación por esta cuestión
se basa en una falsa dicotomía. En la actualidad una cultura que fomente el que
sea seguro admitir los errores, puede (
y en entornos de alto riesgo debe), coexistir con altos estándares de
desempeño. Una cultura de la culpa sirve primariamente para asegurar que las personas
no hablen de los problemas en el tiempo necesario para corregirlos, lo cual, obviamente,
no ayuda al desempeño. Esta es la razón por la que la notificación libre de
culpa es tan valiosa. La rápida información, sin ningún tipo de inhibición,
sobre anomalías, es vital para un alto
desempeño en cualquier contexto dinámico.
Mientras los fallos
básicos presentan problemas con soluciones razonablemente sencillas a las
causas individuales, los fallos complejos son arquetípicamente diferentes.
Suelen ser prevalentes en entornos como las urgencias de los hospitales y
cadenas de suministros globales porque múltiples personas y factores
interactúan de formas bastante impredecibles. Los fenómenos meteorológicos, con
su volatilidad creciente, son también un caldo de cultivo para los errores
complejos.
Los fallos complejos
aparecen en entornos familiares, lo que les distingue de los errores
inteligentes y, a pesar de resultar familiares, estos escenarios presentan un
nivel de complejidad en el que múltiples factores pueden interactuar de forma
inesperada. Normalmente, este tipo de fallos suelen venir precedidos por avisos
sutiles y suelen incluir, al menos, un factor externo, aparentemente
incontrolable.
Suelen presentarse en
entornos donde podemos encontrar gran cantidad de conocimientos y experiencias
previas. Es esta familiaridad la que hace que sean tan perniciosos. En
situaciones familiares sentimos que tenemos más control del que realmente
tenemos, por ejemplo conducir de vuelta a casa (algo familiar), a pesar de
haber consumido un exceso de alcohol en una fiesta, es fácil que nos parezca
algo sencillo y sintamos la falsa confianza y seguridad de que podemos hacerlo
correctamente. Debemos estar alerta ante situaciones en las que decimos: ”puedo
hacer esto con los ojos cerrados o dormido”. El exceso de confianza es un
precursor tanto de los fallos básicos, como de los complejos.
Los fallos complejos
tienen más de una causa, ninguna de las cuales, por sí sola, produce el fallo.
Normalmente una mezcla de factores internos, como los relacionados con los procedimientos
y habilidades, colisionan con factores externos, como pueden ser el tiempo o un
retraso en una entrega de suministros. En ocasiones, los múltiples factores
interactúan exacerbándose unos a otros y otras veces se mezclan entre sí
En ocasiones, la línea
que existe entre un fallo básico y uno complejo se difumina. Lo que en un
principio parece un fallo básico, como erróneamente cargar un arma con una bala
normal, en lugar de con una de fogueo, se convierte, tras un examen más
minucioso en uno complejo, cuando la causa obvia inicial única, revela causas
detrás de ella. Por esta razón el centrarnos en culpar a una sola causa nos
puede despistar, ya que implica que no tenemos que examinar otros posibles
factores contribuyentes meticulosamente, lo cual es esencial para prevenir
futuros errores complejos.
Los errores complejos,
como hemos comentado suelen venir precedidos de pequeñas señales de advertencia
que, con frecuencia, pasan desapercibidas o son ignoradas o minimizadas.
Entender las cusas por las que frecuentemente no observamos las señales que nos
avisan de posibles fallos es crucial para su prevención.
Un análisis exhaustivo
de un fallo complejo normalmente identifica señales no detectadas, al tiempo
que nos facilita una comprensión más profunda de quién y qué han sido los
responsables del mismo.
El resquicio de
esperanza que tenemos ante las “tormentas perfectas” que desencadenan fallos
complejos es que cada fallo de este tipo presenta múltiples oportunidades de
prevenirlo. En ocasiones, debemos retroceder muchas décadas para entender los
orígenes de un fallo complejo y para identificar las múltiples oportunidades de
prevención ( como en el caso de múltiples accidentes en la navegación aérea).
La causa más obvia de
los fallos complejos en la actualidad es la crecientemente compleja tecnología
de la información que subyace en todos los aspectos de la vida y el trabajo. Industrias,
cadenas de montaje y de abastecimiento y operaciones en muchas otras
organizaciones se apoyan y dependen de sofisticados controles computarizados en los que cualquier pequeño problema técnico en
una parte de un sistema puede descontrolarse, ocasionando graves fallos. Las
redes sociales han alterado el mundo de los negocios, el político, el de las
relaciones, convirtiendo el término “hacerse viral” en algo común y, por
ejemplo, el mundo financiero liga a los bancos con los hogares en todos los países,
haciendo que seamos vulnerables a cualquier error humano que ocurra en el otro
lado del mundo. La interdependencia actual crea nuevas vulnerabilidades porque
la interconexión extiende instantáneamente el impacto de pequeños fallos.
Entender cómo los sistemas
ocasionan fallos y, especialmente, qué
sistemas son más proclives a tenerlos, ayuda a apartar la culpa de la ecuación
al analizar los fallos. También facilita que nos centremos en reducir los
fallos cambiando el sistema en lugar de centrarnos en cambiar o reemplazar a
una persona que trabaje en ese sistema defectuoso.
Charles Perrow identificó factores de riesgo que hacen que determinados tipos de
sistemas sean más vulnerables a las
averías. En su libro “Normal accidents” pone el foco en cómo son los sistemas,
más que los individuos, los que producen fallos relevantes. Para Perrow llamar a un
accidente “normal” significa que
determinados sistemas funcionan como si esperasen que ocurriesen accidentes, ya
que su diseño les hace peligrosos y es simplemente cuestión de tiempo que
fallen. Lo describe como la consecuencia previsible de un sistema con una
complejidad interactiva y un acoplamiento fuerte. Complejidad interactiva implica que múltiples partes interaccionan de
forma que hace que la consecuencia de las acciones sea difícil de predecir. Y fuerte
acoplamiento significa que una acción en una parte del sistema conduce inexorablemente
a una reacción en otra parte, sin que sea posible interrumpir la cadena de
hechos.
En un hospital, por
ejemplo, la asistencia a los pacientes ofrece una considerable complejidad
interactiva, como puede ser el caso de un facultativo que prescribe un fármaco
que llega al farmacéutico del centro,
que lo envía a planta por medio de otro trabajador y es administrado por personal
de enfermería diverso durante la estancia del enfermo en el hospital. Los nexos
en esta cadena están holgadamente acoplados, ya que un fallo en una parte del
sistema puede ser detectado y corregido en cualquier momento, por lo que en
teoría se podía conseguir “cero daño”, pero la realidad muestra que no
garantiza el evitar errores complejos, solo que se pueden detectar y evitar
antes de que ocurran.
James Reason, experto
en errores de la Universidad de Manchester, introdujo en 1990 el “modelo del
queso suizo” en el que asimilaba los agujeros del queso a pequeños defectos de
los procesos o a errores. Un agujero en un bloque de queso suizo puede ser
considerado como un defecto ( un espacio vacío que no contribuye a nuestra
nutrición). Afortunadamente estos agujeros son discretos y limitados por lo que
dejan al queso intacto. Pero en ocasiones los agujeros se alinean creando un túnel,
que facilita que se produzca un accidente.
Imaginar el queso con sus agujeros nos ayuda a apreciar el papel del azar y de la siempre presente
oportunidad de detectar y corregir pequeños defectos antes de que se acumulen
de forma catastrófica. Reason enfatizaba que los errores en los sistemas son
frecuentes pero pueden y normalmente son evitados por las numerosas capas
defensivas con que cuentan los sistemas.
Aspirar a cero daños en
sistemas complejos como los hospitales no es lo mismo que aspirar a erradicar
el error humano. Errar es humano y siempre estarán con nosotros los errores. Pero
podemos diseñar sistemas sociales que hagan que todos sean conscientes de la
inevitabilidad del error y de la necesidad de detectar y corregirlo antes de
que cause un daño. Esto implica entender que los agujeros del queso suizo en
ocasiones se alinean, aunque estén separados por el tiempo y la distancia, para
crear un túnel a través del cual el error complejo fluye sin que le detengan.
Los errores complejos
catastróficos con frecuencia se convierten en las señales de alarma que
propician la investigación y el cambio en la formación, la tecnología o las
regulaciones, para evitar que se vuelvan a repetir.
Reducir los fallos complejos
comienza por prestar atención a lo que la autora llama “amenazas ambiguas” , ya
que mientras las amenazas claras, como puede ser el aviso de un huracán de gran
fuerza, impulsan a acciones correctivas ( como la evacuación de las casas),
tendemos a quitar importancia a las amenazas ambiguas, puesto que pueden
convertirse en verdaderas amenazas de errores o quedarse en nada. Es natural y
más agradable asumir que nada está mal y adoptar una actitud de espera y
observación.
Para contrarrestar
nuestra tendencia a minimizar las amenazas ambiguas podemos pensar en la
ventana de oportunidad en la que la recuperación todavía es posible antes de
que ocurra un fallo complejo. La ventana se abre cuando alguien detecta una
señal, aunque sea débil, de que un fallo puede ocurrir y se cierra cuando éste
se produce. Esta ventana puede durar de minutos a meses y cuando se reconoce
ofrece una oportunidad crucial de identificar, evaluar y responder, primero
aprendiendo más de lo que está pasando y posteriormente actuando
correctivamente.
Es importante, también,
que cambiemos nuestra actitud en relación a las falsas alarmas y apreciar
cuando los demás nos exponen sus preocupaciones, aunque éstas se muestren luego
como reales o imaginarias. Agradecer a las personas que adopten el micro- riesgo
de hablar aunque no tengan la certidumbre, refuerza el comportamiento que puede
ayudar a evitar accidentes serios.
Edmondson recomienda
seguir tres prácticas para ayudar a prevenir los errores complejos. Éstas son:
1.- Enfatizar de forma
explícita la complejidad o novedad de una situación, para no esperar siempre
que las cosas van a ir bien.
2.- Amplificar, en
lugar de minimizar o suprimir las señales débiles de alarma. No significa que
exageremos o hablemos de ellas incesantemente, sino que nos aseguremos que esa
señal sea percibida.
3.- Practicar cómo
detectar y corregir errores y crear una cultura en la que sea seguro hablar de
ellos y que nos permita responder ante el error humano y los eventos inesperados
con rapidez y elegancia.