miércoles, 5 de marzo de 2025

CÓMO LIDERARNOS EN SITUACIONES INCIERTAS

 


Marlene Chism en SmartBrief on Leadership del pasado 3 de marzo plantea que durante las disrupciones los líderes deben centrarse en el crecimiento, la resiliencia y el discernimiento.

En el núcleo del gran liderazgo está el auto-liderazgo. Como dijo William Penn: “Ningún hombre puede dirigir a otros si no se puede dirigir a sí mismo”. Dirigirnos durante la disrupción  y la incertidumbre es el mayor reto al que nos enfrentamos a la hora de liderarnos a nosotros mismos y a los demás. Es fácil ceder ante la voz interior que amenaza nuestra estabilidad. El camino de menor resistencia es mostrarnos impulsivos durante los conflictos, es culpar a la situación política o mundial y a las circunstancias y ponerlas como excusas para limitar nuestros esfuerzos.

La autora recomienda como principios universales de auto-liderazgo:

1.- Gestionar nuestros impulsos

Una buena toma de decisiones es posible cuando trabajamos desde la corteza prefrontal. Cuando estamos comprometidos emocionalmente o mentalmente tomamos decisiones impulsivas. No tenemos que preocuparnos siempre que no dañemos a alguien. Debemos buscar el apoyo y el descanso que necesitemos para mantener nuestra capacidad durante tiempos difíciles.

2.- Aceptar la imperfección

Aún cuando tomemos decisiones que no sean totalmente perfectas no debemos machacarnos por ello. Debemos disfrutar de los sorprendentes beneficios del autoconocimiento y percibir los efectos y reacciones de nuestras elecciones.

Las decisiones impulsivas nos recuerdan que somos humanos y cómo las emociones afectan la toma de decisiones. Siempre que nadie quede dañado podemos tomar nuestras decisiones imperfectas como lecciones que nos da la vida para mejorar nuestro autoconocimiento y como medio para llegar a tomar mejores decisiones.

3.- Ir más allá de nuestros límites

En su libro “From conflict to courage” la autora habla de construir capacidad de conflicto que consiste en buscar la autoexpansión  e ir más allá de los límites autopercibidos. Como líderes si queremos realmente crecer debemos trabajar para superar retos internos y para ello podemos marcarnos metas y crear una nueva visión de nosotros mismos.

Tenemos que ser conscientes de que el liderazgo no se puede considerar como tal sin el autoliderazgo. Por tanto debemos constantemente desafiar a la voz interior y negarnos a dejar de crecer. El crecimiento viene siempre de ir más allá de nuestra zona de confort, sea una recuperación física o se trate de desarrollo profesional.

4.- Seleccionar bien a quién escuchamos

Si un consejo que nos den, aunque sea a través de mentoring o de coaching de liderazgo, no nos atrae instintivamente debemos prestar atención porque puede ser que algo no está bien alineado. Todas las personas tienen una opinión, pero ésta no tiene que ser siempre válida.

Para un buen liderazgo el discernimiento y el pensamiento crítico son cruciales. Debemos mantenernos fieles a nosotros mismos porque eventualmente cualquier consejo que sigamos nos va a afectar. Debemos confiar en nuestro instinto, buscar el consejo de  los expertos y evitar el ruido de las opiniones mal informadas.

5.- Controlar nuestro patrón mental y nuestro foco

El camino al éxito nunca es recto. Habrá días en las que nos de la impresión de que vamos como en una espiral hacia abajo, pero no debemos sucumbir ante la tentación de caer en un estado depresivo. No comprar la historia que nos estamos diciendo de que la situación no va a mejorar o que está durando mucho. Eliminar cualquier estresor innecesario. Alinearnos hacia nuestro resultado deseado en lugar de dejar que los demás nos distraigan con los suyos.

El liderazgo debe centrarse en la alineación.  Dónde ponemos nuestra atención va a ser dónde pongamos nuestra energía. Los líderes saben que los patrones mentales moldean los resultados, por lo que debemos centrarnos en aquello que promueva el progreso, no en aquello que los impide.

El progreso en un objetivo que merezca la pena puede parecer lento, pero al final consigue sus frutos. Cuando las cosas parece que se estancan la clave es la persistencia. No siempre vamos a ver los resultados inmediatamente, pero si nos mantenemos constantes llegarán los momentos de logros y avances.

 

 

 

domingo, 2 de marzo de 2025

ERRORES COMPLEJOS: CÓMO DETECTARLOS Y CORREGIRLOS

 


Amy Edmondson en “Right kind of wrong. The art of failing well”, que estamos comentando, destaca, tras comentar los errores inteligentes y los errores básicos, la importancia de prevenir y evitar que se produzcan los errores complejos, que se caracterizan por ser la suma de “pequeñas cosas” que se juntan para producir un fallo.

Este tipo de fallos se está incrementando en casi todas las facetas de la vida contemporánea y como en el caso de los fallos básicos, no podemos considerarlos como el tipo correcto de error (analizado en una entrada anterior). Esto no implica que sean censurables. Algunos lo son, pero la mayoría no y como los errores básicos e inteligentes, los fallos complejos pueden convertirse en un buen aprendizaje si somos capaces de sacar todas las enseñanzas que nos pueden ofrecer.

La tendencia a culpar a alguien, a asignar el fallo a un solo individuo o causa es universal. Desgraciadamente reduce la seguridad psicológica necesaria  para practicar la ciencia de fallar bien. Es fácil y natural buscar causas únicas y culpables únicos, pero en el caso de los errores complejos este instinto, no solo no ayuda, sino que resulta inexacto. También, dificulta el poder hablar abiertamente y lógicamente sobre lo que ha pasado realmente y sobre cómo hacerlo mejor la vez siguiente. Por tanto, hay que destacar que un entorno psicológicamente seguro, en el que las personas saben que no serán culpabilizadas por los errores o por los resultados decepcionantes, es el cimiento que permite, tanto a las organizaciones como a las familias, que experimenten menos errores del tipo incorrecto y más del correcto.

Evidentemente esto no implica que las personas no se tengan que responsabilizar por sus acciones. Los individuos deben enfrentarse a las consecuencias  de los errores para evitar crear una cultura muy laxa. Si las personas no son responsabilizadas por sus fallos no tendrían una motivación para mejorar, en muchos casos. La preocupación por esta cuestión se basa en una falsa dicotomía. En la actualidad una cultura que fomente el que sea seguro admitir los errores, puede  ( y en entornos de alto riesgo debe), coexistir con altos estándares de desempeño. Una cultura de la culpa sirve primariamente para asegurar que las personas no hablen de los problemas en el tiempo necesario para corregirlos, lo cual, obviamente, no ayuda al desempeño. Esta es la razón por la que la notificación libre de culpa es tan valiosa. La rápida información, sin ningún tipo de inhibición, sobre  anomalías, es vital para un alto desempeño en cualquier contexto dinámico.

Mientras los fallos básicos presentan problemas con soluciones razonablemente sencillas a las causas individuales, los fallos complejos son arquetípicamente diferentes. Suelen ser prevalentes en entornos como las urgencias de los hospitales y cadenas de suministros globales porque múltiples personas y factores interactúan de formas bastante impredecibles. Los fenómenos meteorológicos, con su volatilidad creciente, son también un caldo de cultivo para los errores complejos.

Los fallos complejos aparecen en entornos familiares, lo que les distingue de los errores inteligentes y, a pesar de resultar familiares, estos escenarios presentan un nivel de complejidad en el que múltiples factores pueden interactuar de forma inesperada. Normalmente, este tipo de fallos suelen venir precedidos por avisos sutiles y suelen incluir, al menos, un factor externo, aparentemente incontrolable.

Suelen presentarse en entornos donde podemos encontrar gran cantidad de conocimientos y experiencias previas. Es esta familiaridad la que hace que sean tan perniciosos. En situaciones familiares sentimos que tenemos más control del  que realmente tenemos, por ejemplo conducir de vuelta a casa (algo familiar), a pesar de haber consumido un exceso de alcohol en una fiesta, es fácil que nos parezca algo sencillo y sintamos la falsa confianza y seguridad de que podemos hacerlo correctamente. Debemos estar alerta ante situaciones en las que decimos: ”puedo hacer esto con los ojos cerrados o dormido”. El exceso de confianza es un precursor tanto de los fallos básicos, como de los complejos.

Los fallos complejos tienen más de una causa, ninguna de las cuales, por sí sola, produce el fallo. Normalmente una mezcla de factores internos, como los relacionados con los procedimientos y habilidades, colisionan con factores externos, como pueden ser el tiempo o un retraso en una entrega de suministros. En ocasiones, los múltiples factores interactúan exacerbándose unos a otros y otras veces se mezclan entre sí

En ocasiones, la línea que existe entre un fallo básico y uno complejo se difumina. Lo que en un principio parece un fallo básico, como erróneamente cargar un arma con una bala normal, en lugar de con una de fogueo, se convierte, tras un examen más minucioso en uno complejo, cuando la causa obvia inicial única, revela causas detrás de ella. Por esta razón el centrarnos en culpar a una sola causa nos puede despistar, ya que implica que no tenemos que examinar otros posibles factores contribuyentes meticulosamente, lo cual es esencial para prevenir futuros errores complejos.

Los errores complejos, como hemos comentado suelen venir precedidos de pequeñas señales de advertencia que, con frecuencia, pasan desapercibidas o son ignoradas o minimizadas. Entender las cusas por las que frecuentemente no observamos las señales que nos avisan de posibles fallos es crucial para su prevención.

Un análisis exhaustivo de un fallo complejo normalmente identifica señales no detectadas, al tiempo que nos facilita una comprensión más profunda de quién y qué han sido los responsables del mismo.

El resquicio de esperanza que tenemos ante las “tormentas perfectas” que desencadenan fallos complejos es que cada fallo de este tipo presenta múltiples oportunidades de prevenirlo. En ocasiones, debemos retroceder muchas décadas para entender los orígenes de un fallo complejo y para identificar las múltiples oportunidades de prevención ( como en el caso de múltiples accidentes en la navegación aérea).

La causa más obvia de los fallos complejos en la actualidad es la crecientemente compleja tecnología de la información que subyace en todos los aspectos de la vida y el trabajo. Industrias, cadenas de montaje y de abastecimiento y operaciones en muchas otras organizaciones se apoyan y dependen de sofisticados controles computarizados  en los que cualquier pequeño problema técnico en una parte de un sistema puede descontrolarse, ocasionando graves fallos. Las redes sociales han alterado el mundo de los negocios, el político, el de las relaciones, convirtiendo el término “hacerse viral” en algo común y, por ejemplo, el mundo financiero liga a los bancos con los hogares en todos los países, haciendo que seamos vulnerables a cualquier error humano que ocurra en el otro lado del mundo. La interdependencia actual crea nuevas vulnerabilidades porque la interconexión extiende instantáneamente el impacto de pequeños fallos.

Entender cómo los sistemas ocasionan fallos  y, especialmente, qué sistemas son más proclives a tenerlos, ayuda a apartar la culpa de la ecuación al analizar los fallos. También facilita que nos centremos en reducir los fallos cambiando el sistema en lugar de centrarnos en cambiar o reemplazar a una persona que trabaje en ese sistema defectuoso.

Charles Perrow identificó factores de riesgo que hacen que determinados tipos de sistemas  sean más vulnerables a las averías. En su libro “Normal accidents” pone el foco en cómo son los sistemas, más que los individuos, los que producen fallos relevantes. Para Perrow llamar a un accidente “normal”  significa que determinados sistemas funcionan como si esperasen que ocurriesen accidentes, ya que su diseño les hace peligrosos y es simplemente cuestión de tiempo que fallen. Lo describe como la consecuencia previsible de un sistema con una complejidad interactiva y un acoplamiento fuerte. Complejidad interactiva  implica que múltiples partes interaccionan de forma que hace que la consecuencia de las acciones sea difícil de predecir. Y fuerte acoplamiento significa que una acción en una parte del sistema conduce inexorablemente a una reacción en otra parte, sin que sea posible interrumpir la cadena de hechos.

En un hospital, por ejemplo, la asistencia a los pacientes ofrece una considerable complejidad interactiva, como puede ser el caso de un facultativo que prescribe un fármaco que llega al farmacéutico  del centro, que lo envía a planta por medio de otro trabajador y es administrado por personal de enfermería diverso durante la estancia del enfermo en el hospital. Los nexos en esta cadena están holgadamente acoplados, ya que un fallo en una parte del sistema puede ser detectado y corregido en cualquier momento, por lo que en teoría se podía conseguir “cero daño”, pero la realidad muestra que no garantiza el evitar errores complejos, solo que se pueden detectar y evitar antes de que ocurran.

James Reason, experto en errores de la Universidad de Manchester, introdujo en 1990 el “modelo del queso suizo” en el que asimilaba los agujeros del queso a pequeños defectos de los procesos o a errores. Un agujero en un bloque de queso suizo puede ser considerado como un defecto ( un espacio vacío que no contribuye a nuestra nutrición). Afortunadamente estos agujeros son discretos y limitados por lo que dejan al queso intacto. Pero en ocasiones los agujeros se alinean creando un túnel, que facilita que se produzca un accidente.

Imaginar el queso con sus agujeros nos ayuda a apreciar el papel del azar y de la siempre presente oportunidad de detectar y corregir pequeños defectos antes de que se acumulen de forma catastrófica. Reason enfatizaba que los errores en los sistemas son frecuentes pero pueden y normalmente son evitados por las numerosas capas defensivas con que cuentan los sistemas.

Aspirar a cero daños en sistemas complejos como los hospitales no es lo mismo que aspirar a erradicar el error humano. Errar es humano y siempre estarán con nosotros los errores. Pero podemos diseñar sistemas sociales que hagan que todos sean conscientes de la inevitabilidad del error y de la necesidad de detectar y corregirlo antes de que cause un daño. Esto implica entender que los agujeros del queso suizo en ocasiones se alinean, aunque estén separados por el tiempo y la distancia, para crear un túnel a través del cual el error complejo fluye sin que le detengan.

Los errores complejos catastróficos con frecuencia se convierten en las señales de alarma que propician la investigación y el cambio en la formación, la tecnología o las regulaciones, para evitar que se vuelvan a repetir.

Reducir los fallos complejos comienza por prestar atención a lo que la autora llama “amenazas ambiguas” , ya que mientras las amenazas claras, como puede ser el aviso de un huracán de gran fuerza, impulsan a acciones correctivas ( como la evacuación de las casas), tendemos a quitar importancia a las amenazas ambiguas, puesto que pueden convertirse en verdaderas amenazas de errores o quedarse en nada. Es natural y más agradable asumir que nada está mal y adoptar una actitud de espera y observación.

Para contrarrestar nuestra tendencia a minimizar las amenazas ambiguas podemos pensar en la ventana de oportunidad en la que la recuperación todavía es posible antes de que ocurra un fallo complejo. La ventana se abre cuando alguien detecta una señal, aunque sea débil, de que un fallo puede ocurrir y se cierra cuando éste se produce. Esta ventana puede durar de minutos a meses y cuando se reconoce ofrece una oportunidad crucial de identificar, evaluar y responder, primero aprendiendo más de lo que está pasando y posteriormente actuando correctivamente.

Es importante, también, que cambiemos nuestra actitud en relación a las falsas alarmas y apreciar cuando los demás nos exponen sus preocupaciones, aunque éstas se muestren luego como reales o imaginarias. Agradecer a las personas que adopten el micro- riesgo de hablar aunque no tengan la certidumbre, refuerza el comportamiento que puede ayudar a evitar accidentes serios.

Edmondson recomienda seguir tres prácticas para ayudar a prevenir los errores complejos. Éstas son:

1.- Enfatizar de forma explícita la complejidad o novedad de una situación, para no esperar siempre que las cosas van a ir bien.

2.- Amplificar, en lugar de minimizar o suprimir las señales débiles de alarma. No significa que exageremos o hablemos de ellas incesantemente, sino que nos aseguremos que esa señal sea percibida.

3.- Practicar cómo detectar y corregir errores y crear una cultura en la que sea seguro hablar de ellos y  que nos permita responder ante el error humano y los eventos inesperados con rapidez y elegancia.