Es probable que no seas consciente de los límites de tus capacidades, que desestimes los desafíos que yacen por delante, y que estés desinformado de todo lo que puede salir mal. No te preocupes – no estás sólo. Michael Mauboussin

Hace unos días me sumergí en la lectura de un artículo escrito por Mauboussin llamado Smart People, Dumb Decisions [Gente Inteligente, Decisiones Estúpidas] en el número Marzo-Abril 2010 de la revista The Futurist. Me pareció excelente, así que le dediqué energía para traducir al menos una parte en anotaciones que publico en este posteo. Aunque el contenido es bastante extenso, creo que nadar cada tanto en estas aguas nos ayuda a fortalecer nuestra mente con ejercicio saludable. Sé que en este blog en general apunto a darle más de comer al corazón (¿será que por mucho tiempo lo mantuve en ayuno y casi se me muere de inanición?). Ahora me interesa comenzar a compartir algunas ideas con las que también alimento mi cabeza. Espero te aporte valor intelectual y práctico, ya que como dice un amigo: “No hay nada más práctico que una buena teoría”.

A TIEMPO Y DENTRO DEL PRESUPUESTO: QUIZÁS LA PRÓXIMA VEZ

El cerebro se aferra naturalmente a ciertas ilusiones, como el exceso de confianza, el control, y las suposiciones que hacemos sobre el nivel de desafío que nos presentará el futuro. Cuando nuestros cerebros falibles se encuentran con sistemas complejos, las posibilidades de tomar malas decisiones aumenta exponencialmente.

La expresión “cisne negro”, refleja la crítica del filósofo Karl Popper al proceso de inducción. Popper afirma que la observación de muchos cisnes blancos no demuestra que todos los cisnes sean blancos, pero que la observación de un cisne negro demuestra que no todos los cisnes son blancos. Con esta afirmación Popper nos indica que para comprender un fenómeno resulta mejor focalizarse en su falsificación, que en su verificación. [Esto significa que para Popper, constatar una teoría es intentar refutarla mediante un contraejemplo, o sea: demostrar que es falsa. Si no es posible refutarla, dicha teoría queda corroborada, pudiendo ser aceptada provisionalmente, pero nunca verificada.]

La repetición del logro de buenos resultados nos proporciona evidencias para confirmar que nuestra estrategia es buena y que todo está bien. Esta ilusión nos adormece en una sensación injustificada de confianza y nos predispone para una sorpresa (por lo general negativa).

Puede resultar útil tener una leve comprensión de un aspecto del comportamiento de los sistemas complejos llamado “transición de fase”. La transición de fase es donde los pequeños cambios incrementales en las causas detonan efectos a gran escala. El físico Philip Ball llama a este aspecto el “gran pum-ah”. Coloque una bandeja de agua en el congelador y la temperatura desciende hasta el umbral del punto de congelación. El agua sigue siendo un líquido hasta que – ¡pum ah! – se convierte en hielo. Sólo un pequeño cambio incremental de la temperatura conduce a un cambio de líquido a sólido.

El “gran pum-ah” ocurre en muchos sistemas complejos en los que el comportamiento colectivo surge de la interacción de sus partes constituyentes. Es posible encontrar muchos de estos sistemas tanto en el mundo físico como el mundo social. Los ejemplos incluyen de todo, desde el comportamiento de las bolsas de valores hasta la popularidad de los temas músicales exitosos.

La presencia de transiciones de fase invita a que cometamos algunos errores comunes en la toma de decisiones. El primero es el error de la inducción (o cómo ir sacando lógicamente conclusiones generales a partir de observaciones particulares). Aun cuando los filósofos, de Sexto Empiricus a David Hume, nos adviertieron durante siglos en contra de la extrapolación de lo que vemos, nos sigue resultando muy difícil abstenernos de seguir este camino. Para reafirmar lo obvio: en sistemas complejos con transisiones de fase, la inducción falla – a veces con gran espectacularidad.

Para ilustrar este problema, el ex operador de bolsa y autor del best seller The Black Swan, Nassim Taleb relata una historia de Bertrand Russell [adaptada para el público estadounidense] sobre un pavo que es alimentado durante 1.000 días seguidos. La alimentación refuerza en el pavo su sensación de seguridad y bienestar, hasta que un día antes del día de Acción de Gracias le ocurre un evento inesperado. Toda la experiencia del pavo, así como su retroalimentación, es positiva, hasta que de pronto en un instante “el destino” le juega una mala pasada [y termina en el matadero].

El equivalente a la dinámica desafortunada del pavo – un período de prosperidad (el pavo se alimenta), seguido por fuertes pérdidas (el pavo pierde la cabeza) – se produce repetidamente en los negocios. Por ejemplo, Merrill Lynch (adquirida por el Bank of America) sufrió pérdidas en dos años (periodo 2007-2008) superiores en un tercio a los beneficios acumulados por la empresa en 36 años cotizando en bolsa. Tratar con un sistema regido por una ley tan poderosa es como ser alimentado por un granjero que mantiene un hacha escondido a la espalda. Tarde o temprano, el hacha te caerá encima.

Justamente lograr salir de una situación justo antes de la transición de fase – tanto si se trata de retirarse de un juego de póquer antes de que llegue la inevitable mala mano, o de desprenderse de una determinada inversión antes del estallido de una burbuja financiera – es una de las principales motivaciones de quienes buscan, y pagan, información sobre el futuro.

Los seres humanos tenemos un gran apetito por los pronósticos y las predicciones en un amplio espectro de ámbitos, pero hay que reconocer que la exactitud de los pronósticos en sistemas con transiciones de fase es pésima, incluso los realizados por los llamados “expertos” en cada uno de esos ámbitos.

Duncan Watts, un científico de Yahoo Research que realizó un desarrollo original sobre la teoría de redes, dice, “Creemos que existe algo que podemos llamar calidad … y por ende, los resultados que vemos en el mundo reflejan esta calidad. Pero,” añade, “me siento cómodo con la idea de que los resultados que obtenemos son, en gran medida y en la mayoría de los casos, arbitrarios”. El mejor curso de acción es reconocer la naturaleza del sistema y prepararse para todas las contingencias. Pero, ¿cómo hacerlo? Si durante los últimos 900 días estuvimos siendo alimentados por el granjero, ¿cómo anticipamos el punto de inflexión [tipping point]?

Tenemos que tratar con sistemas que se caracterizan por cambios abruptos e imprevisibles y por resultados improbables y extremos. En nuestro tratamiento hacia estos sistemas, somos todos especialmente propensos al error, porque intuitivamente queremos tratar al sistema como si fuera más simple de lo que es y extrapolar el pasado al futuro. Aprendamos a detectar estos sistemas, y cuando nos encontremos con ellos disminuyamos la velocidad de nuestros procesos de toma de decisiones.

Gracias a la insistencia Nassim Taleb, actuamente muchas personas asocian los eventos extremos con el cisne negro. Pero Taleb hace una cuidadosa, aunque desatendida, distinción: Si entendemos el aspecto de la distribución de probabilidades en toda su extensión – cuál es el mejor, el peor, y el más probable de los escenarios – incluso los resultados extremos deberían etiquetarse como cisnes grises, no cisnes negros. Él los llama “eventos extremos modelizables.” De hecho, los científicos realizaron un montón de trabajo para clasificar las distribuciones de los diferentes sistemas, incuyendo el mercado de valores, los actos terroristas, y las fallas en la red de distribución eléctrica. Así que, si se tiene la formación y las herramientas para entender estos sistemas, es posible obtener una visión general de cómo se comportan, aunque no tengamos una manera confiable de predecir un evento específico. La clave está en prepararnos adecuadamente para cualquier evento, extremo o no, que nos pueda arrojar el sistema. La mayor parte de las personas no son arruinadas por cisnes negros – las incógnitas desconocidas -, sino más bien por su falta de preparación para los cisnes grises.

En decisiones que involucran a sistemas con muchas partes que interactúan, los vínculos causales son a menudo imprecisos. Por ejemplo, ¿qué pasará con el cambio climático? ¿Dónde y cuándo será el próximo terremoto? ¿Cuándo surgirá una nueva tecnología? ¿qué pasará con las cosechas en determinada zona?

Warren Buffett dijo: “Prácticamente todas las sorpresas son desagradables.” Tener en cuenta el peor de los escenarios es vital, aunque en tiempos de prosperidad, en general, se pasa por alto.

Hay una paradoja simpatica con la toma de decisiones: Casi todo el mundo se da cuenta de la importancia de estos temas, sin embargo, muy pocas personas los práctican para mejorar. ¿Por qué no entrenamos a los jóvenes estudiantes en la toma de decisiones? ¿Por qué son tan escasos los ejecutivos, los médicos, los abogados, los funcionarios del gobierno, versados en estas grandes ideas?

¿Cuál es la probabilidad de que en las próximas semanas siga estando vivo y que además postee algunas otras reflexiones sobre este tema, y que además también sigas vivo y que además leas esas nuevas reflexiones? ¿Será este acontecimiento un cisne negro? :) Te hago llegar un saludo grande y mis gracias totales por visitar este Puerto Managers.

Share

Hace un par de semanas que comparto mis anotaciones sobre el interesante paper Smart People, Dumb Decisions [Gente Inteligente, Decisiones Estúpidas] de Michael Mauboussin publicado en el número Marzo-Abril 2010 de la revista The Futurist, y aquí va mi traducción libre sobre otra de las ideas allí expuestas.

EL CEREBRO, EL ESTRÉS Y LA EXTRAPOLACIÓN EQUIVOCADA

Un error común en la toma de decisiones es la tendencia a la extrapolación inadecuada de resultados del pasado. Scott Huettel, psicólogo y neurocientífico de la Universidad de Duke, y sus colegas, confirmaron este hallazgo cuando evaluaron a sujetos con una máquina funcional de lectura de imágenes por resonancia magnética (fMRI) a quienes se les mostraba secuencias al azar de círculos y cuadrados. Después de observar un determinado símbolo, la gente no sabía qué esperar a continuación. Pero luego de observar dos símbolos consecutivos, automáticamente extrapolaban el tercero, a pesar de que sabían que la serie era al azar. Dos eventos no pueden marcar una tendencia, pero nuestro cerebro parece creer que sí.

Este error es complejo  porque la mente tiene un deseo profundo por encontrar patrones, y nuestro proceso de predicción es muy rápido (los investigadores lo califican de “automático y obligatorio”). Esta capacidad cerebral de detección de patrones evolucionó a través de los milenios y fue  sumamente útil para la mayor parte de la existencia humana.

“En un entorno natural, casi todos los patrones son de predicción”, dice Huettel. “Por ejemplo, si estás caminando en un bosque y escuchas el crujido de una rama sobre tu cabeza, esto no es una señal artificial, sino que significa que una rama puede estar por caer, y tienes que salir de allí [si deseas preservar tu integridad física]. Por eso, hemos evolucionado para detectar esos patrones. Pero estas relaciones de causalidad no son necesariamente válidas en el mundo tecnológico donde surgen irregularidades, y en el que buscamos patrones donde no existen.”

La extrapolación también pone de relieve otros errores más sutiles de la toma de decisiones. Por ejemplo, proyectar de manera inapropiada el futuro sobre la báse de un número limitado de observaciones desestimando el rol que puede jugar lo altamente improbable [ver Cisnes Negros]. O también los modelos que se basan en resultados históricos que indican, falsamente, que el futuro tendrá características similares a la historia. Vemos como nuestras mentes (o los modelos de construcción anticipatoria que emplean nuestras mentes), no dan lugar a posibilidades inéditas.

Robert Sapolsky, un neurobiólogo de la Universidad de Stanford y experto en estrés, señala que una característica importante de la respuesta de estrés es que desactiva los sistemas corporales orientados plazos más largos y sobrecarga los de respuesta inmediata. No tenés que preocuparte por la digestión, el crecimiento, la prevención de enfermedades, o la reproducción si estás a punto de ser el almuerzo de un león.

Debido a que el estrés aumenta el foco en el aquí y ahora, a las personas estresadas les cuesta pensar en el largo plazo. Un gerente que cree posible perder en lo inmediato su puesto de trabajo tiene poco interés en tomar una decisión que le permitirá estar mucho mejor en tres años. El estrés psicológico crea una sensación de inminencia que inhibe la consideración de las opciones que pagan beneficios lejanos en el tiempo. La respuesta de estrés – tan eficaz para hacer frente a los riesgos del “aquí y ahora” – interfiere con el aparato de toma de decisiones y nos predispone a las malas decisiones.

_______________________________________________________

Articulos previos sobre Smart People, Dumb Decisions

Share

Hace unos días, en el artículo sobre Cisnes Negros, te hablaba del paper Smart People, Dumb Decisions [Gente Inteligente, Decisiones Estúpidas] de Michael Mauboussin publicado en el número Marzo-Abril 2010 de la revista The Futurist, y aquí va mi traducción sobre otra de las ideas allí expresadas.

EL EXCESO DE CONFIANZA: EL FACTOR QUE MÁS EMPOBRECE NUESTRAS DECISIONES

El proceso que seguimos naturalmente para tomar decisiones nos hace vulnerables a determinados errores mentales. Un ejemplo es lo que los psicólogos llaman la “visión interna”, que explica cómo evaluamos problemas focalizándonos en una tarea específica, usando la información que está al alcance de la mano, y haciendo predicciones sobre la base de este conjunto limitado de inputs. Este enfoque es común a todas las formas de planificación y casi siempre nos pinta un cuadro demasiado optimista.

El exceso de confianza, fundamental para la visión interna, suele producirnos tres ilusiones que pueden hacer descarrilar las decisiones: la ilusión de superioridad, la ilusión del optimismo y la ilusión del control.

La superioridad ilusoria

Para presentar la primera ilusión, te invito a que participes (honestamente!) en la siguiente encuesta:

[poll id="6"]
[poll id="7"]
[poll id="8"]

Si eres como la mayoría de la gente, habrás puesto un “sí” a las tres preguntas. Esto demuestra la ilusión de superioridad, y sugiere que las personas sostenemos una visión positiva poco realista de nosotros mismos, ya que es imposible que la mayoría esté por encima del promedio. ;>)

Para citar algunos ejemplos: El College Board invitó a los examinadores de escuelas superiores para que se evalúen a sí mismos siguiendo una serie de criterios.  Ochenta y cinco por ciento se evaluó por encima de la media en llevarse bien con otros, el 70% por encima de la media en su capacidad para dirigir a otros, y el 60% por encima de la media en sus habilidades deportivas. Otra encuesta muestra que más del 80% de la gente se considera mejor automovilista que la media.

Sorprendentemente, las personas menos capaces son, a menudo, quienes tienen las mayores brechas entre lo que piensan que pueden hacer y lo que realmente logran. En otro estudio, los investigadores preguntaron a los sujetos que evaluaran sus probabilidades de éxito en una prueba de gramática. Los que se encontraban en el cuartil inferior en su desempeño gramatical,  habían exagerado dramáticamente su probabilidad, expresando que en la próxima prueba lograrían resultados que los ubicarían en el cuartil superior. Incluso los individuos que reconocían estar por debajo de la media, tendían a minimizar sus carencias asignándole instrascendencia en sus probabilidades futuras.

La optimismo ilusorio

La mayoría de las personas vemos nuestro futuro más brillante que el de los demás. Por ejemplo, investigadores preguntaron a estudiantes universitarios que evalúen sus probabilidades de tener varias buenas y malas experiencias en el transcurso de sus vidas en comparación con sus compañeros. La inmensa mayoría de los estudiantes se mostró propensa a proyectar muchas más buenas experiencias y muchas menos malas experiencias que sus compañeros.

El control ilusorio

Nos comportamos como si los sucesos aleatorios estuviesen sujetos a nuestro control. Veamos el ejemplo de un estudio en el que los investigadores invitaron a dos grupos de empleados de oficina para que participen en un sorteo de lotería, con un costo de $1 y un premio de $50. A uno de los grupos se le permitió elegir sus billetes de lotería, mientras que el otro grupo no tuvo esta opción. Aun cuando la probabilidad de ganar de ambos grupos estaba signada por el azar, los participantes no se comportaron en línea con este hecho.

Antes del sorteo, uno de los investigadores les preguntó a los empleados a qué precio estarían dispuestos a vender sus billetes. La oferta promedio del grupo al que se le permitió elegir los billetes fue de aprox $9, mientras que la oferta del grupo que no tuvo esta opción fue de menos de $2. Las personas que creen tener algún tipo de control perciben que sus probabilidades de éxito son mejores de lo que realmente son. Las personas que no tienen un sentido de control no muestran el mismo sesgo.

La administración de activos financieros puede ser uno de los mejores ejemplos de la ilusión de control. Las investigaciones demuestran que, evaluados en conjunto, los mejores rendimientos de los portfolios de inversiones armados por las más reconocidas administradoras financieros, son a lo largo del tiempo, más bájos que los índices de mercado, un hallazgo conocido por toda empresa de inversión. La razón es bastante sencilla: Los mercados son altamente competitivos, y los administradoras de dinero cobran honorarios que disminuyen las devoluciones al inversionista.

A pesar de esta evidencia, las administradoras de activos se comportan como si pudiesen proporcionar mejores rendimientos que los del mercado. Estas empresas de inversión se basan en la visión interior para justificar sus estrategias.

Una amplia gama de profesionales se respaldan habitualmente en la visión interna para tomar decisiones importantes con resultados que son con frecuencia pobres. Esto no quiere decir que los tomadores de decisiones sean negligentes, ingenuos o maliciosos: Alentados por ilusiones, la mayoría de nosotros creemos estar tomando la decisión correcta y tenemos fe en que los resultados serán satisfactorios.

Espero tus comentarios para debatir estas ideas y enriquecernos mutuamente. Un abrazo.

Share

Es probable que no seas consciente de los límites de tus capacidades, que desestimes los desafíos que yacen por delante, y que estés desinformado de todo lo que puede salir mal. No te preocupes – no estás sólo. Michael Mauboussin

Hace unos días me sumergí en la lectura de un artículo escrito por Mauboussin llamado Smart People, Dumb Decisions [Gente Inteligente, Decisiones Estúpidas] en el número Marzo-Abril 2010 de la revista The Futurist. Me pareció excelente, así que le dediqué energía para traducir al menos una parte en anotaciones que publico en este posteo. Aunque el contenido es bastante extenso, creo que nadar cada tanto en estas aguas nos ayuda a fortalecer nuestra mente con ejercicio saludable. Sé que en este blog en general apunto a darle más de comer al corazón (¿será que por mucho tiempo lo mantuve en ayuno y casi se me muere de inanición?). Ahora me interesa comenzar a compartir algunas ideas con las que también alimento mi cabeza. Espero te aporte valor intelectual y práctico, ya que como dice un amigo: “No hay nada más práctico que una buena teoría”.

A TIEMPO Y DENTRO DEL PRESUPUESTO: QUIZÁS LA PRÓXIMA VEZ

El cerebro se aferra naturalmente a ciertas ilusiones, como el exceso de confianza, el control, y las suposiciones que hacemos sobre el nivel de desafío que nos presentará el futuro. Cuando nuestros cerebros falibles se encuentran con sistemas complejos, las posibilidades de tomar malas decisiones aumenta exponencialmente.

La expresión “cisne negro”, refleja la crítica del filósofo Karl Popper al proceso de inducción. Popper afirma que la observación de muchos cisnes blancos no demuestra que todos los cisnes sean blancos, pero que la observación de un cisne negro demuestra que no todos los cisnes son blancos. Con esta afirmación Popper nos indica que para comprender un fenómeno resulta mejor focalizarse en su falsificación, que en su verificación. [Esto significa que para Popper, constatar una teoría es intentar refutarla mediante un contraejemplo, o sea: demostrar que es falsa. Si no es posible refutarla, dicha teoría queda corroborada, pudiendo ser aceptada provisionalmente, pero nunca verificada.]

La repetición del logro de buenos resultados nos proporciona evidencias para confirmar que nuestra estrategia es buena y que todo está bien. Esta ilusión nos adormece en una sensación injustificada de confianza y nos predispone para una sorpresa (por lo general negativa).

Puede resultar útil tener una leve comprensión de un aspecto del comportamiento de los sistemas complejos llamado “transición de fase”. La transición de fase es donde los pequeños cambios incrementales en las causas detonan efectos a gran escala. El físico Philip Ball llama a este aspecto el “gran pum-ah”. Coloque una bandeja de agua en el congelador y la temperatura desciende hasta el umbral del punto de congelación. El agua sigue siendo un líquido hasta que – ¡pum ah! – se convierte en hielo. Sólo un pequeño cambio incremental de la temperatura conduce a un cambio de líquido a sólido.

El “gran pum-ah” ocurre en muchos sistemas complejos en los que el comportamiento colectivo surge de la interacción de sus partes constituyentes. Es posible encontrar muchos de estos sistemas tanto en el mundo físico como el mundo social. Los ejemplos incluyen de todo, desde el comportamiento de las bolsas de valores hasta la popularidad de los temas músicales exitosos.

La presencia de transiciones de fase invita a que cometamos algunos errores comunes en la toma de decisiones. El primero es el error de la inducción (o cómo ir sacando lógicamente conclusiones generales a partir de observaciones particulares). Aun cuando los filósofos, de Sexto Empiricus a David Hume, nos adviertieron durante siglos en contra de la extrapolación de lo que vemos, nos sigue resultando muy difícil abstenernos de seguir este camino. Para reafirmar lo obvio: en sistemas complejos con transisiones de fase, la inducción falla – a veces con gran espectacularidad.

Para ilustrar este problema, el ex operador de bolsa y autor del best seller “El Cisne Negro” (Random House, 2007) Nassim Taleb relata una historia de Bertrand Russell [adaptada para el público estadounidense] sobre un pavo que es alimentado durante 1.000 días seguidos. La alimentación refuerza en el pavo su sensación de seguridad y bienestar, hasta que un día antes del día de Acción de Gracias le ocurre un evento inesperado. Toda la experiencia del pavo, así como su retroalimentación, es positiva, hasta que de pronto en un instante “el destino” le juega una mala pasada [y termina en el matadero].

El equivalente a la dinámica desafortunada del pavo – un período de prosperidad (el pavo se alimenta), seguido por fuertes pérdidas (el pavo pierde la cabeza) – se produce repetidamente en los negocios. Por ejemplo, Merrill Lynch (adquirida por el Bank of America) sufrió pérdidas en dos años (periodo 2007-2008) superiores en un tercio a los beneficios acumulados por la empresa en 36 años cotizando en bolsa. Tratar con un sistema regido por una ley  tan poderosa es como ser alimentado por un granjero que mantiene un hacha escondido a la espalda. Tarde o temprano, el hacha te caerá encima.

Justamente lograr salir de una situación justo antes de la transición de fase – tanto si se trata de retirarse de un juego de póquer antes de que llegue la inevitable mala mano, o de desprenderse de una determinada inversión antes del estallido de una burbuja financiera – es una de las principales motivaciones de quienes buscan, y pagan, información sobre el futuro.

Los seres humanos tenemos un gran apetito por los pronósticos y las predicciones en un amplio espectro de ámbitos, pero hay que reconocer que la exactitud de los pronósticos en sistemas con transiciones de fase es pésima, incluso los realizados por los llamados “expertos” en cada uno de esos ámbitos.

Duncan Watts, un científico de Yahoo Research que realizó un desarrollo original sobre la teoría de redes, dice, “Creemos que existe algo que podemos llamar calidad … y por ende, los resultados que vemos en el mundo reflejan esta calidad. Pero,” añade, “me siento cómodo con la idea de que los resultados que obtenemos son, en gran medida y en la mayoría de los casos, arbitrarios”. El mejor curso de acción es reconocer la naturaleza del sistema y prepararse para todas las contingencias. Pero, ¿cómo hacerlo? Si durante los últimos 900 días estuvimos siendo alimentados por el granjero, ¿cómo anticipamos el punto de inflexión [tipping point]?

Tenemos que tratar con sistemas que se caracterizan por cambios abruptos e imprevisibles y por resultados improbables y extremos. En nuestro tratamiento hacia estos sistemas, somos todos especialmente propensos al error, porque intuitivamente queremos tratar al sistema como si fuera más simple de lo que es y extrapolar el pasado al futuro. Aprendamos a detectar estos sistemas, y cuando nos encontremos con ellos disminuyamos la velocidad de nuestros procesos de toma de decisiones.

Gracias a la insistencia Nassim Taleb, actuamente muchas personas asocian los eventos extremos con el cisne negro. Pero Taleb hace una cuidadosa, aunque desatendida, distinción: Si entendemos el aspecto de la distribución de probabilidades en toda su extensión – cuál es el mejor, el peor, y el más probable de los escenarios – incluso los resultados extremos deberían etiquetarse como cisnes grises, no cisnes negros. Él los llama “eventos extremos modelizables.” De hecho, los científicos realizaron un montón de trabajo para clasificar las distribuciones de los diferentes sistemas, incuyendo el mercado de valores, los actos terroristas, y las fallas en la red de distribución eléctrica. Así que, si se tiene la formación y las herramientas para entender estos sistemas, es posible obtener una visión general de cómo se comportan, aunque no tengamos una manera confiable de predecir un evento específico. La clave está en prepararnos adecuadamente para cualquier evento, extremo o no, que nos pueda arrojar el sistema. La mayor parte de las personas no son arruinadas por cisnes negros – las incógnitas desconocidas -, sino más bien por su falta de preparación para los cisnes grises.

En decisiones que involucran a sistemas con muchas partes que interactúan, los vínculos causales son a menudo imprecisos. Por ejemplo, ¿qué pasará con el cambio climático? ¿Dónde y cuándo será el próximo terremoto? ¿Cuándo surgirá una nueva tecnología? ¿qué pasará con las cosechas en determinada zona?

Warren Buffett dijo: “Prácticamente todas las sorpresas son desagradables.” Tener en cuenta el peor de los escenarios es vital, aunque en tiempos de prosperidad, en general, se pasa por alto.

Hay una paradoja simpatica con la toma de decisiones: Casi todo el mundo se da cuenta de la importancia de estos temas, sin embargo, muy pocas personas los práctican para mejorar. ¿Por qué no entrenamos a los jóvenes estudiantes en la toma de decisiones? ¿Por qué son tan escasos los ejecutivos, los médicos, los abogados, los funcionarios del gobierno, versados en estas grandes ideas?

¿Cuál es la probabilidad de que en las próximas semanas siga estando vivo y que además postee algunas otras reflexiones sobre este tema, y que además también sigas vivo y que además leas esas nuevas reflexiones? ¿Será este acontecimiento un cisne negro? :) Te hago llegar un saludo grande y mis gracias totales por visitar este Puerto Managers.

Share

lanzamiento-blog-300Te presentamos nuestro nuevo blog. ¡Bienvenido!
Buscamos dar un paso más para crear un espacio de valor donde podamos conversar sobre el desarrollo organizacional y profesional, y también dar a conocer el trabajo que realizamos en FactorCoaching.
Podrás conocer más sobre el propósito principal que nos mueve en esta iniciativa, ingresando aquí.
Pondremos nuestro esfuerzo en hacer día a día más valiosos los contenidos y más enriquecedora y entretenida, tu experiencia.
¡Gracias!

Share
SEO Powered by Platinum SEO from Techblissonline