Si algo nos distingue a los humanos es que hemos construido un mundo muy complejo. La cultura, las instituciones, la especialización o el intercambio son todo cosas que han traído progreso, pero también complejidad. Los ejemplos son incontables: hemos tejido redes que lo conectan todo —la quiebra de un banco en Nueva York se siente en media Europa y el clima en sibería encarece el trigo en Bogotá—, y hemos distribuido el trabajo hasta un absurdo útil: no existe una persona capaz de fabricar por si sola ni un reloj Casio. Nuestra sociedad es infinitamente más sofisticada que la suma de sus partes. Y la complejidad, hasta el momento, solo hace que aumentar.
¿Pero qué es la complejidad? En teoría de sistemas, en un alarde de definición abierta, solemos decir que los Sistemas Complejos son aquellos sistemas que son dinámicos y no lineales (detalles abajo). Estas dos propiedades pueden hacer que incluso sistemas de estructura muy simple tenga un comportamiento impredecible en la práctica. A los sistemas que efectivamente se comportan así se les llama Sistemas Caóticos.
Estos sistemas son el paradigma de lo complejo. Para ilustrarlo dejadme que os cuente una anécdota del libro de Nate Silver que tiene como protagonista a Edward Lorenz, el científico del MIT que en los setenta popularizó la mal llamada Teoría del Caos.
Al finales de los sesenta, Lorenz y su equipo trabajaban en el desarrollo de un sistema de predicción meteorológica. Los ordenadores erán juguetes recien llegados y todo el mundo con acceso a ellos andaba trasteándolos. Pero en un momento dado, el ordenador de Lorenz comenzó a dar resultados erráticos. Corrían simulaciones partiendo de los mismos datos iniciales y el programa predecía un cielo claro en la primera simulación y un tornada catastrófico en la siguiente. No tenía sentido. El modelo de predicción era determinista, así que lo que estaban viendo era un imposible.
El equipo de Lorenz pasó semanas buscando el error. Revisaron el hardware, y depuraron el código una y otra vez, hasta que encontraron el problema. Resultó que los datos de inicio en las dos simulaciones no eran exactamente los mismos: uno de los técnicos había truncado una cifra en el tercer decimal. En unas coordenadas geográficas la presión barométrica era 29,5168 (inHg) y en su lugar se leía 29,517. La diferencia era casi infinitesimal, ¿podía ser ese el problema?
Resulto que sí lo era. Esa pequeñisima variación en las condiciones iniciales desencadenaba una sucesión de eventos en el modelo que era la diferencia entre predecir un cielo claro o un huracán asolando Kansas. Quedó así demostrado que dos sistemas idénticos —dos universos de juguete— podían evolucionar de forma antagónica como consecuencia de una diferencia diminuta. En el universo simple, causal y determinista del modelo de Lorenz, el aleteo de una mariposa podía provocar un huracán en Kansas.
Los sistemas que, como el modelo de Lorenz, son tan sensibles a condiciones iniciales u otros parámetros se conocen como sistemas caóticos. Es importante observar que un sistema caótico no es realmente azarosos, sino determinista. Si tuviésemos información perfecta (hasta el último decimal) su evolución sería predecible, pero como nunca la tenemos, cuando un fenómeno muestra propiedades caóticas lo etiquetamos como azaroso. Pensad en un par de dados. El resultado de una tirada de dados estará determinado por la geometría del cubo, el ángulo con que los lanzo y toda una miríada de factores inciertos que hacen imposible dar una predicción. Por eso decimos que el resultado del dado es fruto del azar (aunque no lo sea). Del mismo modo, si efectivamente el vuelo de una mariposa pudiese generar huracanes de forma instantánea y con frecuencia, ante la imposibilidad de seguir la pista a todas las mariposas, tendríamos que asumir que los huracanes son un fenómeno azaroso y en la práctica impredecible.
Afortunadamente, la realidad no suele manifestarse como el modelo de Lorenz, al menos en la escala en que nos movemos las personas. Muchos fenómenos no muestran esas propiedades tan drásticas. Por ejemplo, hay muchos sistemas que son el resultado de agregar fenómenos caóticos pero estadísticamente sesgados, de forma que de su combinación emerge una regularidad. El caso clásico es la dinámica de fluidos o de gases, la analogía que usaba Asimov para explicar su ciencia ficticia de la psicohistoria —»el movimiento de una sola molécula es muy difícil de predecir, debido a los continuos choques con sus vecinas, pero el comportamiento a escala visible de un gas puede ser predicho con gran exactitud»—. Otro ejemplo de orden que emerge de la complejidad son los organismo vivos. Pensad en el cuerpo humano, una construcción absolutamente compleja, que resulta de infinitas interacciones de proteínas, pero que de forma asombrosa articula una madeja de lazos de realimentación y acaba operando como un conjunto; un conjunto robusto y preciso como el mejor reloj.
Descubrir cómo pequeños sucesos pueden tener enormes consecuencias es algo que sorprende a todo el mundo la primera vez. El aleteo de una mariposa provoca un huracán. ¿Pero debería ser esto sorprendente? Sabemos que el universo es el resultado de un montón de elementos que interactúan de formas complicadas, ¿por qué sorprendernos si el resultado es algo de apariencia caótica? Que algo complejo resulte en algo complejo no debería ser sorpresa.
El caos nos llama la atención porque la experiencia nos dice que el mundo suele ser un lugar bastante predecible —el sol sale cada día, las plantas se marchitan sin agua y beber siempre nos quita la sed—. Esa regularidad es lo que debería sorprendernos más, ¿cómo es posible que de tanta complejidad acabe emergiendo un universo ordenado? En definitiva, o fascinante no es que exista el caos, lo fascinante es que el caos sea la excepción y no la norma.
Nota. Los sistemas dinámicos son sistemas cuyo estado en un instante determinado depende de los estados anteriores. La analogía es que estos sistemas acumulan energía, tienen memoria o tienen inercia. Los sistemas no lineales, grosso modo, son sistemas cuyas variables se relacionan a través de funciones que no cumplen el principio de superposición, sino que son funciones más complejas, por ejemplo exponenciales. En particular las funciones exponenciales nos resultan poco intuitivas, como demuestra el ejemplo clásico: imaginad que dobláis un folio 50 veces sobre si mismo, ¿cómo de grueso quedaría? La mayoría piensa en un palmo o un par de metros, pero el resultado es 100*2^50 µm… más o menos la distancia de la tierra al sol.
Buen artículo, pero ¿no estamos hablando más bien de Edward Norton Lorenz? (Lorenz, sin «t»)
Ups, lapsus. Efectivamente, Lorenz el del MIT, no el de la transformación de Lorentz. Gracias por el aviso 🙂
Nada hombre, yo no me confundo pq mi profesor de óptica cuántica nos avisó de que confundirlos era suspenso directo xD
Taleb argumenta que es absurdo utilizar modelizaciones de la física material a sistemas o procesos de creación humana.
«Física material». Pues ve y díselo a los sociofísicos y demás gente de sistemas complejos: http://goo.gl/prsQu
Los astrólogos por lo menos se atreven a hacer predicciones. Cuando los sociofísicos y demás gente haga predicciones (en el link explica que todavía no) ya veremos cual es su nivel de acierto.
Yo prefiero que me hagan tortillas de patatas
Hace unos meses, uno de ellos (Doyle Farmer), predecía que dentro de veinticinco años, los modelos de predicción macroeconómica actuales, estarán absolutamente superados y estarán subtituidos por otros de mayor fiabilidad.
Puedo predecir que después de toda la inversión hecha en sus modelos predictivos siempre predicirán que sus modelos son predictivos y confiables.
Esto es un axioma surgido de la simple observación y la torpe inferencia inductiva sin necesidad de modelación. Ni siquiera admite margen de error.
Mientras el sueldo de los predictores no dependa del éxito de sus predicciones…
Muy interesante, Kiko
La verdad es que nunca he entendido muy bien el valor de las predicciones puntuales sin intervalos de confianza. Al fin y al cabo, son medidas de nuestra ignorancia
Por cierto, ¿es caótica la suma/producto de n procesos caóticos ?
PD ¿Alguien ha visto los intervalos de confianza de las predicciones de Nate Silver? Sospecho que una parte de su éxito es simplemente good luck
En sistemas dinámicos no lineales no suele tener mucho sentido hablar de suma de sistemas. Si tienes dos sistemas x’=f(x) y x’=g(x), la suma x’=f(x)+g(x) no es algo que aparezca muy a menudo. En cualquier caso, si es eso a lo que te refieres, la respuesta es trivialmente no. Basta que f=-g.
Muchas gracias, fulano. En realidad, mi inquietud se refiere a porqué el caos parece la excepción y no la norma
¿Cómo es la dinámica de procesos (Z) que son el resultado de interacción de otros posiblemente caóticos (x1,x2,…, xn)?
Si Z= F(x1,x2, xn) ¿qué condiciones debe satisfacer F para que Z sea caótico si (x1,x2,…, xn) posiblemente también lo son?
En principio diría que basta que Z sea caótico y x1… xn no sean absolutamente constantes.
Antes de que algo sea caótico o no, debe ser el estado de un sistema dinámico y eso requiere que haya una regla que permita predicir exactamente su estado en el futuro a partir de su estado actual. En un ejemplo como el que dices, en general, Z no será el estado de un SD salvo en casos muy triviales, ya que lo que va a pasar con Z no depende solo de su valor actual, sino de con qué combinación de valores de x1,… se obtiene.
A diferencia de, por ejemplo, los procesos estocásticos, que uno puede conceptualizar a través de sus trayectorias, los SD hay que identificarlos con una ley del movimiento, x’=f(x) en el caso continuo y x(t+1)=f(x(t)) en el discreto.
Puedes ver los intervalos de confianza si consultas las predicciones en su blog.
(http://fivethirtyeight.blogs.nytimes.com/author/nate-silver/)
No creo que su éxito sea atribuible a la suerte. 🙂
Gracias, ecam,
Mi comentario se refiere mas bien al suceso conjunto: ¿cual era la probabilidad de que Nate Silver acertase en todos los Estados?
Creo que podríamos calcular qué probabilidad creía él que tenía, porque daba probabilidades para cada estado… Si asumimos que el resultado de cada estado es independiente —ejem—, la probabilidad de acertar todos es el producto de las posibilidades que dio.
Si eran 90% de acertar cada estado, la probabilidad de acertar todos sería de solo un 0.5%.
Estoy viendo que daba 100% a mucho estados, la mayoría, y para unos 4 da ≈80% y 50% en Florida. Grosso modo: P(acertarTodos) = 0.5*0.8*0.8*0.8*0.8 = 20%.
O tuvo un poco de suerte o sobreestimo el error de sus estimaciones. Necesitamos que repita el experimento má veces.
Por el teorema central del límite, los fenómenos aleatorios acaban (en general) teniendo una distribución normal y por tanto su valor promedio es predecible (y su suma, etc). Además basta con que no sean exactamente aleatorios sino que haya un sesgo estadístico para que al agregarse emerga una tendencia.
Por ejemplo, muchas proteínas pueden interaccionar e interaccionan con otras dentro de una célula, pero (1) algunas combinaciones son más afines —se dan con más probabilidad— y además (2) hay proteínas más abundantes que otras. Como resultado, no podemos predecir todas las interacciones que ocurren en la células, pero si predecir cuales van a dominar en volumen. Las cinéticas de reacción se modelan en base a ideas parecidas (ej. Law of mass action).
Sería bueno dar siempre intervalos de confianza, o en general una medida de la incertidumbre de cualquier estimado o predicción. Si no se puede… al menos hay que trasladar la idea de que la incertidumbre existe.
Pero yo en esto soy muy parcial poque mi tesis trató de eso 🙂 «the objective was to find simple ways to handle the difficulties that arise in practice due to uncertainty (knowledge is incomplete, there is a lack of measurable variables, and those available are imprecise).»
Todo esto está muy bien, pero que nuestra ciencia esté tan basada hoy en día en la probabilidad sólo me hace pensar que estamos en un periodo muy poco fructífero de la Historia, que faltan ideas originales, y que sólo estamos barroquizando los que otros descubrieron.
Kepler no necesitó muchas sigmas de certidumbre para concluir la ley de velocidad areolar (le bastaron las mediciones que Tyco Brahe hizo a ojo), ni Newton la ley de la gravitación universal, ni Maxwell las leyes del electromagnetismo, ni Stokes las de la mecánica de fluidos, ni tantos otros tantas otras.
Hombre, es que la estadistica moderna no existia en aquella epoca, estaba naciendo.
La dinamica de sistemas complejos todavia esta en pañales y aun estamos por llegar a un conocimiento profundo de ella.
Por otro lado desde que se comenzo a desarrollar la teorica cuantica hasta ahora no ha pasado tanto tiempo y todavia se esta explorando en el laboratorio.
Felicidades por el artículo.
Solo una crítica 🙂
En la nota final dices: Los sistemas dinámicos son sistemas cuyo estado en un instante determinado depende de los estados anteriores.
Eso es tremendamente impreciso. Es más exacto decir que su evolución en el tiempo futuro queda determinada por el estado actual.
Lo mismo aplica a la frase «tienen memoria». De hecho muchos sistemas con memoria no se consideran sistemas dinámicos en el sentido usual de la definición.
Ecam, eso aplica si el sistema es autónomo, pero si tiene entradas su evolución no está determinada solo por el estado(s) actual(es) porque depende también de las entradas futuras. Iba por ahí. Pero la definición imprecisa en general, lo mismo que lo de «tener memoria» que ya digo es una analogía para el que no conoce tiene el concepto de esto.
Las definiciones son muy necesarias pero son un rollo.
Entiendo que hay que simplificar, pero aún así hablar de memoria ode que depende de las entradas futuras es muy impreciso. Si el sistema no es autónomo su evolución también queda determinada por el estado presente (y el instante de tiempo presente).
Los sistemas con memoria o retrasos no caen dentro de lo que normalmente se considera un sistema dinámica. Claro está que si simplificamos mucho un sistema dinámico es un sistema que evoluciona con el tiempo. 🙂
No entiendo, un sistema no autónomo —me refiero con entradas— tiene una evolución que no está determinada por su estado presente, porque depende de las entradas también. La velocidad de coche, por ejemplo, depende de su estado —velocidad y aceleración actual—, pero también de si piso el acelerador o el freno en el futuro. No sé si me explique.
Pero tienes razón que definición más concretas que «un sistema dinámico es un sistema que cambia con el tiempo» no habrá solamente una.
¿Pero dónde están los límites de la predicción? Siento ponerme profundamente epistemológico-trascendental y fastidiar a politólogos y sociológos cuantitativos, pero la respuesta es la de Erasmo y tiene unos cuantos siglos: el libre albedrío. Los seres humanos somos capaces de tomar decisiones, sopesar las variables y actuar según nuestras propias prioridades, que no son las del modelo del observador. Beber nos puede quitar la sed, pero hay gente capaz de no beber hasta enfermar. El crecimiento demográfico de una colonia de microorganismo puede mostrarse terriblemente complejo y no ser predecido por modelos lineales, pero son las interacciones de múltiples agentes los que generan esa complejidad (¡o que había material de laboratorio contaminado!) y, es muy posible, que los microorganismos no se reproduzcan así por fastidiar. Por el contrario, a los terroristas suicidas les puede dar por contratar seguros de vida sólo para jugársela a los policías cuantitavistas.
¿puede alguien predecir cuál será la situación política de España en 6 meses?
No estoy seguro de que predecir personas sea necesariamente más difícil que predecir el comportamiento de una molécula (por decir algo). Que las personas tenga «intención» próxima o última puede incluso ayudar.
Sobre el libre albedrío, y poniéndonos filosóficos, una visión determinista del universo te diría que no existe.
Es decir, qué las decisiones que yo tomo están determinadas por mis circunstancias y mi personalidad, que a su vez dependerán —biología mediante— de mis genes, mi entorno y todo mi pasado. Todo eso conforma mi cerebro y da forma a sea lo que sea que soy yo. Explicar la personalidad y la voluntad de otra forma implica (a) asumir hay algo azaroso en la realidad, que mis decisiones son digamos aleatorias o probabilísticas, o (b) asumir que hay algo metafísico —algo fuera de la naturaleza— en la naturaleza humana.
A efectos prácticos/experiencia todo esto da igual.
Como estoy revisando el texto de mi próximo libro que espero sacar en breve (en e-book y gratuito), me he tropezado con estos párrafos que me recuerdan a la actitud de los cuantitativas politikoneros, aunque su fe se limite a las matemáticas y las curvas que se encuentran en un punto y ya no haya espacio para grandes utopías (sólo para pequeñas ganacias de utilidad marginal):
“Como ha destacado Jonathan Glover, el materialismo histórico garantiza un conocimiento científico de la evolución social que permite objetivar y determinar sin duda el resultado de nuestras acciones colectivas. Esto permite predecir los resultados de nuestros actos y de tal forma establecer ecuaciones certeras sobre la bondad y maldad de nuestras decisiones y sus efectos. Según el determinismo marxista, se puede obrar mal en algunas ocasiones porque la suma de estos pecados redundará en un bien colectivo futuro superior. Mediante este mecanismo, opera la justificación de los medios por el fin que permite a personas en teoría íntegras tener comportamientos censurables que obvian en virtud de sus futuras consecuencias positivas. El problema, empero, reside en que la pretendida cientificidad del marxismo no es más que una falacia derivada de la aplicación de los postulados reduccionistas del realismo científico a una disciplina empírica que carece de la posibilidad de refutar sus hipótesis a través de la falsación, aunque esto, lógicamente, no impide que sus seguidores sientan la férrea seguridad de conocer exactamente el rumbo que tomará la historia.”
Ni de coña la actitud de los de aquí llega a ese punto. Que para hacer buena ciencia social, uno tiene que conocer los límites de muchos de sus modelos. Parece como si cargaras sin conocer para qué sirve las matemáticas en las ciencias en general, más precisas que el lenguaje cotidiano (que, por cierto, es otro modelo simplificado de la vida). Esto no es el materialismo histórico, que se arrogaba la idea de cientificidad antes de probar sus postulados.
Hasta la teoría de juegos, una de las ideas más versátiles que ha concebido las CCSS, tiene sus límites. Que tus prejuicios no te hagan ver que tienen una fe absoluta en las matemáticas: simplemente tienen que utilizar algo más que las ambigüedades de la lengua cotidiana. Ay, es que es una actitud tan clásica (y francamente molesta). Por cierto, ¿sabes cómo puedes falsar la suposición de racionalidad en la teoría de juegos? Demostrando que alguien no tiene preferencias transitivas, por ejemplo.
¡Guau, la teoría de juegos tiene sus límites! No podré vivir en este continuum heterogéneo con tanta incertidumbre. Gracias por capar al primer Wittgenstein (¿o era al segundo?), le voy a escribir a List para comentarle tus críticas al potencial académico que tiene la teoría de juegos.
Sinceramente y sin querer ofenderte (a pesar de que creo que me has llamado algo así como postmoderno ignorante metafísico), en las facultades de Ciencias Sociales deberían darle más a la epistemología y menos al SPSS, aunque la facultad de mi universidad sufre, justo, del vicio contrario.
Y, por cierto, la actitud de los de aquí puede que no llegue tan lejos, pero no es radicalmente distinta: proviene de la seguridad de poder predecir y cuantificar el coste de los cambios futuros. En la introducción al texto, situaba la diferencia de forma irónica, pero, supongo que, como las matemáticas son unívocas, dificultan la comprensión del registro irónico.
Se ha discutido esa idea en muchísimas ocasiones, ya sea la reflexividad o las profecías autocumplidas de R. K. Merton. Efectivamente, estas cosas pueden ocurrir, pero tienen sus límites. El libre albedrío, de hecho, es un problema filosófico muy discutido. Y cuando tenemos a un humano que estudia en sociedad, mucho más: resulta que actúa constreñido tanto por factores personales como sociales. Además, muchas veces tiene que automatizar sus decisiones diarias (hacer una decisión con total consciencia no es nada fácil y cambiar una rutina tampoco lo es, por cierto). Ni hablemos de actores colectivos, en donde, si tienen un objetivo común, no es tan fácil cambiarlo.
Ahí es donde entra el papel de la probabilidad matemática y la comprensión de dimensiones del comportamiento como los incentivos para realizar tal cosa (meterse a un grupo terrorista es mucho más arriesgado y costoso que buscar un trabajo formal: es de esperarse que menos gente lo haga). Suponemos que en una sociedad x, dadas unas condiciones {1, 2, 3}, lo más probable es que un humano tenga una prioridad de comportamientos escalonada: a > b > c. En otra sociedad, con unas condiciones distintas, es probable que el orden de preferencias de sus comportamientos cambie.
Así es como conseguimos predicciones relativamente razonables, pero, ojo, su precisión varía mucho según la ciencia social en la que estemos. Hay predicciones demográficas que han funcionado con un bajo margen de error en 40 años, pero también hay predicciones económicas que han fracasado a los dos años.
Te pondré ejemplos. Un agente puntual no bebe, ¿pero todos lo hacen? El comportamiento más probable es que beban, porque suponemos que buena parte de ellos lo hacen por el interés de vivir. El coste de no beber para muchísimas personas es lo suficientemente elevado para que no se comporten de esa manera.
En cuanto a situaciones políticas, si hay que escribir un análisis en una servilleta, habrá que escribir de manera muy general, pero resulta que también se pueden contemplar varios escenarios (en este caso, suponemos que los partidos políticos y demás agentes sociales no tienen un número infinito de acciones a realizar: sólo un conjunto de acciones que, con un gran grado de probabilidad, podrían realizar). En algún punto hemos de limitar los modelos para que recojan los escenarios más probables.
Un saludo.
Y entonces, va y nace «El Mulo»
…y a pesar de ser un outlier con un poder inmenso y que logra una desviación significativa sobre los modelos de predicción y acción, al final la Historia sigue su curso gracias a la Segunda Fundación: que son quienes pueden ir modificando los modelos y hacer las preferencias endógenas (psicólogos cuantitativos) 😉
jorge, estas diciendo que hay una sociedad secreta de psicologos que modifican el curso de la historia en su propio beneficio……
Asimov, ¡quién te ha visto y quién te lee!
Sinceramente, este post y todo su debate podría haber tenido alguna mención hacia Zebatinsky. Todo hubiese sido más sútil y elaborado.
De todas formas, consuela ver que, para algunos de los que postean por aquí, Lamar Swift no estaba loco.
Reconozco que no sabía quien es Zebatinsky.
La búsqueda de la capacidad predictiva en ciencias sociales es un fenómeno que se entiende mejor a través del psicoanálisis y la meditación trascendente por aquello de superar las huellas neuronales del miedo.
El miedo nos atenaza y la inseguridad nos invade hasta hacerse obsesiva.
Para sobrevivir a sus zarpazos las religiones y la brujería nos proporcionaron la oración y los amuletos –respectivamente, claro.
Luego vino la ciencia y trató de ser ambas cosas: ruego esperanzado y conjuro certero.
Algunos filósofos nos alertaron de que el conocimiento verdadero, además de imposible, es intuitivo.
Keynes se desgañitó en vano explicando que incertidumbre no es probabilidad sino imposibilidad de conocer. Ni puto caso.
El ansia de dominio nos puede porque, efectivamente, hemos sido expulsados del paraíso.
La fruta del árbol nos ha echado en brazos del Mal sin ni siquiera saber las dimensiones del cosmos. Dice Kaku que son más de once y menos de treinta.
Vano esfuerzo, porque me sobra con una para perderme.
Hemos olvidado el consejo de Mao en su libro Rojo:
«Ser capaces de estimar la cantidad y su ritmo de cambio porque la calidad, lo cualitativo, es función de la cantidad».
Un refugio: San Agustín de Hipona, siglo IV.
«Señor, en todas partes te encuentras en tu totalidad y no hay ser alguno que te abarque por entero» Confesiones. Libro I 3.3.