Ciencia recreativa

Turing, Darwin, el humanismo y la ciencia lúgubre

24 Jun, 2012 -

Ayer Alan Turing, uno de los padres (¿el padre?) de la inteligencia artificial y la computación habría cumplido cien años. Tenemos pendiente que Juan Font nos escriba algo sobre el tema, pero releyendo este artículo que enlazaba ayer en twitter de Dan Dennett, he pensado que tal vez yo podría añadir algo desde el punto de vista de la economía -teniendo en cuenta que sé realmente poco de Alan Turing, espero no meter demasiado la gamba.

Existe una tendencia dentro de las críticas a la economía moderna desde lo que podríamos llamar el «humanismo». La idea básica de esta línea de ataque es que las personas, la mente humana, es muy complicada, demasiado complicada, como para que los torpes modelos que los economistas usamos para pensar en ellas puedan tener algún tipo de relevancia. Es cierto que los economistas solemos pensar en la gente como si eligieran de forma simplificadamente racional entre dos o tres cosas y mantuvieran ese tipo de elecciones a lo largo del tiempo y representamos eso con dos o tres artefactos matemáticos (funciones de utilidad, restricciones presupuestarias, etc); que dentro de esos modelos atribuimos una predecibilidad a las reacciones de los agentes que no parece demasiado realista.

Si usted, querido lector, simpatiza con esta línea de críticas, usted está bien acompañado. Y no tiene por qué orientarse hacia la izquierda o la derecha; tiene dónde elegir. Los economistas heterodoxos de izquierdas, como ilustra el título de este libro, dentro de la línea de crítica cultural al «homo oeconomicus», han sugerido (caricaturizo solo un poco) que la economía moderna eliminaría toda la riqueza que caracteriza a los seres humanos transformándolas en máquinas de consumir. Por la derecha, los austriacos (recuerdo ahora este post que enlazaba mi amigo Raúl hace una temporada) con toda su charla praxeológica sobre el subjetivismo del conocimiento y todo esa historia plantean ideas bastante parecidas. Sin embargo, no es estrictamente necesario meterse en las profundidades underground, gente tan honorable como el premio Nobel Amartya Sen han criticado los supuestos de la teoría de la elección que está detrás de la teoría económica, argumentando que es incompatible con una aprehensión razonable de la naturaleza humana.

Por supuesto, los economistas hemos desarrollado una buena batería de refinamientos, interpretaciones y defensas contra esta forma más o menos tosca de entender las cosas y en vista de las cosas que se leen por ahí, a uno le gustaría que esto se enseñara a un nivel más o menos básico. La línea de defensa básica es que el tipo de simplificaciones que los economistas usamos en nuestros modelos son solo eso, simplificaciones, aproximaciones, un intento de acercarnos a lo que realmente está ocurriendo, manteniendo en mente que lo que está pasando es bastante más complejo. En otras palabras, para entender y describir por qué la demanda de coches Renault baja cuando el precio de los Citroën baja, a veces es suficiente con un gráfico en dos dimensiones y es totalmente superfluo meterse en las profundidades de la mente de cientos de consumidores para entender qué significa exactamente para ellos elegir un Renault o un Citroën. Para entender por qué alguien elige una manzana cuando puede elegir un plátano, nos limitamos a decir que esa persona «prefiere» las manzanas a los plátanos sin realmente bucear cuál es el significado fenomenológico de eso. Esta forma de pensar traza una línea relativamente bien definida entre los científicos sociales que pensamos en la gente predominantemente como entidades sin una fenomenología introspectiva interna (economistas ortodoxos, psicólogos conductistas y cognitivistas, etc) y el resto (humanistas, psicoanalistas y John Searle)

Para la mayoría de los economistas medianamente informados, una interpretación de esto es que estamos haciendo un supuesto falso, una aproximación que es útil; las funciones de utilidad no son personas; los agentes representativos que computamos en los modelos no existen. Y la mayoría del tiempo, de hecho, es suficiente con esto. Sin embargo, la idea que describe Dennett sobre Turing y Darwin en su artículo ayuda a darle un poquito más de enjundia ontológica a esto (negritas en el original):

The Pre-Turing world was one in which computers were people, who had to understand mathematics in order to do their jobs. Turing realized that this was just not necessary: you could take the tasks they performed and squeeze out the last tiny smidgens of understanding, leaving nothing but brute, mechanical actions. In order to be a perfect and beautiful computing machine, it is not requisite to know what arithmetic is.

What Darwin and Turing had both discovered, in their different ways, was the existence of competence without comprehension.

La reacción natural del economista que hay en mí es decir que ¡claro!, ese es exactamente el supuesto que está en el fondo de la filosofía de la teoría de la preferencia revelada: no es estrictamente necesario seguir el mismo camino que los seres humanos para aproximar el comportamiento humano; es suficiente con tener un cacharro -una función de utilidad, un conjunto ordenado de preferencias- que sea una buena representación, una buena simulación; no necesitas meterte en lo que ocurre en la cabeza la gente (lo que no significa que no sea útil hacerlo, claro).

Esta es una tesis que Dennett cuenta cada vez que puede, la idea de «an army of idiots». Los seres humanos podemos ser inteligentes y a la vez estar compuestos por una infinidad de partículas que no son, ninguna de ellas, inteligentes, sino que ejecutan de forma mecánica y algorítmica tareas predeterminadas. Un poco más abajo, Dennett explica que:

Why indulge in this «sorta» talk? Because when we analyze — or synthesize — this stack of ever more competent levels, we need to keep track of two facts about each level: what it is and what it does. What it is can be described in terms of the structural organization of the parts from which it is made — so long as we can assume that the parts function as they are supposed to function. What it does is some (cognitive) function that it (sorta) performs — well enough so that at the next level up, we can make the assumption that we have in our inventory a smarter building block that performs just that function — sorta, good enough to use.

This is the key to breaking the back of the mind-bogglingly complex question of how a mind could ever be composed of material mechanisms. What we might call the sorta operator is, in cognitive science, the parallel of Darwin’s gradualism in evolutionary processes. Before there were bacteria there were sorta bacteria, and before there were mammals there were sorta mammals and before there were dogs there were sorta dogs, and so forth. We need Darwin’s gradualism to explain the huge difference between an ape and an apple, and we need Turing’s gradualism to explain the huge difference between a humanoid robot and hand calculator.

Turing, like Darwin, broke down the mystery of intelligence (or Intelligent Design) into what we might call atomic steps of dumb happenstance, which, when accumulated by the millions, added up to a sort of pseudo-intelligence.

Lo que está diciendo Dennett es que no existe nada parecido a un salto entre la cognición «humana» y la que puede tener un autómata -y una función de utilidad es básicamente eso-,  sino que se trata de un continuo de formas de funcionar. No hay una diferencia «esencial» entre ambos, solo una diferencia muy grande. Como dice justo después

There is no principled line above which true comprehension is to be found — even in our own case. The small child sorta understands her own sentence «Daddy is a doctor,» and I sorta understand «E=mc2.» Some philosophers resist this anti-essentialism: either you believe that snow is white or you don’t; either you are conscious or you aren’t; nothing counts as an approximation of any mental phenomenon — it’s all or nothing. And to such thinkers, the powers of minds are insoluble mysteries because they are «perfect,» and perfectly unlike anything to be found in mere material mechanisms.

Y es aquí dónde los «economistas humanistas» que mencionaba al principio del post se encuentran en la bizarra compañía de animistas, psicoanalistas y teólogos del alma que pretenden que la conducta humana es demasiado compleja como para ser estudiada con la parsimonia del método científico y el observador imparcial.

La relación entre la economía y la inteligencia artificial no es, por cierto, casual. Hace unos años salió un libro polémico -porque decía una cantidad considerable de chorradas- de Philip Mirowski que intentaba poner en perspectiva histórica la relación entre el nacimiento de la economía cuantitativa moderna y la computación. Una buena parte de los padres de la economía -Arrow, Von Neumann, etc- estaban metidos en el programa de investigación operativa, ayudando al gobierno durante la segunda guerra mundial. De forma poco sorprendente, investigando para escribir esta reseña me he encontrado con un artículo del Mises Institute que aplaude con las orejas la «crítica» básica del libro según la cuál los economistas hemos transformado a los humanos en autómatas.

Es posible que esto sea cierto. Sin embargo pienso que esta es la consecuencia de mirar la naturaleza humana de una forma científica y desapasionada. Tarde o temprano, las emociones se enfrían, el misterianismo desaparece, el hechizo se rompe y lo único que queda son un conjunto de trocitos de materia chocándose los unos con los otros y procesos mecánicos.