Web-Blog

Epistemología



Rodolfo-J. Rodríguez R.

rodolfojrr@gmail.com

about.me/rodolfojrr

San José, Costa Rica,

América Central




 


Calendario

<<   Abril 2017    
LMMiJVSD
          1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30

Subscripción

Sindicación

Ciencias y tecnologías económicas

Latindex

Programas de investigación filosófica

Filosofía de la ciencia
Fundamentación filosófica de las teorías científicas.-- Estructura y dinámica de las teorías científicas

Caos y estructuras disipativas

Por Episteme - 27 de Noviembre, 2012, 13:05, Categoría: Filosofía de la ciencia

Ilya Prigogine: Teoría del Caos on Twitpic

La teoría de las estructuras disipativas, conocida también como teoría del caos, tiene como principal representante al químico belga Ilya Prigogine, y plantea que el mundo no sigue estrictamente el modelo del reloj, previsible y determinado, sino que tiene aspectos caóticos. El observador no es quien crea la inestabilidad o la imprevisibilidad con su ignorancia: ellas existen de por sí, y un ejemplo típico el clima. Los procesos de la realidad dependen de un enorme conjunto de circunstancias inciertas, que determinan por ejemplo que cualquier pequeña variación en un punto del planeta, genere en los próximos días o semanas un efecto considerable en el otro extremo de la tierra.

La idea de caos en la psicología y en el lenguaje.

1. Efecto mariposa y caos matemático.- Empezaremos con la parte anecdótica de la teoría del caos, el famoso "efecto mariposa" Es decir, comenzaremos a investigar el iceberg a partir de su punta visible que, como sabemos, es apenas una mínima fracción del total.
En principio, las relaciones entre causas y efectos pueden examinarse desde dos puntos de vista: cualitativo y cuantitativo. Desde la primera perspectiva, las relaciones causa-efecto pueden ser concebidas de varias maneras: a) como vínculos unidireccionales: A causa B, B causa C, etc., pero los efectos resultantes no vuelven a ejercer influencia sobre sus causas originales; b) como eventos independientes: según esta concepción, no habría ni causas ni efectos: cada acontecimiento ocurriría al azar e independientemente de los otros; c) como vínculos circulares: A causa B, y B a su vez causa A, es decir, el efecto influye a su vez sobre la causa, como resultado de los cual ambos acontecimientos son a la vez causas y efectos. Se trata de los llamados circuitos de retroalimentación, que pueden ser negativos o positivos.

La teoría del caos, en la medida en que considera que existen procesos aleatorios, adopta la postura (b), pero en la medida en que dice que ciertos otros procesos no son caóticos sino ordenados, sostiene que sí, que existen vínculos causales. Los vínculos causales que más desarrollará son los circuitos de retroalimentación positiva, es decir, aquellos donde se verifica una amplificación de las desviaciones: por ejemplo, una pequeña causa inicial, mediante un proceso amplificador, podrá generar un efecto considerablemente grande. No nos alarmemos. Esto lo iremos aclarando poco a poco.

Desde el punto de vista cuantitativo, las relaciones entre causa y efecto pueden ser categorizadas de diferente manera. Examinemos una de ellas, lo que nos servirá como puerta de entrada para ingresar en la teoría del caos.

2. Causa-efecto: relaciones cuantitativas.- Si examinamos las posibles relaciones cuantitativas que pueden existir entre causas y efectos, las alternativas podrían ser las siguientes:

1) Causas y efectos son razonablemente proporcionales: pequeñas causas producen pequeños efectos, y grandes causas grandes efectos (como cuando decimos que, dentro de cierto espectro de variabilidad, cuanto mayor es la frustración mayor será la respuesta agresiva, siendo ambas variaciones razonablemente proporcionales);

2) Una causa pequeña produce un gran efecto (como cuando un comentario intrascendente desata una crisis psicótica);

3) Una causa grande produce un pequeño efecto (como cuando una interpretación nuclear que apunte directamente al conflicto patógeno infantil, genera una respuesta indiferente en el paciente).
Los seres humanos tendemos inevitablemente a creer en alguno de estos supuestos en la vida cotidiana, y por motivos muy diversos. Detrás de toda creencia hay un deseo, que es quien le da su intensidad, su persistencia, su razón de ser. Así, la creencia en una desproporción causa-efecto del caso 2 oculta un deseo de poder: la ilusión de que con muy poco se puede lograr mucho. Está en la base de muchas supersticiones (la posesión de un simple amuleto garantiza nada menos que felicidad). De modo parecido, la creencia en una proporcionalidad razonable entre causa y efecto del caso 1 podría protegernos de la incertidumbre: sabemos seguro que después de la causa vendrá un efecto esperado y controlable, y no hay lugar para sorpresas desagradables. Así también, la creencia en una desproporción como la del caso 3 puede esconder la ilusión de aliviar culpas propias: si me esfuerzo mucho por ayudar a quien hice daño -causa grande-, lograré tranquilizarme sólo un poco -efecto pequeño- (aunque no mucho, porque "debo" sufrir por el daño hecho).

Examinemos algunos ejemplos donde causas pequeñas producen grandes efectos, que es uno de los campos fértiles donde han germinado la teoría del caos y su efecto mariposa. Este listado de ejemplos no pretende ser exhaustivo sino representativo, y varios de estos ejemplos responden en realidad a los mismos mecanismos.

3. Causas pequeñas, grandes efectos.- El sentido común prescribe una cierta proporción entre la causa y el efecto: una fuerza pequeña produce un movimiento pequeño, y una fuerza grande, un gran desplazamiento. El psicoanálisis invoca la misma idea para justificar la idea de que una terapia breve produce pequeños cambios, y de que un tratamiento prolongado genera cambios más importantes.
Sin embargo, ciertas experiencias cotidianas y determinados planteos científicos nos obligan a considerar la posibilidad de algunas excepciones de aquellas impresiones subjetivas que habitan nuestra mente de físicos o psicólogos aficionados, tan acostumbrada a transitar la siempre útil, pero también la siempre peligrosa navaja de Occam, que todo lo simplifica. Examinemos entonces algunos ejemplos de desproporción cuantitativa -aparente o no- entre causas y efectos:

a) Efecto palanca: más allá de la metáfora, si uno tiene alguna palanca puede conseguir muchas cosas: "dadme una palanca y moveré el mundo", había dicho el griego. Un simple movimiento de palanca es una causa pequeña, pero puede producir grandes efectos. Las palancas, así como las poleas o las prensas hidráulicas, son dispositivos capaces de multiplicar varias veces un efecto, con el consiguiente ahorro de esfuerzo muscular.

b) Efecto gota de agua: Si agregamos una simple gota de agua al líquido contenido en un recipiente, este se derrama produciendo un efecto catastrófico sobre nuestro zapatos. Una gota más que agreguemos en la tortura china de la gota de agua que horada la piedra, producirá la insanía de quien la recibe. Una simple interpretación más, como al pasar, puede producir en el paciente un notable efecto de insight, en comparación con la aparente nimiedad de lo interpretado. Desde una lógica dialéctica, el efecto gota de agua es el producto de una acumulación cuantitativa que desemboca en un salto cualitativo.

c) Efecto interacción experimental: Descripto en algunos diseños experimentales, donde la acción conjunta de dos variables, lejos de producir un simple efecto sumativo, pueden generar un efecto inesperadamente mayor (o menor). Pequeñas cantidades de alcohol y de droga, combinadas entre sí, pueden producir un efecto desmesurado: el coma o la muerte (a).

d) Los fenómenos de cismogénesis descriptos por Gregory Bateson, y las escaladas simétricas o las "escapadas" mencionadas por Paul Watzlawick (b), todos fenómenos interpretables en términos de mecanismos de retroalimentación positiva. Un ejemplo es la escalada bélica, donde el país A se arma en previsión de un ataque del país B. El país B advierte esto y a su vez aumenta su armamento, con lo que el país A vuelve a aumentar su arsenal y así sucesivamente, creciendo cada vez más la situación en forma descontrolada. Esto revela que una pequeña causa (el país A que comenzó comprando tres tanques más) genera una situación internacional que bordea la catástrofe.

e) Von Bertalanffy, el mentor de la Teoría General de los Sistemas, describe la existencia de mecanismos amplificadores donde pequeñas causas generan grandes efectos (73, 223). Al respecto, cita un distinción entre causalidad de "conservación", donde hay una proporcionalidad razonable entre las intensidades de la causa y el efecto, y la causalidad de "instigación", donde la causa actúa como instigadora o disparadora, es decir, un cambio energéticamente insignificante provoca un cambio considerable en el sistema total.

f) Series complementarias: Hemos ya citado un ejemplo donde un factor desencadenante pequeño puede desatar clínicamente una psicosis o una neurosis, o puede sumir a una persona en una profunda crisis. La razón, según el psicoanálisis, debemos buscarla en el peso relativo que tiene cada elemento de la constelación de los factores que constituye la serie: si el factor constitucional y el factor disposicional (experiencias infantiles) son altamente propicios para configurar un cuadro neurótico, basta un muy pequeño factor desencadenante para que la sintomatología aparezca.

g) La conversión masa-energía: Según lo prescribe el principio de equivalencia masas-energía de Einstein, una pequeñísima porción de masa, bajo ciertas condiciones puede liberar enormes cantidades de energía. Ya en la física pre-einsteniana también se hablaba se cosas parecidas, en el contexto del concepto de energía potencial: una pequeña causa (soltar una piedrita a 3000 metros de altura), produce un efecto desastroso sobre la cabeza del que está abajo, considerando que la aceleración aumenta según la ley de la gravitación y sin considerar los efectos de rozamiento del aire.

h) Efecto mariposa.- Tal como fuera descripto originalmente en la meteorología, suele expresarse en frases del siguiente tipo: "El aleteo de una mariposa que vuela en la China puede producir un mes después un huracán en Texas" (¿tal vez una metáfora de la expansión económica japonesa en detrimento del capitalismo occidental?). Otros ejemplos podrían ser el efecto que produce en el mercado bursátil mundial el simple resfrío de un presidente, y también Einstein dijo lo suyo, aunque fue más romántico: "Hasta la más pequeña gota de rocío caída del pétalo de una rosa al suelo, repercute en la estrella más lejana".

Tales categorías de fenómenos tiene tres aspectos susceptibles de ser analizados separadamente:

a) por un lado alude a una situación donde pequeñas causas generan grandes efectos,

b) por otro lado alude a una situación que no podemos predecir: sabemos que el efecto puede ser muy grande, pero no podemos saber en que consistirá, ni muchas veces cuándo, dónde o cómo ocurrirá; y

c) en tercer lugar alude a una situación de descontrol: muchas veces no podemos ejercer un control de la influencia de la causa sobre el efecto. Más concretamente, no sólo no podemos evitar que una mariposa aletee en la China, sino, y lo que es peor, no podemos avitar que, de aletear, se produzca un huracán en Texas. La imposibilidad de ejercer este control está relacionada con la imposibilidad de predecirlo, aunque no necesariamente: podemos predecir un eclipse, pero no podemos controlar su ocurrencia o no ocurrencia.

Recorreremos ahora los antecedentes de la teoría del caos y su relación con la matemática.

4. Poincaré: un precursor.- Ya en 1908, el matemático francés Henri Poincaré (1854-1912) había ensayado con sistemas matemáticos no lineales, habiendo llegado a ciertas conclusiones que, andando el tiempo, habrían que ser un importante antecedente histórico y conceptual de la teoría del caos.

Poincaré partió del esquema laplaceano según el cual, si conocemos con exactitud las condiciones iniciales del universo, y si conocemos con exactitud las leyes naturales que rigen su evolución, podemos prever exactamente la situación del universo en cualquier instante de tiempo subsiguiente. Hasta aquí, todo bien, pero ocurre que nunca podemos conocer con exactitud la situación inicial del universo, y siempre estaríamos cometiendo un error al establecerla. En otras palabras, la situación inicial del universo sólo podemos conocerla con cierta aproximación. Aún suponiendo que pudiéramos conocer con exactitud las leyes que rigen su evolución, nuestra predicción de cualquier estado subsiguiente también sería aproximada. Hasta aquí tampoco habría problema y podríamos seguir manteniendo el esquema determinista ya que lo aproximado de nuestras predicciones no serían adjudicables a un caos en la realidad sino a una limitación en nuestros conocimientos acerca de las condiciones iniciales.

Efectivamente, los deterministas alegan que no es que los acontecimientos sean imprevisibles, sino que simplemente aún no hemos descubierto las leyes que permitan preverlos. Dicho sea de paso, a esto se opondrá Prigogine (c): el caos es imprevisible por naturaleza, puesto que para preverlo sería necesaria una cantidad infinita de información.

Sin embargo, Poincaré jugará con una hipótesis que le sugirieron ciertos sistemas matemáticos especiales: dirá que un pequeño error en las condiciones iniciales, en vez de provocar también un pequeño error en las últimas, provocaría un error enorme en éstas, con lo cual el fenómeno se vuelve impredecible y entonces lo adjudicamos al azar. Desde ya, este efecto multiplicativo del error no es debido a nuestra ignorancia o a nuestro limitado conocimiento de lo real, sino a la misma configuración de la realidad, que admite ese tipo de evoluciones erráticas. En una mesa de billar con forma cuadrada, podemos predecir la trayectoria de una bola arrojada contra una banda, pero...lo mismo no ocurre así si la mesa tiene forma de estadio. En este caso, la trayectoria se torna impredecible.

5. Lorenz: la perplejidad de una meteorólogo.- El efecto descripto por Poincaré se reactualiza en la década del ?60, por obra y gracia del meteorólogo y matemático norteamericano Edward Lorenz. Su perplejidad tenía mucho que ver con la imposibilidad de pronosticar fenómenos climáticos más allá de un cierto número de días, y no era para menos, toda vez que lo que uno espera de un meteorólogo son, precisamente, predicciones acertadas. A comienzos de la década del ?60, Lorenz se puso a elaborar un modelo matemático para predecir fenómenos atmosféricos, y por casualidad descubrió que la misma herramienta matemática que utilizaba estaba fallando: pequeños cambios en las condiciones iniciales producian diferencias asombrosas (léase inesperadas, impredecibles) en el resultado, con lo cual las predicciones meteorológicas a mediano o largo plazo resultaban imposibles. La tradicional certeza de la matemática no podía compensar la tradicional incertidumbre de la meteorología, ya que el virus de la incertidumbre había invadido el mismísimo cuerpo de la madre de las ciencias exactas.
Si la misma matemática permite que de pequeños cambios iniciales se produzcan al final grandes cambios, entonces toda otra ciencia que, como la meteorología, intente fundarse en la matemática, habrá de pronosticar grandes catástrofes a partir de pequeñas alteraciones ambientales. Fue así que nace el ?efecto mariposa?, que habla de pequeños cambios (el aleteo de una mariposa en Pekín) con grandes consecuencias (un huracán en Arizona).

6. El caos invade otras ciencias.- La obra de Lorenz estimuló nuevas investigaciones sobre la cuestión, y dio lugar finalmente a la creación de un nuevo campo matemático: la teoría del caos, cuyo ejemplo más manoseado es el que relaciona invariablemente insectos lepidópteros con países orientales y occidentales.

Si un fenómeno como el descripto no puede predecirse, ello puede deberse en principio y como mínimo a una de tres razones: a) la realidad es puro azar, y no hay leyes que permitan ordenar los acontecimientos. En consecuencia: resignación. b) la realidad está totalmente gobernada por leyes causales, y si no podemos predecir acontecimientos es simplemente porque aún no conocemos esas leyes. En consecuencia: tiempo, paciencia e ingenio para descubrirlas. c) En la realidad hay desórdenes e inestabilidades momentáneas, pero todo retorna luego a su cauce determinista. Los sistemas son predecibles, pero de repente, sin que nadie sepa muy bien porqué, empiezan a desordenarse y caotizarse (periodo donde se tornarían imposibles las predicciones), pudiendo luego retornar a una nueva estabilidad. En consecuencia: empezar a investigar porqué ocurren estas inestabilidades, porqué el orden puede llevar al caos y el caos al orden y, eventualmente, si pueden crearse modelos para determinar, un poco paradójicamente, si dentro del mismo caos hay también un orden. La tercera solución fue la elegida por quienes desde entonces en más concentraron sus neuronas en la teoría del caos, y ello en las más diversas disciplinas científicas.

Estas investigaciones comenzaron en la década del 70: los fisiólogos empezaron a investigar porqué en el ritmo cardíaco normal se filtraba el caos, produciendo un paro cardíaco repentino; los ecólogos examinaron la forma aparentemente aleatoria en que cambiaban las poblaciones en la naturaleza; los ingenieros concentraron su atención en averiguar la razón del comportamiento a veces errático de los osciladores; los químicos, la razón de las inesperadas fluctuaciones en las reacciones; los economistas intentaron detectar algún tipo de orden en las variaciones imprevistas de los precios. Poco a poco fue pasando a un primer plano el examen de ciertos otros fenómenos tan inherentemente caóticos y desordenados que, al menos en apariencia, venían a trastocar la imagen ordenada que el hombre tenía del mundo: el movimiento de las nubes, las turbulencias en el cauce de los ríos, el movimiento de una hoja por el viento, las epidemias, los atascamientos en el tránsito de vehículos, los a veces erráticos dibujos de las ondas cerebrales, etc.


Un ejemplo bastante elocuente y bien doméstico es la progresión del humo de un cigarrillo. Este humo no newtoniano comienza subiendo y siguiendo un flujo laminar suave (un ?hilito? de humo que sube) pero de repente se quiebra generándose un flujo turbulento (las ?volutas?): del orden hemos pasado misteriosamente al caos. Existe un recurso matemático (d) que permite predecir cuándo ocurrirá esta turbulencia (la fórmula de Reynolds), pero sin embargo no sirve para aclarar porqué ocurre. Estamos, al respecto, como los antiguos, que podían predecir la trayectoria del sol en el cielo pero no sabían a qué se debía (y entonces invocaban o bien razones fundadas en la mitología o bien en las apariencias, como afirmar que el movimiento del sol es real, cuando hoy sabemos que es aparente, ya que es un efecto generado por la rotación de la tierra).

7. Caos en la matemática y la psicometría.- Lorenz, hemos dicho, había detectado sistemas caóticos dentro mismo de la matemática al advertir que pequeñas variaciones iniciales generaban grandes cambios en el resultado. Investigaciones posteriores en esta misma disciplina fueron revelando nuevos aspectos de la misma cuestión. Tomemos dos ejemplos en los cuales pueden advertirse situaciones aparentemente caóticas, siempre dentro del dominio de la matemática.

Ejemplo 1) En 1976, el físico norteamericano Mitchell Feigenbaum advirtió que cuando un sistema ordenado comienza a evolucionar caóticamente, a menudo es posible encontrar una razón específica de la misma: una figura cualquiera se dobla una y otra vez y va complejizándose progresivamente.

El ejemplo típico son los fractales, estructuras geométricas donde cada parte es una réplica del todo. El ejemplo más sencillo (si bien no es de Feigenbaum sino que corresponde al llamado conjunto de Cantor) es un segmento de recta (elemento de partida o iniciador) que se divide en tres partes iguales. Quitamos el segmento central y unimos los dos restantes, y con cada uno de estos últimos repetimos la operación indefinidamente, hasta que el segmento original queda subdivido en segmentos cada vez más pequeños, que son una réplica del segmento mayor (cada parte es una réplica del todo).

Feigenbaum descubrió también que, luego de cierto número de operaciones de doblaje (en el ejemplo, de dividir el segmento en tres y separar el central uniendo el resto), el sistema adquiere cierto tipo de estabilidad. Esa constante numérica, llamada el número de Feigenbaum, puede aplicarse a diversos sistemas caóticos, incluso los que aparecen en la naturaleza, como podría ser el crecimiento de las hojas en un árbol, o el despliegue de un relámpago. Todo estos fenómenos parecen en principio caóticos, pero mediante el modelo de Feigenbaum puede descubrirse en ellos una regularidad que estaba oculta.

Ejemplo 2) La iteración es un proceso por el cual hacemos una operación, obtenemos un resultado, a este resultado volvemos a aplicarle la misma operación, y así sucesivamente. Por ejemplo a 1 le sumo 1 y obtengo 2. Al resultado 2 vuelvo a sumarle 1 y obtengo 3, y así en forma iterativa (es decir, repetitiva). Otro ejemplo puede ser el siguiente: partimos del número 16 y vamos dividiéndolo por 2 en forma iterativa, con lo cual obtendremos sucesivos resultados que son: 8, 4, 2, 1, 1/2, 1/4, 1/8, etc., El conjunto de todos estos resultados se llama ?órbita? del número 16, que había sido nuestro número de partida. Esta serie orbital es ostensiblemente predecible, o si se quiere hay un orden evidente: los sucesivos números van adquiriendo valores decrecientes, ya que cada nuevo orbital resulta ser la mitad del orbital anterior:

Número de partida
(Elemento iniciador)

Operación a realizar
(Elemento generador)

Orbital de X

X = 16

X / 2 =

8 4 2 1 1/2 1/4 1/8 ?
Predecible

X = 0.5

{ X . (1-X) } . 4 =

1 0 0 0 0 0 0 ?
Predecible

X = 0.3

{ X . (1-X) } . 4 =

0.84 0.53 0.99 0.02 0.08 0.32 0.87 0.43 0.98 ?
Impredecible

También la serie orbital será predecible si tomamos como número de partida el 0.5 y le aplicamos la operación indicada en el esquema. Sin embargo, las sorpresas aparecen cuando intentamos tomar como número de partida por ejemplo 0.3, aplicando la misma operación. La órbita así obtenida se manifiesta como impredecible: no se trata de una serie ni creciente, ni decreciente, ni presenta ningún tipo de uniformidad: es una serie caótica, al menos en apariencia, como el lector puede constatar en el esquema o bien recurriendo a una calculadora electrónica. Es la misma situación que podemos constatar en los sucesivos decimales de números como ?pi?, que van apareciendo sin ningún orden detectable, pero que se ?explican? a partir del cociente entre la longitud de la circunferencia y su diámetro.


Lo que más había llamado la atención de los matemáticos es el hecho de que, en el caso de números de partida situados entre 0 y 1, algunos de ellos daban órbitas caóticas, mientras que otros daban órbitas predecibles. En otras palabras, el sistema es a veces altamente sensible a sus valores iniciales (es decir, los valores subsiguientes son fácilmente predecibles a partir de los valores iniciales de la serie orbital), y otras veces no (órbita caótica). La teoría del caos en la matemática intenta así explicar porqué o cómo este tipo de sistemas pueden pasar de procesos predecibles a otros caóticos conforme vamos variando los números de partida.

Caben hacer algunas objeciones a estos ejemplos invocados por los matemáticos para ilustrar la presencia de procesos caóticos nada menos que en la ciencia del orden por excelencia.

El lector habrá podido advertir que las series orbitales resultantes de operaciones recursivas como las expuestas, presentan una semejanza con las pruebas de completamiento de series en los tests de matrices progresivas del tipo Raven. En esas pruebas, el sujeto tiene que completar una serie a partir del descubrimiento de un orden escondido en la secuencia. Es como si dijésemos: "En la serie 1, 3, 5, 7..., ¿qué número viene después del 7?". El sujeto responderá "9" porque ha entendido que hay un orden: cada número es el resultado de sumar dos unidades al anterior (x+1=x?).

Supongamos ahora que las pruebas van complicándose cada vez más, y ofrecemos al sujeto la serie 0.84, 0.53, 0.99, etc., que figura como tercer ejemplo en nuestro esquema. En el mejor de los casos, podrá descubrir la fórmula recursiva correspondiente, hacer los cálculos sobre la base del último número de la serie ofrecido en el test, y a partir de allí inferir el número siguiente. Bien podemos decir que el sujeto ha descubierto el orden subyacente tras el caos aparente. Por lo tanto, el caos al que se refieren los matemáticos no sería tal: la misma operación recursiva se constituye en el factor ordenador de la serie aparentemente caótica.

A nuestro entender, la auténtica perplejidad pasaría por comprobar el hipotético caso donde una serie comienza con una secuencia caótica de números, y en determinado momento se transforma en una serie ordenada, por ejemplo, decreciente de tres en tres decimales hasta llegar a cero (del caos al orden). O al revés, donde la serie comienza ordenadamente y de repente se inicia otra serie que es percibida como azarosa (del orden al caos). Estos cambios serían verdaderamente sorprendentes, y son los cambios que verificamos en los fenómenos naturales, algunos de los cuales ya mencionamos, de aquí que no puedan trazarse comparaciones del tipo que estamos examinando entre series matemáticas y fenómenos naturales. En el caso del humo del cigarrillo, pasábamos del orden al caos, así como también podemos encontrar ejemplos del proceso inverso, como la biogénesis, es decir, el nacimiento de vida a partir de un caos inicial de moléculas y radiación solar en el océano primitivo. Este pasaje del caos al orden no es otra cosa que el ?misterio? de la vida, mientras que el pasaje inverso, del orden al caos, es el otro ?misterio? que intentará resolver la teoría del caos. El pensamiento de Ilya Prigogine ocupa aquí un lugar central, y lo examinaremos a continuación, tras una breve referencia a dos modelos de universo.

8. Dos modelos de universo.- El siglo XX ha sido testigo de dos modelos teóricos del universo: la teoría determinista por un lado, y la teoría del caos por el otro.

a) La teoría determinista está representada por Newton, Laplace y otros pensadores del siglo 17 en adelante, y nuestro siglo encontró en Einstein un digno representante de esta orientación. Uno de los voceros más autorizados de la misma es el matemático René Thom, un persistente crítico de la teoría del caos, y de Prigogine en particular.
Según el determinismo, el universo funciona como un reloj, donde no existe lugar para el azar y donde todo está determinado inexorablemente por las eternas leyes de la naturaleza. Esto implica la posibilidad de poder predecir cualquier situación B, conociendo la situación anterior A y las leyes naturales que rigen el proceso que va desde A hasta B.

Desde ya, hay casos donde no son posibles las predicciones, sobre todo cuando incursionamos en el territorio de lo infinitamente pequeño de las partículas sub-atómicas, pero esto no ocurre porque en la realidad reine el azar, sino simplemente porque aún no hemos descubierto las leyes que rigen esos procesos. Los deterministas reemplazan así la resignación por la ignorancia, es decir, no se resignan a aceptar el azar en lo real, y lo consideran como el producto de nuestro desconocimiento de las causas naturales. De hecho, muchas veces en la vida diaria, cuando no podemos saber a qué se debe tal o cual fenómeno, solemos adjudicarlo al azar, cuando en realidad, según los deterministas, tal desconocimiento sólo se debe a nuestros aún limitados conocimientos.

Un ejemplo típico es el tiro de una moneda. Si es verdad que, conociendo las condiciones iniciales del proceso (la moneda mientras la sostengo en la mano antes de tirarla), y conociendo las leyes físicas que rigen dicho proceso (la ley de la gravitación, los coeficientes aerodinámicos, etc.), entonces deberíamos poder predecir con absoluta certeza si la moneda caerá cara o caerá ceca.
Thom, en su calidad de representante del determinismo, sostiene que si los físicos no pueden prever el resultado cara o el resultado ceca con seguridad total, no es porque ello sea imposible, sino porque el experimento sería muy difícil y costoso, ya que la previsión es teóricamente posible si el investigador controlara en forma lo suficientemente precisa las condiciones iniciales del lanzamiento.

b) Para la teoría del caos, esta previsión exacta es incluso teóricamente imposible. Al decir de Prigogine, como ocurre en un sistema dinámico inestable la condición inicial de la moneda que saldrá "cara" puede ser tan cercana como se quiera a la condición inicial de la moneda que saldrá "ceca", e incluso igual, pero sin embargo llegan a un final diferente. Esto es así porque el sistema evoluciona por zonas de incertidumbre donde no reinan las leyes eternas de la física, ni siquiera concebibles por una supercomputadora que pudiese calcular todas etapas del movimiento de la moneda desde que es revoleada hasta que llega al piso. La visión determinista del mundo queda así derrumbada, ya que revela que el azar forma efectivamente parte de la realidad física.
La teoría del caos encuentra su principal representante en la figura del belga Ilya Prigogine, Premio Nobel de Química del año 1977 por sus trabajos sobre la termodinámica de los sistemas alejados del equilibrio. La teoría del caos en plantea que el mundo no sigue el modelo del reloj, previsible y determinado, sino que tiene aspectos caóticos: el observador no es quien crea la inestabilidad o la imprevisibilidad con su ignorancia: ellas existen de por sí. Los sistemas estables, como la órbita de la tierra alrededor del sol, son la excepción: la mayoría son inestables, siendo un ejemplo típico el clima. Podemos prever un eclipse o la aparición de un cometa con siglos de antelación, pero no el clima de la próxima semana. Ello es así porque depende de un enorme conjunto de circunstancias inciertas, que determinan por ejemplo que cualquier pequeña variación en un punto del planeta, genere en los próximos días o semanas un efecto considerable en el otro extremo de la tierra.

Prigogine representa, para Toffler, la alternativa actualmente más viable. En "La tercera ola", Alvin Toffler describe la historia de la humanidad en términos de tres cambios: la primera, la segunda y la tercera ola. La primera es la revolución agrícola de hace 10.000 años, que trajo la primera oleada de cambios históricos introduciendo nuevos modelos de realidad. La segunda ola fue esa fluctuación social en gran escala llamada revolución industrial, surgida cuando el feudalismo se desmoronaba y el sistema social distaba de hallarse en equilibrio. De tal situación nace el sistema newtoniano, como una especie de ?estructura dispersiva?, en el decir de Toffler. La tercera ola es hoy, con el fin de la edad de la máquina (ola anterior), la ciencia posindustrial, donde el modelo de Prigogine parece mucho más adecuado que el modelo mecánico de la ciencia clásica.

9. La teoría del caos: Prigogine.- Examinemos ahora con mayor detenimiento el punto de vista de la teoría del caos que, en lo esencial, sostiene que la realidad es una "mezcla" de desorden y orden, y que el universo funciona de tal modo que del caos nacen nuevas estructuras, llamadas estructuras "disipativas". Tengamos presente que la teoría del caos no se opone radicalmente a la teoría determinista, en el sentido de proponer que sólo existe el caos y el azar. Si esto fuera así sería imposible cualquier intento de hacer ciencia, salvo que esta consistiera en inventar algún orden artificial en los fenómenos. La teoría del caos propone para el universo un ciclo de orden, desorden, orden, etc., de forma tal que uno lleva al otro y así sucesivamente tal vez en forma indefinida.


En relación con las ideas de orden y caos, en principio y más allá de las respuestas de Prigogine, pueden plantearse varios interrogantes, entre los que pueden mencionarse los siguientes:


a) ¿Porqué en el universo hay orden en vez de caos?
b) ¿Porqué en el universo hay caos en vez de orden?
c) ¿Hay un orden oculto tras el caos aparente?
d) ¿Hay un caos oculto tras el aparente orden?
e) ¿Cómo del orden se pasa al caos?
f) ¿Cómo del caos se pasa al orden?

¿Qué clase de interrogantes busca responder la teoría del caos? Los dos primeros seguramente no, porque, a pesar de su denominación, la teoría del caos sostiene que en el universo impera tanto el caos como el orden. Por lo demás, se trata de preguntas más filosóficas que científicas, en la medida en que pertenecen a la misma familia de preguntas del tipo ¿porqué la realidad existe en vez de no existir?


Las dos preguntas siguientes no revisten una importancia nuclear dentro de la teoría del caos, pero sí las dos últimas. Para la teoría del caos, los procesos de la realidad atraviesan etapas de caos y etapas de orden, y busca no solamente realizar descripciones detalladas del estado caótico y del estado de orden, sino también y sobre todo establecer bajo qué condiciones se pasa de uno a otro.


Para empezar a comprender este punto de vista, podemos guiarnos a través del esquema adjunto. En él figuran circuitos circulares, es decir, circuitos que empiezan y terminan en sí mísmos, y que por ello a veces reciben también el nombre de ?bucles?. Puesto que se trata de procesos circulares, podemos empezar a describirlos a partir de cualquier punto elegido arbitrariamente, por ejemplo, a partir de A (estado de equilibrio).

Aclaremos en qué consiste este estado de equilibrio, porque la termodinámica, al asociar el equilibrio con el desorden y el caos, nos induce fácilmente a confundirnos, toda vez que en la vida cotidiana en realidad asociamos equilibrio con orden.
La física se ha manejado tradicionalmente con un principio filosófico bastante simple: "lo que es, sigue siendo, mientras no haya motivos para que deje de ser lo que es". De aquí la importancia de los principios físicos de conservación (de conservación de la cantidad de movimiento, de conservación de la masa, de conservación de la energía, etc).

Más concretamente y en nuestro caso, se considera que un sistema tiende a permanecer en equilibrio si no hay ningún agente desequilibrante, y aún, cuando lo haya, el sistema evolucionará espontáneamente de nuevo hacia el estado de equilibrio.

Ejemplos:

a) En dinámica: un cuerpo tiende a permanecer en estado de reposo o de movimiento rectilíneo uniforme si no hay un agente que lo saque de esa situación, como podría ser una fuerza externa al sistema. Aún cuando esta fuerza momentánea altere la trayectoria (desequilibrio), el móvil continuará en la nueva dirección siguiendo el mismo movimiento rectilíneo uniforme (retorno al equilibrio). Todo esto es lo que se llama el principio de inercia.

b) En termodinámica: un sistema, como por ejemplo un gas en un recipiente, tiende a permanecer en equilibrio mientras no recibe energía externa, por ejemplo bajo la forma de calor. En cuanto recibe calor intentará volver al estado de equilibrio devolviendo el excedente de energía térmica para que las temperaturas queden equilibradas dentro y fuera del sistema. Si el gas pudiese ser mantenido absolutamente aislado del entorno (teóricamente posible, pero prácticamente imposible), o sea si fuese un sistema cerrado, su calor interno tendería a repartirse homogéneamente en todo el gas, es decir, no habría sectores más calientes y sectores más fríos: todos los puntos tendrían la misma temperatura. Esto es compatible con nuestra idea habitual de equilibrio (equilibrio de temperaturas), pero para que esta distribución equilibrada se logre, las moléculas del gas deben moverse al azar en forma caótica y desordenada. Si se moviesen en cierta dirección predeterminada, terminaría habiendo zonas más calientes y más frías. Es aquí donde nuestro sentido común queda desbordado, toda vez que en física se asocia equilibrio con caos molecular. En este momento, estas consideraciones sirven para una sola cosa: para que el lector vaya pensando en términos físicos, y pueda admitir que el estado de equilibrio implica, desde cierto punto de vista, un estado caótico.


Continuemos con el esquema. El estado A de equilibrio, tarde o temprano habrá de sufrir la influencia de un factor desequilibrante, desde que dijimos que no existen en la práctica sistemas totalmente cerrados. Al pasarse así a un estado B de desequilibrio, el sistema tenderá espontáneamente a evolucionar nuevamente hacia el equilibrio, es decir, por lo dicho anteriormente, comienza un proceso de caos progresivo.

Este momento es muy importante en el plan de la teoría del caos, porque mientras el sistema va caotizándose cada vez más, llega un momento en que alcanza lo que Prigogine denomina el "punto de bifurcación". Como su nombre lo indica, es un punto donde el sistema puede evolucionar hacia una de dos posibilidades: o bien retorna al estado de equilibrio original, tal cual lo prevé la termodinámica clásica, o bien dejar de caotizarse, empieza a auto-ordenarse o auto-organizarse hasta constituír una nueva estructura, denominada estructura "disipativa" o "dispersiva", debido a que consume mayor cantidad de energía que la organización anterior a la cual reemplazó.

En el ámbito físico-químico, Prigogine postuló que los desequilibrios químicos no desembocan siempre en la anarquía, sino que algunas veces permiten la aparición espontánea de organizaciones o estructuras perfectamente ordenadas, las estructuras disipativas, y así, mostró que los estados de no equilibrio pueden desembocar tanto en el desorden como en el orden (c). El universo funciona de tal modo que del caos pueden nacer nuevas estructuras y es paradójicamente un estado de no equilibrio el punto de partida que permite pasar del caos a la estructura (e).
La afirmación que del caos nace el orden puede generalizarse mediante los siguientes ejemplos: a) el universo nació de un caos inicial y generó un mundo organizado de galaxias; b) de la actividad desordenada de las moléculas nació la vida; c) la llegada caótica de muchos estímulos, cuando observamos una figura poco estructurada, son organizados por nuestra percepción es una estructura; d) de la actividad desordenada de muchos individuos nace el orden social y el progreso económico. Uno de los libros más importantes de Prigogine, escrito en colaboración y publicado en Francia en 1979, tiene precisamente como título "El orden nacido del caos"

Prigogine (f) da el ejemplo de los relojes químicos, que muestra las sorprendentes auto-reorganizaciones que pueden ocurrir dentro de los sistemas complejos, en situaciones distantes del equilibrio. Imaginemos un millón de pelotas blancas mezcladas al azar con otras tantas negras, que rebotan caóticamente dentro de un tanque por donde podemos mirar a través de una ventana de vidrio. La masa que veamos parecerá casi siempre gris. Sin embargo, a intervalos irregulares se nos aparece blanco o negro, según como se distribuyan las pelotas en las proximidades del vidrio en un momento dado.

Supongamos ahora que la ventana se vuelve toda blanca y luego toda negra, y así alternadamente a intervalos fijos y regulares, como el tic-tac de un reloj. Prigogine se pregunta porqué se organizan y sincronizan de esa forma. ¿Acaso se comunican entre sí y se ponen de acuerdo? Según todas las reglas tradicionales, esta sincronicidad no debería ocurrir, pero sí ocurre, y es lo que pasa cuando en algunas reacciones químicas se producen esos fenómenos de autoorganización o autoordenamiento, pese a la física clásica y al cálculo de probabilidades. Efectivamente, lo más probable es que el sistema evolucione hacia una mezcla al azar de pelotas negras y blancas, pero en el punto de bifurcación algo ocurre que hace que el sistema evolucione hacia estados impredecibles.

A partir del punto de bifurcación, entonces, puede iniciarse un proceso de ordenamiento progresivo que desembocará en una estructura disipativa, la cual, a su vez, ingresará en un estado de desequilibrio que generá un nuevo caos, y así sucesivamente, como el lector puede apreciar en el bucle BCDB del esquema. En términos de Prigogine, el universo es un ciclo de caos, orden, caos, orden, etc., donde se requiere un gran consumo de energía para pasar de una etapa a la otra. El universo es, en fin, como una gran ciudad, para usar una comparación de Prigogine: como en esta reina el orden y el desorden, hay bellas estructuras arquitectónicas, pero también embotellamientos de tráfico.


Desde ya, el bucle BCDB no es el único posible. El sistema puede evolucionar hacia su estado de equilibrio original, de acuerdo al bucle ABCA. Los ejemplos típicos son aquí los mecanismos homeostáticos, que pueden ser tanto naturales (la termorregulación en los seres vivos) como artificiales (el termostato de una estufa). El mantenimiento del equilibrio en familias con un paciente esquizofrénico es otro ejemplo en el área de la psicología.

Este bucle es característico de los sistemas "cerrados". Las comillas aluden al hecho de que estos sistemas son en rigor abiertos, puesto que se parte del supuesto de que el desequilibrio que sufren es debido a una influencia externa al sistema, sea que se trate de un aporte de materia, energía o información. En general, no se admite que un sistema absolutamente cerrado pueda desequilibrarse espontáneamente y, por lo demás, un tal sistema, aunque concebible teóricamente, no existe en la práctica. Cuando Prigogine dice que en el mejor de los casos los sistemas cerrados sólo constituyen una pequeña porción del universo físico, probablemente haga alusión a los sistemas "cerrados", con comillas, es decir, los que compensan los desequilibrios con la vuelta al equilibrio original. La mayor parte de la realidad no es ordenada, sigue Prigogine, ni estable ni equilibrada, sino que bulle con el cambio, el desorden, el azar, aunque es capaz de generar estructuras y ordenamientos no aleatorios. Como dicen algunos filósofos, y entre ellos Hegel, todo está relacionado con todo. Un sistema absolutamente cerrado (cerrado sin comillas) estaría representado en el esquema con un tercer bucle del tipo AA, es decir, nace en A y muere en A, es decir, persistiría siempre en forma indefinida en un eterno estado de equilibrio.

Consiguientemente, ya no es posible seguir sosteniendo que la diferencia entre un sistema abierto y uno cerrado sea el hecho de que uno recibe influencia externa y el otro no, ya que todos ellos, en la práctica, la reciben. Entonces, ¿a qué se refieren los pensadores sistémicos, con von Bertalanffy a la cabeza, cuando distinguen sistemas cerrados y abiertos? Ellos establecerán una serie de otras diferencias importantes, de las cuales solamente mencionaremos el tipo de retroalimentación presente en cada uno de ellos, porque es una diferencia relevante en el contexto de la teoría del caos.

10. La retroalimentación positiva.- Los sistemas cerrados del tipo ABCA tienen retroalimentación negativa, mientras que los sistemas abiertos que evolucionan de acuerdo al bucle BCDA lo hacen por retroalimentación positiva.
La retroalimentación negativa tiende a corregir una desviación, llevando al sistema a su estado original. Un desequilibrio es una desviación, y es corregido mediante un retorno al equilibrio original. Esta clase de procesos se oponen al cambio, puesto que buscan siempre retornar a como eran antes, a un estado anterior. Por oposición, la retroalimentación positiva promueve el cambio, la formación de nuevas estructuras más perfeccionadas, más adaptativas, más sutiles. En la medida en que implican la instauración de una nueva estructura, son procesos irreversibles, a diferencia de la retroalimentación negativa, que al tender hacia el estado original, es reversible.

La retroalimentación negativa neutraliza las desviaciones, y la retroalimentación positiva las amplifica. Para dar un ejemplo aproximativo, si nosotros estamos caminando por el desierto hacia una meta lejana pero conocida, buscaremos cada tanto corregir nuestro rumbo, neutralizar nuestra desviación respecto de la meta mediante cambios periódicos en nuestra trayectoria. Pero, si cometemos un error infinitesimal y nos desviamos un milímetro de la meta, con el tiempo y la distancia ese error se amplificará cada vez más y terminaremos por llegar a un lugar muy alejado de la meta. En la retroalimentación negativa buscamos corregir las desviaciones para volver a la trayectoria original, y en la retroalimentación positiva, pequeños cambios inducirán grandes modificaciones que podrán desembocar en nuevas metas desconocidas, tal vez mejores, aunque no podamos predecir con exactitud a donde es que llegaremos. Como veremos, el psiquismo funciona de estas dos maneras: a veces intentamos volver a la situación original ("es mejor lo malo conocido que lo bueno por conocer"), y otras buscamos la innovación, el cambio.

La ciencia clásica se centraba en la estabilidad. Los primeros trabajos en teoría de la información hacían hincapié en la retroalimentación negativa, proceso que tiende a amortiguar el cambio devolviendo al sistema a su posición de equilibrio. Prigogine en cambio exhorta a estudiar la forma en que la retroalimentación positiva promueve el cambio y la inestabilidad. Ejemplo: una reacción química produce una enzima, y la presencia de ésta estimula a su vez la producción de más enzimas. En la química inorgánica estas situaciones son excepcionales, pero en las últimas décadas la investigación en biología molecular descubrió que esos circuitos son la sustancia de la vida misma. Ayudan a explicar la evolución desde pequeños conglomerados de ADN hasta complejos organismos vivientes.
En la sociedad también hay ejemplos: la riqueza genera más riqueza, los votos que atraen más votos, o las corridas bancarias, o las escaladas armamentistas. La retroalimentación positiva implica que cuando una variable aumenta, también lo hace la otra (o bien cuando una disminuye, también disminuye la otra), Esto explica finalmente cómo a partir de pequeños cambios terminan produciéndose cambios muy grandes (efecto mariposa), o bien, como a partir de grandes cambios terminan produciéndose modificaciones insignificantes.

Según Prigogine cuando se empuja al sistema más allá de sus límites de equilibrio proliferan estos circuitos de retroalimentación positiva, y tal vez ello ayude a explicar en la opinión de Toffler, un conspicuo defensor de la teoría del caos, los acelerados cambios que se producen hoy en día. La evolución requiere antes que nada inestabilidad (g), o sea que los pequeños acontecimientos sean magnificados, y esto sólo es posible en una situación de no equilibrio. El equilibrio es por definición no evolutivo. En cambio, la evolución requiere inestabilidad, irreversibilidad y la posibilidad de dar sentido a los pequeños acontecimientos para que se produzca un cambio de estructuras.

La irreversibilidad hace posible cosas que serían imposibles en estado de equilibrio. Por ejemplo la diferencia de temperatura en un líquido produce turbulencias: estamos aquí ante un proceso irreversible. La irreversibilidad provee una importante ley constructiva, la del origen de la vida y de sus estructuras derivadas altamente complejas y sofisticadas, como el cerebro o la sociedad.

Una vez que el proceso desemboca en la creación de una estructura compleja, la estructura disipativa, se produce un nuevo desequilibrio (pasaje de D a B) y recomienza un ciclo de caos donde se producen nuevas inestabilidades o fluctuaciones. Para Prigogine, todos los sistemas contienen subsistemas en constante fluctuación. A veces una sola fluctuación en uno solo de ellos puede ser tan potente, como resultado de una retroalimentación positiva, que hace añicos toda la organización preexistente. En tal momento, llamado momento singular o ?punto de bifurcación?, es intrínsecamente imposible saber hacia donde evolucionará el sistema (estado de improbabilidad): ¿se desintegrará en un caos o saltará a un nuevo nivel de organización, más elevado y diferenciado es decir, a una nueva estructura disipativa?

Así, cuando se quita a los sistemas del equilibrio se comportan de forma extraña, dejan de actuar como máquinas newtonianas, tornándose no lineales: pequeños inputs pueden provocar grandes cambios o al revés, grandes fuerzas, escasas o ningún cambio. En esas condiciones el sistema ?enloquece?. Se multiplican los circuitos de retroalimentación positiva que generan procesos de autoorganización y autoalimentación. Entra a jugar el azar. Las estructuras, antes afianzadas, pueden desintegrarse, o modificarse a sí mísmas totalmente.

En suma, podemos decir que, para que surja una nueva estructura más compleja, una condición necesaria es que haya un estado inicial en el punto de bifurcación, por ejemplo un pequeño acontecimiento que luego, por retroalimentación positiva, genere grandes consecuencias. Este proceso de retroalimentación es la condición suficiente, porque por sí sola, la condición inicial no puede hacer nada. Además, Prigogine destaca el hecho de este acontecimiento inicial, muchas veces insignificante, ¡se produce por azar! Toffler da el ejemplo de una gran conmoción internacional que se produjo como consecuencia de un hecho fortuito donde un camarero de un barco vio cómo unas personas limpiaban armas (se trataba de guerrileros que iban a cometer un atentado importante).

En la ciencia clásica, el azar era un intruso, pero con la teoría del caos pasó a ser un socio del determinismo. Políticos y economistas reconocen la importancia del factor suerte, y en ese sentido tiende a sucumbir nuestra idea newtoniana de un universo absolutamente determinado por leyes eternas.
La realidad no es entonces ni puramente determinada ni puramente gobernada por el azar. Hay algunos fenómenos a los que a grandes rasgos puede aplicarse el esquema determinista, como el movimiento de la tierra en torno al sol, pero en otros hay una mzcla de determinismo y probabilidad o azar, como en la evolución de un ser humano, de una sociedad, del clima terrestre, etc. Para Prigogine, un problema de la ciencia actual es precisamente determinar cuánto hay de determinismo y cuánto de azar en los fenómenos que estudiamos. Puesto que ambos elementos están siempre presentes en mayor o menor medida, las predicciones ya no pueden ser absolutas sino probabilísticas, y ello no por nuestra incompetencia o ignorancia sino porque la misma realidad tiene de por sí esa mezcla.

11. Hipersensibilidad a la influencia externa.- Retornemos brevemente a nuestro esquema. Cuando un proceso evoluciona caóticamente como en el tramo BC, se torna cada vez más hipersensible a las influencias del entorno (energía, información, etc), y como consecuencia de ello evolucionará hacia D. En cambio, para que el sistema evolucione hacia A no se precisa esa influencia externa: un gas con sectores más calientes y otros menos calientes, es decir un gas en estado de desequilibrio, evolucionará espontáneamente hacia una distribución homogénea del calor hasta llegar al estado de equilibrio A, sin que para ello haya debido sufrir la influencia de algún agente externo.
No ocurre lo mismo con los sistemas abiertos. Mientras estos evolucionan caóticamente, las influencias externas acentúan ese caos hasta un punto culminante, llamado punto de bifurcación, donde el sistema deberá optar por retornar al equilibrio, o reorganizarse en una estructura y un equilibrio superiores. Si Prigogine tiene razón al respecto, señalaba Toffler, entonces debería ocurrir que la propaganda extranjera o una alteración en las tasas cambiarias mundiales (influencias externas) deberían producir un impacto interno mucho mayor en una sociedad inestable o desequilibrada que en otra en equilibrio. Por lo demás, como esas pequeñas entradas pueden causar grandes efectos, no debería sorprendernos que una influencia insignificante provoque una reacción enorme en esa sociedad.

También debería ocurrir que, al generar esa influencia más inestabilidad aún, la sociedad termine a la larga por reestructurarse ingresando en un nuevo ordenamiento (tal vez, econ la posibilidad de acceder al Primer Mundo). A nivel psicológico también ocurre esto: una persona inestable es más hipersensible a las críticas que otra más equilibrada.

No hace mucho, en diciembre de 1994, tuvimos en la Argentina un ejemplo palpable. Nuestro país sufrió una importante influencia externa: la crisis económica de México. Argentina acusó recibo de esa influencia, causó un impacto interno muy importante, lo que puede hacernos pensar que se trata de un país altamente inestable, por ser precisamente tan hipersensible a la influencia foránea. Estados Unidos, un país estable, no sufrió tanto la conmoción mexicana en la medida argentina, aún cuando tomó debida cuenta de ella.

12. El planteo epistemológico de Prigogine.- Los intereses de Prigogine no están puestos solamente en la investigación de la realidad material, sino que también ha intentado una reflexión sobre la ciencia misma.
Las grandes teorías, dice el pensador, surgen indudablemente debido a la inspiración de un genio, pero esto no es lo único ni lo más importante: ciertas teorías aparecen en ciertas épocas y determinados lugares no tanto por diferencias de inteligencia del sabio con las demás personas, sino por haber diferentes condiciones históricas o culturales. Así por ejemplo, si un pueblo cree en un ser que creó el mundo y determina su futuro, las teorías propondrán leyes deterministas, y sobre esa base el sabio construirá su teoría.


No obstante, las teorías así creadas no tienen una duración eterna. Hasta las teorías científicas más ?definitivas?, como las de Copérnico, Newton o Einstein, terminan siendo refutadas, con lo cual la verdad científica es sólo parcial. Por ejemplo, la teoría de Newton mostró su incompetencia al nivel de los objetos ?ligeros? del mundo subatómico, y la mecánica cuántica vino a llenar el vacío de explicación.

El progreso científico, para Prigogine, depende mas bien de la colaboración entre las ciencias que estudian la naturaleza y las ciencias del hombre. A pesar de ser tan diferentes en otros aspectos, Thom y Prigogine coinciden en algo: se oponen a la fragmentación del conocimiento, y dicen que las ciencias exactas y las humanas están condenadas a progresar juntas, o bien a perecer juntas. Para Prigogine, la clásica ruptura entre ambos grupos de disciplinas obedece a que las ciencias humanas relatan acontecimientos y las exactas buscan leyes eternas, pero con la nueva ciencia del caos, esta oposición desaparece porque los fenómenos físicos también tienen historia, y por ende no obedecen a leyes inmutables. Y podríamos agregar: la oposición también se diluye cuando advertimos que se puede analizar el fenómeno humano desde el punto de vista de la termodinámica irreversible, es decir, entendiéndolo como uno de los sistemas alejados del equilibrio que hace casi dos décadas le dieran a Prigogine la oportunidad de recibir el Premio Nobel.

13. Caos y determinismo en psicología.- Hemos dicho que la teoría del caos, a pesar de su denominación, no concibe la realidad como puro azar, sino como una mezcla de azar y determinismo, de manera que tiene algunos aspectos predecibles y otros no. En todo caso, debido a la incidencia del azar, las predicciones que se hagan sobre futuros acontecimientos sólo pueden ser probabilísticas.
Buena parte de las teorías psicológicas, y entre ellas, el psicoanálisis, tomaron como base las teorías puramente deterministas. Aquí vamos a examinar cómo es posible encarar el comportamiento humano, o cómo es posible explicar el funcionamiento del psiquismo, sobre la base del nuevo marco teórico que nos ha suministrado en este siglo la teoría del caos. Intentaremos comprender, en una palabra, como es posible concebir lo psíquico como una mezcla de azar y determinación.

Consideraremos para ello el esquema adjunto, que a grandes rasgos ya habíamos explicado en nuestro número anterior, pero que aquí sintetizaremos para refrescar nuestros conocimientos y ponernos en clima.

El esquema viene a resumir muy simplificadamnte la teoría del caos, y muestra en primer lugar que los procesos de la realidad (incluída la realidad psíquica) son circulares, es decir, forman ?bucles? o circuitos cerrados de retroalimentación. Para explicarlos se puede entonces comenzar desde cualquier punto del proceso, supongamos A. Se parte de un estado de equilibrio: este estado se rompe porque el sistema recibe alguna influencia externa bajo la forma de energía o información, con lo cual pasa a un estado de desequilibrio. La experiencia revela que este estado de desequilibrio no puede sostenerse por mucho tiempo, y que pronto intentará un reequilibramiento, que puede seguir dos rutas alternativas a partir de un punto de bifurcación: o bien retorna al equilibrio original (de C pasa a A), o bien procura pasar a un equilibrio superior, más complejo y más sofisticado, denominado por Prigogine estructura disipativa (pasaje de C a D).

La primera posibilidad se lleva a cabo mediante un mecanismo de retroalimentación negativa, compensador o neutralizador de las desviaciones, y por ello el sistema vuelve a su estado inicial. La segunda posibilidad tiene lugar mediante un mecanismo de retroalimentacipón positiva, amplificador de las desviaciones y por ello el sistema es conducido a una situación tal que se desestructura y se reconfigura en una nueva estructura, distinta de la anterior y, como dijimos, más compleja.

Mientras la primera posibilidad nos sugiere un proceso reversible (pues vuelve al mismo punto de partida), la segunda nos sugiere un proceso irreversible, desde que no implica volver al punto de partida sino continuar para adelante a través de la construcción de más y más estructuras cada vez de mayor complejidad, impredecibles todas ellas. Examinemos como pueden verse en el campo de los fenómenos psíquicos ambas posibilidades.

a) Retorno al equilibrio original.- Si en algún lugar está tan bien retratado este mecanismo de retorno al equilibrio original, es en la ortodoxia de la metapsicología freudiana, cuando, inspirado en Fechner, Freud habla de famoso principio de constancia.


Se habla allí de una irrupción pulsional (agente desequilibrante) en el aparato psíquico. El equilibrio se rompe, pues hay un excedente de energía, y de acuerdo al principio de constancia, que prescribe mantener todos los parámetros precisamente ?constantes?, buscará el aparato mental descargar ese excedente de energía para recuperar su nivel original.

Tal el modelo ideal de funcionamiento psíquico fundado en un mecanismo de retroalimentación negativa: la desviación del nivel de energía producido por la irrupción de la pulsión debe ser neutralizada, y retornar a su medida original. Y aún cuando Freud dice que en la práctica la descarga de la pulsión no se realiza tan libremente debido a ciertas barreras que se opondrán a esa descarga, a pesar de ellas el aparato psíquico buscará salidas sustitutivas (síntomas, sueños, fallidos, etc) que reivindiquen el principio de constancia: a pesar de los obstáculos, hay siempre un intento por retornar al original equilibrio.

El psicoanálisis llega incluso aún más lejos, cuando Freud plantea la eterna lucha entre las pulsiones de vida y las pulsiones de muerte, donde terminan prevaleciendo estas últimas llevando al sujeto a su estado original, que es el estado inorgánico inanimado. El destino del hombre ya no es simplemente neutralizar el excedente de energía pulsional, sino la misma muerte, vale decir, reducir el monto energético a cero, o por lo menos a niveles incompatibles con el sostenimiento de la vida.

El hombre pasa a ser, digámoslo de otra forma, un sistema cerrado más, que intenta sustraerse a las influencias externas para mantener a toda costa un equilibrio anterior.

Y esto es así porque, como indica Horstein (h) Freud sólo disponía de una termodinámica de los sistemas cerrados. Los nuevos modelos teóricos mostrarán al hombre, en cambio, como un sistema abierto, cuya tendencia no es al equilibrio sino a desequilibrios que conducirán a nuevos reequilibramientos y a estructuras cada vez más complejas: las que Prigogine denominó, en química, estructuras disipativas.


Destaquemos, por último, que en el esquema del retorno al equilibrio original no hay lugar para el azar. Todo está allí determinado, y nadie podría equivocarse al predecir que, en última instancia, el comportamiento humano tiene un destino fatal. Si quisiéramos reaccionar contra esta postura, no deberíamos cometer el error de lo que los psicólogos sistémicos llaman la ?ilusión de alternativas?, y creer que la única alternativa a un psiquismo determinado es un psiquismo que funciona totalmente al azar. Antes bien, el psicoanálisis podrá avanzar "si combina determinismo y azar, lo algorítmico con lo estocástico, la teoría de las máquinas y la teoría de los juegos" (i).

La alternativa no es entonces el puro azar, sino la mezcla de azar y determinismo de que habla la teoría del caos, y para ello habremos de remitirnos al segundo circuito de retroalimentación, donde están incluídas las estructuras disipativas.

b) La génesis de las estructuras disipativas.- ¿Es posible extender la teoría del caos al funcionamiento psíquico? ¿Qué lugar ocupan el azar y las estructuras disipativas de Prigogine en el psiquismo? Examinemos estas cuestiones tomando como ejes de referencia tres importantes orientaciones psicológicas: el psicoanálisis, la psicología genética de Piaget, y la psicología sistémica.

c) El psicoanálisis.- Indica Horstein que actualmente, la idea del psiquismo como un sistema cerrado con una energía constante es un punto de estancamiento en la reflexión psicoanalítica (i). Según el mismo autor, el inconciente debe ser considerado mas bien como un sistema abierto y como tal, capaz de autorooganización, desestructuración y reestructuración, lo que es posible si se lo concibe en el contexto de un circuito de retroacción (y más específicamente de retroalimentación positiva, según la terminología que venimos utilizando). "Esta retroacción cuestiona la causalidad lineal y funda la eficacia misma del trabajo analítico revelando una forma de recursividad donde el presente actúa sobre el pasado, el cual, sin embargo, condiciona la significación de lo actual. La retroacción permite pensar el advenimiento de lo nuevo en el interior de lo ya dado".

¿Qué significan estas palabras de Horstein? Lo siguiente: según el modelo de la causalidad lineal, la relación causa-efecto es unidireccional: la causa produce el efecto, pero no a la inversa. Lo pasado actúa sobre lo presente, de forma tal que lo que hoy somos, pensamos o sentimos es el producto de nuestras pasadas experiencias infantiles. O, si se quiere, ciertos procesos del pasado determinan inequívocamente el porvenir; pero sin embargo lejos han quedado aquellas épocas en que John Watson proclamaba exultante que podía modelar un niño como el adulto que el psicólogo quisiera. La retroacción viene a mostrarnos que no solamente el pasado influye sobre el presente, sino que también, de alguna manera, el presente influye sobre el pasado: en efecto, en el trabajo analítico es posible ?resignificar? el pasado, desestructurarlo para volverlo a estructurar de otra manera, como si estuviéramos desarmando un pullover y, con las mismas hebras de lana, hacer un pullover nuevo. A su vez, un pasado resignificado operaría de otra manera sobre el comportamiento actual, supuestamente en la orientación deseable y produciendo la cura.

Durante el proceso terapéutico analítico es posible verificar también mecanismos de retroalimentación negativa (bucle ABCA), como los descriptos de resistencia al cambio. Interesa destacar que esta tendencia a volver, a no cambiar es espontánea, y requiere menor cantidad de energía que iniciar el deseable cambio. Podemos pensar que el paciente que se resiste al cambio no puede contar con la suficiente reserva energética porque la que necesitaría para cambiar está siendo consumida en la resolución de un conflicto interno, por ejemplo, en el sostenimiento permanente de una defensa para contrarrestar la persistente e intensa angustia implicada en el riesgo de la liberación pulsional.


En suma: mientras el sujeto se encuentra desestructurado, está en el punto de bifurcación, donde tiene dos opciones: o intenta volver a la estructura anterior por retroalimentación negativa neutralizando la ?desviación? introducida por el analista (resistencias), o intenta reestructurarse mediante retroalimentación positiva. En esa encrucijada es altamente sensible a la influencia del entorno (a la palabra del analista) y cualquier acontecimiento que se produzca por azar entre analista y analizado, por pequeño quie sea, podrá producir efectos importantes: una breve intervención interpretativa en este momento tan sensible provocará en el mejor de los casos la formación de una nueva estructura, la instauración de un nuevo orden que podrá eventualmente justificar el alta.

Horstein declara implícitamente la importancia de ese punto de bifurcación donde el acontecimiento fortuito tendrá una importante repercusión, o no: "¿El acontecimiento azaroso puede hacer surgir nuevas posibilidades de historia, o es sólo un disfraz que forja la compulsión de repetición, apenas un pretexto para el idéntico retorno a lo ya inscripto?".

Pensar, en síntesis, el procesos terapéutico en términos de un mecanismo de realimentación positiva donde el pasado influye sobre el presente y este sobre el pasado, es volver a una idea original de Freud, pero abortada por la influencia que sobre él ejerció la termodinámica de los sistemas cerrados, a comienzos del siglo. Como termina diciendo Horstein "Freud concibió al inconciente como un sistema abierto, pero lo modeló como un sistema cerrado".

Una última consideración: en la medida en que reconozcamos la influencia de los acontecimientos aleatorios en el punto de bifurcación, deberemos aceptar que el psiquismo es el producto del determinismo y del azar al mismo tiempo, lo que entre otras cosas explica porqué la conducta del hombre no es predecible con una seguridad del ciento por ciento. Desde ya, cuando hablamos de azar seguimos la idea de Prigogine según la cual el azar no es tanto un invento nuestro para justificar nuestra ignorancia sobre las causas de las cosas, como algo que forma parte de lo real, en forma objetiva. El azar como invención aparece por ejemplo en las explicaciones que dan los mismos pacientes sobre su propia compulsión a la repetición: "¡Qué maldita suerte! ¡Siempre me tocan para casarme mujeres dominantes!" o también "Tengo la suerte en contra: me echan de todos los trabajos que consigo". En estos casos, el azar es una forma de ocultar el determinismo propio de la compulsión a la repetición, y adjudicar las desgracias a factores externos más que a factores internos.

d) La psicología genética de Piaget.- Si examinamos la evolución de la inteligencia según Piaget, la veremos desarrollarse en términos de desestructuraciones o pérdidas de equilibrio, que conducirán a nuevas reestructuraciones o equilibrios superiores y más sutiles.
Las estructuras cognoscitivas de Piaget, tales como el grupo práctico de los desplazamientos y, más adelante, los reticulados y otras, pueden ser comprendidas como estructuras disipativas, en la terminología de Prigogine. Las razones para trazar semejante comparación son, por lo menos, las siguientes:


a) Piaget sostiene que cuando se produce un desequilibrio, el sistema mental existente hasta entonces buscará instrumentar medidas compensatorias que, lejos de retornar al equilibrio original, intenta un nuevo equilibrio mediante la construcción de una nueva estructura sobre la base de la anterior, nueva estructura que resulta evolutivamente más adaptativa. Cada nuevo estadio viene definido por una nueva estructura, es decir representa un salto hacia una nueva estructura disipativa. El retorno al equilibrio original es lo contrario de un proceso evolutivo.


b) En el periodo de tiempo donde se verifica el desequilibrio, el psiquismo resulta ser altamente sensible a las influencias del entorno. Un niño ocupado en afianzar una nueva estructura y que aún no entró en un nuevo desequilibrio, está en un momento de acomodación, donde cualquier estímulo externo es acomodado a la nueva estructura. Pero en un momento subsiguiente, el nuevo desequilibrio producido obligará al niño a buscar estímulos, se tornará más sensible a lo que ocurre en su entorno para poder generar una nueva estructura disipativa (asimilación). La acomodación es un tiempo de consolidación de estructuras, y la asimilación es un tiempo de búsqueda de estructuras nuevas y más complejas.


c) Estos nuevos estímulos ambientales suelen ser muy insignificantes y ocurrir por azar, pero producen consecuencias importantes a los efectos de la constitución de la nueva estructura. Un bebé puede tocar por azar, mientras agita incoordinadamente sus manos, una campanilla. Mediante un efecto de realimentación positiva esta influencia crece cada vez más permitiendo la instauración de reacciones circulares secundarias, y éstas a su vez las reacciones terciarias y finalmente ellas conducirán nada menos que a la construcción de la primera estructura cognoscitiva propiamente dicha: el grupo práctico de los desplazamientos.

En suma, la inteligencia se desarrollaría para Piaget de acuerdo al circuito de retroalimentación BCDB de nuestro esquema, donde cada nuevo agente externo fortuito estimula la génesis de nuevas estructuras disipativas.

e) La psicología sistémica.- Probablemente es en el ámbito de la psicología y la psicoterapia sistémica donde más influencia hayan ejercido algunas conceptualizaciones de la teoría del caos, toda vez que ambas comparten un punto de inspiración común: la Teoría General de los Sistemas. Como buenas hermanas de un padre en común, la psicoterapia sistémica y la teoría del caos tienen muchos elementos afines, y no resulta insólito que el proceso terapéutico sistémico pueda ser comprendido de acuerdo al esquema de Prigogine, que hemos sintetizado en el esquema que acompaña esta nota.

Estos intentos han tenido lugar especialmente a partir de 1980. Desde esa fecha, Fred Abraham y Larry Vandervert, cofundadores de la Society for Chaos Theory in Psychology, han venido trabajando en la aplicación de los conceptos de la teoría del caos al funcionamiento del psiquismo (j). En la misma orientación se sitúa William McDown, profesor asociado de Psicología Clínica de la Universidad de Hahnemann, quien sostiene que en el psiquismo hay sistemas que parecen comportarse aleatoriamente, pero que encierran un orden oculto que, aunque podamos conocerlo, es igualmente imposible hacer predicciones exactas. Las personas se parecen mucho al clima: tienen comportamientos predictibles pero también impredictibles, y nunca se pueden descubrir todos los factores que sobre ellas actúan (j).

Estas hipótesis fueron confirmadas por otros psicólogos como Butz (j). Así por ejemplo, una persona puede encontrarse en un punto de bifurcación, donde debe optar por mantener su equilibrio homeostático original, con lo cual está postergando el caos, o bien enfrentar el caos. El terapeuta debe en estos casos propiciar el caos, acentuar la desestructuración que intenta evitar la persona en cuestión, favorecer la proliferación de circuitos de retroalimentación positiva. Y al contrario, si la persona ya se encuentra en caos, la labor terapéutica será de contención, y buscará a ayudar a la persona a encontrar un símbolo personal que actúe como guía para organización una nueva estructura.


También los cognitivistas y los neurofisiólogos están interesados en el modelo del caos. Investigadores como Paul Rapp, en Pennsylvania (j), concluyó que, a juzgar por los registros electroencefalográficos y en comparación con el estado de reposo, el cerebro se vuelve más caótico cuando comienza a resolver problemas, lo que a nuestro entender coincide con los resultados de Prigogine para la química y las investigaciones de Piaget para la psicología, en el sentido de que un estado de desequilibrio induce a las personas a buscar información en el entorno para resolver el mismo mediante una nueva estructura cognoscitiva. En ese momento, la persona se encuentra altamente sensibilizada a cualquier influencia externa que, aún siendo pequeña, provocará grandes cambios, y el psiquismo funcionará caóticamente hasta el logro del nuevo estado de equilibrio.

Linda Chamberlain, psicóloga clínica del Colorado Family Center, en Denver (j) piensa que la teoría del caos ofrece una forma de entender cómo ocurren los cambios durante la terapia familiar. En la bibliografía que hemos consultado sobre esta cuestión no hay detalles específicos, pero procuraremos dar algunos ejemplos tomados de terapeutas sistémicos clásicos y entender sus propuestas desde la teoría del caos.


El esquema que estamos presentando puede muy bien considerarse como una descripción suscinta de los procesos de cambio o de no-cambio que pueden verificarse en el ser humano individual o en las familias, tanto los que ocurren en forma espontánea como los que son inducidos terapéuticamente.

En el esquema hay dos bucles o circuitos principales: el circuito ABCA es de retroalimentación negativa, y el circuito BCDB es de retroalimentación positiva. Mediante cualquiera de ambos circuitos pueden describirse procesos sanos y procesos enfermos, de manera que no siempre un circuito positivo es sano, ni uno negativo enfermo. Además, al estar ambos bucles interconectados en el punto de bifurcación, el proceso puede evolucionar combinando secuencias de retroalimentación negativa y positiva, o viceversa, tal como se ve en terapia familiar sistémica.

Watzlawick (k) y su equipo de Palo Alto, California, hablan de dos tipos de cambio verificables en un contexto terapéutico: los cambios-1 y los cambios-2.

Los cambios-1 (bucle ABCA), no modifican la estructura del sistema ni de su funcionamiento cibernético, y consiguientemente hacen que el problema original persista e incluso se agrave. Los cambios-1 nacen de la misma lógica que generó el problema, y frecuentemente consiste en hacer exactamente lo contrario: si el problema son los atracones de comida de una bulímica, el cambio consistirá en hacer a continuación una dieta estricta y no volver a comer hasta el otro día. De alguna forma es la lógica del sentido común, que prescribe compensar una desviación con una conducta opuesta. Se trata, evidentemente, de un mecanismo de retroalimentación negativa, que busca neutralizar las desviaciones sintomáticas.

El bucle ABCA es característico de los comportamientos de resistencia al cambio, ya que por definición, la retroalimentación negativa busca retornar a una situación original, lo que permite a la bulímica volver a reiniciar su ciclo intempestivo de comidas.


Los cambios-2 (bucle BCDB), en contraste, afectan los parámetros mismos del sistema, cambian la estructura y recurren a soluciones que contradicen el sentido común. Así, las intervenciones paradójicas en vez de sugerir a la bulímica que haga una dieta estricta, le sugiere que no haga dieta, o que siga comiendo, o que coma solo un poco menos, etc, es decir, se busca amplificar la desviación mediante una retroalimentación positiva. Aunque discutidas, se supone que tales intervenciones pueden producir cambios-2 en cortos periodos de tiempo. La escuela interaccional de Palo Alto plantea que estos cambios, se supone deben ir acompañados de una reestructuración cognitiva: la prescripción paradójica debe ser comunicada a la familia de la paciente bulímica en su propio lenguaje, apelando a su propio modo de conceptualizar la realidad, lo que obviamente exige cierta capacidad de adaptación del terapeuta al punto de vista familiar.


En la medida en que la familia pueda pasar del cambio-1 al cambio-2, podrá solucionar su problema eficazmente, pasaje que se ha de verificar en el punto de bifurcación, donde la intervención del terapeuta impedirá que persista el ciclo hacia A, y pueda ser desviado hacia B.


Por lo demás, en el punto de bifurcación no siempre encontramos una intervención terapéutica, y aquí van dos ejemplos: a) un acontecimiento como la muerte de un progenitor fuerza al sujeto a elegir entre dos caminos alternativos: hacia A, en cuyo caso neutralizará la pérdida negándola, y seguirá su vida normalmente sin hacer ningún duelo. Esto implica retrotraerse a la situación anterior a la muerte, para recuperar el equilibrio original; hacia D, donde el sujeto sufre una desestructuración momentánea -su vida parece caotizarse- pero puede salir de la crisis beneficiosamente reestructurado. b) el segundo ejemplo son las curaciones espontáneas, donde el sujeto (o la familia) evolucionan hacia D sin terapia alguna. Muchas veces esto es asignado al azar, pero en esta asignación suele haber un fuerte componente subjetivo: el terapeuta puede atribuír sus éxitos a sus propias maniobras terapéuticas, y los éxitos de la naturaleza (o los de algún colega), al simple azar.


La retroalimentación positiva puede ser normal o beneficiosa, por ejemplo cuando advertimos que la misma actividad del ser vivo facilita el encuentro azaroso con estímulos que lo desestructuren, alcanzando así una estructuración más compleja y más adaptativa. La vida es un continuo reequilibramiento que conduce al cambio, es decir a nuevos desequilibrios, y así sucesivamente, y en este trayecto el ser va cumpliendo su plan evolutivo. De la misma manera, una familia en terapia que se desestructure es en principio un buen indicador del proceso de curación. De aquí que una de las técnicas empleadas en terapia sistémica, sobre todo por la escuela de Minuchin y Haley, sea la desequilibración (l).

Esta consiste esencialmente en que el terapeuta fomente una alianza intensa entre él mísmo y algún sub-sistema de la familia (por ejemplo con la madre y el hijo) a los efectos de obligar a la familia a una reestructuración de sus límites (camino hacia D). De esta manera, el terapeuta crea las condiciones para que la familia del paciente esquizofrénico frene su tendencia homeostática hacia A, o tendencia hacia el no-cambio.


Pero la retroalimentación positiva puede también ser perjudicial, como cuando dos personas interactúan de tal modo que van desequilibrándose cada vez más pudiendo llegarse a una situación potencialmente peligrosa para sus respectivas integridades, como ocurre en las escaladas simétricas y complementarias descriptas por Watzlawick (m), o en los comportamientos interactivos que Bateson englobó bajo la denominación de fenómenos de cismogénesis. Es, por ejemplo, el caso de la persona que insulta a otra y esta, en vez de morigerar la situación retornando al anterior equilibrio, a su vez vuelve a insultar a su interlocutor y así sucesivamente, hasta llegar, por retroalimentación positiva, a los límites peligrosos a que hacíamos referencia.

Nos resta ver un último ejemplo donde la retroalimentación negativa pueda ser beneficiosa, ejemplo que también nos lo provee la práctica terapéutica sistémica. Una vez que una familia completó su proceso de cura, está lo suficientemente estructurada como para que cualquier estímulo desequilibrante (una muerte, una enfermedad) , no precipite una nueva crisis que se vuelva a transformar en motivo de consulta. La familia sufrirá indudablemente un desequilibrio, pero está en condiciones de neutralizar las desviaciones por retroalimentación negativa y puede retornar al estado de equilibrio (o al estado constante, como lo llama Watzlawick), es decir, a aquel estado que pudo alcanzar mediante la psicoterapia.

14. Caos y orden en el lenguaje.- Un análisis del lenguaje verbal como sistema cerrado y como sistema abierto permite asomarnos tímidamente a sus posibilidades de evolución predecibles e impredecibles. ¿Cómo puede ser visto el lenguaje desde la perspectiva de la teoría del caos? El ejemplo de la creación literaria y la científica.

a. Física y psicología.- ¿Puede la física explicar la conducta humana? De antemano no podemos responder esta pregunta, ya que todo dependerá de nuestras expectativas acerca de lo que esperamos de una explicación.
Si un colectivo frena abruptamente, el pasajero será arrojado hacia adelante. Se trata de una conducta humana, si consideramos a esta en sentido amplio como todo cambio que ocurre en una persona. Este comportamiento podrá ser explicado desde la física, más concretamente desde una de sus ramas: la dinámica de los sólidos (n), y aún más concretamente a partir del principio de inercia.

De este comportamiento no podríamos dar una explicación biológica, porque a pesar de ser una respuesta involuntaria producida por cierto estímulo, nadie diría que se trata de un reflejo. Tampoco podríamos ofrecer una explicación psicológica, salvo que nuestro hombre haya exagerado su movimiento o se haya dejado llevar por la inercia para caer justo encima de una señorita con la que quería entablar una relación.

Algunas teorías psicológicas utilizan el adjetivo ?dinámica?, como la teoría del campo de Lewin, o la teoría psicoanalítica. En estos casos, no se está haciendo alusión a fuerzas físicas, como la fuerza de la inercia o la fuerza de gravedad, sino a fuerzas psíquicas, como la motivación o las pulsiones. Las primeras actúan sobre objetos inertes, y las segundas sobre conductas que se buscan explicar desde la psicología.
Esta aclaración viene a cuento porque muestra ejemplos de teorías psicológicas que han tomado conceptos de la física, y los han transformado y adaptado a la realidad psíquica.

En esta nota vamos a explorar, un poco superficialmente, otra rama de la física y sus posibles aplicaciones en psicología: la termodinámica. Desde ya, este intento no es novedoso: cierta teoría grupal de roles (ñ), por dar un ejemplo, utiliza bastante implícitamente el primer principio de la termodinámica para describir el funcionamiento grupal en términos de procesos de locomoción y procesos de mantenimiento.
Otro ejemplo clásico es Freud: uno de los principios sobre los que descansa el psicoanálisis es el principio de constancia, basado a su vez, en los principios de la termodinámica.

Como ejemplo de fenómeno psíquico para explicar tomaremos la creación literaria, y para ello utilizaremos como marco de referencia la termodinámica, la teoría general de los sistemas y la teoría de las estructuras disipativas de Prigogine (vulgarmente llamada teoría del caos).
Los tres sistemas teóricos están íntimamente relacionados: por ejemplo, la termodinámica estudia ?sistemas?, y la teoría de Prigogine es una teoría más dentro de vasto campo de la termodinámica.
Primeramente retomaremos algunas puntualizaciones sobre la aplicabilidad de la teoría del caos en psicología, luego nos referiremos al análisis del lenguaje y enseguida después, dentro de este último marco, al problema de la creación literaria.

b. La teoría del caos en psicología.- Sabemos que la conducta humana puede presentársenos en diversos grados como caótica y desorganizada. Tal el caso ostensible del neonato, del demente, del adolescente, pero también el adulto normal tiene momentos donde planifica actividades -por ejemplo para un fin de semana- y luego su plan no se cumple, procediendo de una manera errática y pareciendo estar regido únicamente por el principio del placer.

Frente a estos comportamientos desorganizados, la psicología ha intentado minimizar su importancia (para la teoría, no para la clínica) argumentando que detrás de ellos se esconde un orden regido por las leyes de la conducta (como el conductismo) o las leyes del inconciente (como el psicoanálisis). Es frecuente la expresión "parece un caos", con lo cual se asimila o se identifica siempre caos con apariencia. La teoría del caos viene a sugerirnos un punto de vista muy diferente: el comportamiento caótico tiene valor en sí mísmo, tiene la misma entidad, el mismo status ontológico que el orden, y nuestra actitud hacia ese caos ya no consistirá en soslayarlo intentando buscar un orden subyacente (verticalidad), sino en intentar verlo como parte de un proceso que proviene de un orden previo y que desemboca en un nuevo orden (horizontalidad). El orden ya no está debajo sino a los costados, la ?verdadera? realidad ya no es solamente el orden sino la alternancia orden-desorden, teniendo ambos polos la misma entidad. Se trata, entonces, por emplear un término de la filosofía, de hipostasiar el caos, o sea de elevarlo a la categoría de una instancia constitutiva de lo real - no de lo aparente- y por lo tanto ya no habrá de constituír un punto de partida para llegar a lo real subyacente y explicarlo desde allí, sino instituírlo como instancia explicativa (no explicada) del orden subsiguiente (y no subyacente).

Este planteo viene a oponerse en cierto sentido a nuestra tradición kantiana, según la cual seguimos considerando que somos nosotros desde nuestras ?formas de la sensibilidad? y desde nuestras ?categorías del entendimiento? quienes organizamos el mundo, cuando en realidad la organización y la desorganización de éste resultan ser independientes de un sujeto cognoscente. Se opone también al clásico principio de la uniformidad de la naturaleza, de tipo laplaceano, según el cual el mundo tiene un orden y, en cualquier caso, el desorden que percibimos no es algo constitutivo de él sino el resultado de un falencia perceptiva. ¡Los sentidos nos engañan! es la exclamación que viene resonando desde aquellos siglos cartesianos.
La teoría del caos nos habla de una secuencia orden-desorden-orden en la naturaleza. El lenguaje verbal no es la excepción, toda vez que es el resultado de nuestra actividad mental, producto a su vez del cerebro, y producto a su vez de la naturaleza.

c. Caos y lenguaje.- Hábito laríngeo según el conductismo, embrujador de la inteligencia para Wittgenstein, función semiótica de acuerdo a Piaget, sistema de oposiciones y diferencias según Saussure, producto de transformaciones sintácticas para Chomsky, apaciguador de la agresividad para Freud o modelo isomorfo del inconciente según Lacan, el lenguaje fue, desde los sofistas griegos hasta nuestros días, el objeto y el motivo de agudas reflexiones y perplejidades varias. Y tal vez sea mucho más lo que aún no se ha dicho.


Pero, ¿acaso tienen algo que decirnos la termodinámica y la teoría del caos acerca de la naturaleza de una de las más notables creaciones del cerebro humano, a su vez la entidad más compleja e impredecible del universo conocido? No está de más intentarlo: como dice Prigogine, las ciencias naturales y las ciencias humanas solamente tienen dos opciones: o progresan juntas, o juntas desaparecen. En este caso, obviamente, aludimos a la física y a la psicolingüística.

Sepa el lector que, para comprender lo que sigue, no está obligado a conocer abstrusas fórmulas de entropía o de energía interna: nada menos que para Einstein, la mayor parte de las ideas fundamentales de la ciencia son esencialmente sencillas. Lo son, sí, las ideas, agregamos, pero no tal vez las realidades a que ellas remiten, siendo que la claridad es apenas una ilusión útil que esconde toda la complejidad de los sucesos "por fin" aclarados.

Organicémonos. El lenguaje humano -y, paradigmáticamente, el lenguaje verbal- puede ser concebido como un sistema cerrado o como un sistema abierto.

El lenguaje como sistema cerrado.- Sabemos que un sistema cerrado no intercambia materia, ni energía ni información con su entorno. Cuando el autor compone su texto, entrega información, y cuando el lector lo lee recibe información. Este intercambio de información hace que el lenguaje sea un sistema abierto, pero supongamos ahora que un trozo de discurso no tenga esa sublime posibilidad, debido a que poco a poco deje de recibir energía e información de su entorno.

El primer ejemplo es un discurso hablado por una persona. ¿Cómo va cambiando este texto, pongamos por caso, cada diez años? Conforme avanza el tiempo, y como consecuencia de la natural involución del sistema nervioso, ese texto va desintegrándose cada vez más, hasta constituír en el anciano, un conjunto amorfo de palabras donde los significados y la organización sintáctica se pierden cada vez más y más.
Ellenguaje avanza hacia un estado de desorden cada vez más acentuado, y lo que supuestamente funciona como soporte material, esto es, la red neuronal, poco a poco y especialmente después de la muerte va convirtiéndose en materia inorgánica, y esta a su vez en polvo cósmico, si hemos de considerar que han pasado eones.

Nuestro segundo ejemplo es un texto escrito. Sus significantes son acúmulos de tinta que, si los dejamos estar sin suministro de energía o información del exterior, manteniéndolos aislados como sistemas cerrados, poco a poco evolucionarán también hacia un estado de máximo desorden, o como dicen los físicos, hacia un estado de máxima entropía: el papel que los soporta va desintegrándose con el paso del tiempo y el final es equivalente al final del lenguaje hablado abandonado a su suerte: el polvo cósmico. En un poema, J.L. Borges se preguntaba acerca de qué relación podían tener una biblioteca con el polvo estelar, y aquí la termodinámica viene a dar su propia respuesta.
Significantes y significados, aislados de su ambiente, tienen así un destino que resulta perfectamente predecible, lo que nos produce en todo caso más desazón que perplejidad: la termodinámica ya tiene previsto que los sistemas cerrados evolucionan hacia el desorden, porque no reciben del exterior el ?combustible? que les permite mantenerse organizados u organizarse aún más.

Para decir lo mismo desde otro punto de vista: considerado como sistema cerrado, el lenguaje tiende a evolucionar hacia un estado de máxima probabilidad: el estado de desorden. El punto de partida puede ser por ejemplo un estado de lengua organizado, donde cada letra no aparece por azar sino que tiene asignada una determinada probabilidad de aparición. Por ejemplo, es más probable que la siguiente letra de un texto sea una "e" y no una "z", como advirtieron los pensadores de la Teoría de la Información, con Shannon a la cabeza.
Sin embargo, en cuanto ese mismo lenguaje evoluciona (o si se prefiere, involuciona) hacia un estado de desorganizacíón cada vez mayor, ya dejan de existir razones valederas para pensar que unas letras tienen más probabilidad que otras: todas adquieren la misma probabilidad de aparecer, puesto que su distribución es al azar. Este estado de equiprobabilidad es perfectamente predecible y es, por lo demás, el estado final más probable. El lenguaje de un cerebro muy senil, por caso, es tan azaroso que cualquier letra tiene la misma probabilidad de seguir otra cualquiera.

Hasta aquí vamos extrayendo una conclusión: a medida que el lenguaje se desorganiza, se torna predecible su estado final, a saber, el máximo desorden, y al mismo tiempo y por eso mismo se tornan impredecibles las siguientes letras o palabras que aparecerán. Como decíamos, ¿acaso podemos predecir cuál es la próxima palabra que pronunciará un esquizofrénico delirando, o un sujeto con demencia senil? El lenguaje como sistema cerrado evoluciona hacia grados de impredecibilidad perfectamente predecibles. Ello ocurre porque el sistema se va "cerrando" cada vez más, a medida que las neuronas dejan de recibir adecuadamente la energía proveniente de la glucosa, o a medida de dejan de recibir información a través de órganos sensoriales en decadencia.

El lenguaje como sistema abierto.- Si la idea del lenguaje como sistema cerrado nos producía desazón, la idea de un lenguaje como sistema abierto nos producirá mas bien perplejidad, en la medida en que, si consideramos al lenguaje como un sistema abierto, no evolucionará hacia estados predecibles sino hacia estados impredecibles, y es aquí donde podría suministrarnos respuestas plausibles la termodinámica irreversible y la teoría del caos de Ilya Prigogine.
Pero vayamos por partes, y tomemos como ejemplo la creación literaria. Según la teoría de Prigogine, los sistemas evolucionan del orden al caos, y del caos nuevamente al orden y así sucesivamente. La termodinámica prescribe que todo sistema evolucionará hacia el caos, se desorganizará y desintegrará cada vez más, a menos que reciba un aporte de energía y/o información del entorno. Si una planta no recibe la energía solar que desencadena el proceso anabólico fotosintético que la hace crecer, se termina pudriendo y desintegrando, degradándose al estado inorgánico.

En esta tendencia al caos de todo sistema existe entonces un punto de bifurcación, como lo llama Prigogine, donde el sistema tiene dos posibilidades: o bien continúa su proceso de caos progresivo y termina retornando a un estado anterior (por ejemplo el estado inorgánico), o bien ocurre por azar un acontecimiento que hará que el proceso evolucione hacia un orden creciente alcanzando un nuevo estado de equilibrio llamado estructura disipativa.

¿Cuál sería el equivalente en la investigación del lenguaje, del punto de bifurcación y de la estructura dispersiva de la que habla Prigogine? Tomemos dos ejemplos: uno de creación literaria y otro de creación científica.

a) El primero tiene que ver con un lenguaje cinematográfico, con el guión de la película "Titanic", de James Cameron, estrenada este año. En principio, hay dos posibilidades: un guión convencional y repetitivo, y un guión creativo y original.


El guión convencional hubiera consistido en narrar los hechos linealmente y en una forma casi totalmente predecible: el barco sale del puerto, luego lo vemos surcar el Atlántico, choca con un témpano, se hunde y algunos pasajeros se salvan. Mientras el guionista va pensando este argumento, se produce en su mente una especie de desorganización momentánea, de caos donde evoca imágenes diferentes, como si fuera un rompecabezas de debe armar. Poco a poco va llegando al punto de bifurcación, donde el guionista convencional encuentra una salida que implica un retorno al estado anterior: narrar los hechos tal como sucedieron, en la forma antes indicada, o los narra como también lo había hecho la película anterior. Otro guionista más creativo, al llegar al punto de bifurcación genera una nueva estructura argumental. Para generar y mantener esta estructura disipativa se requiere aporte externo de energía e información, esta última,por ejemplo, bajo la forma de imágenes alternativas que surgen de ideas personales o de ideas sugeridas por cosas que vió o leyó. La solución que dio Cameron a su película resulta original. El film no comienza con la clásica salida del puerto del Titanic, sino con un cazafortunas que busca en el barco ya hundido un supuesto tesoro escondido en una caja. Cuando la abre, no hay tal tesoro pero en su lugar hay un retrato, una foto en color sepia de una mujer joven. La siguiente imagen es esa misma mujer cuando ya es anciana, y rememora su romance a bordo del Titanic. A partir de aquí, el argumento retrocede hasta la época en que ocurrieron los hechos. Todas estas imágenes que aparecen desde el comienzo no permiten casi prever cuál será la siguiente (ni siquiera la primera imagen del cazafortunas es predecible): la estructura disipativa es un orden que no puede predecirse a partir del caos anterior. Si el día de mañana se decide hacer una nueva película sobre el tema, el nuevo guionista podrá partir de la última línea argumental, ahora clásica, y, o bien repetirla volviendo al estado anterior, o bien generando una nueva estructura disipativa, es decir, un nuevo diseño argumental.

b) El segundo ejemplo tiene que ver con la tarea que emprende quien debe escribir una monografía o una tesis. Lo primero que aparece es un estado de confusión, de caos. El texto científico aparece primero tal vez como una idea difusa, un sueño, una inspiración o incluso simplemente una simple voluntad por querer escribir algo. En esta etapa, el pensamiento se mueve erráticamente, toma y abandona ideas con facilidad, y hasta puede cambiar hasta su propósito original. Esta confusión inicial progresa hacia el punto de bifurcación, donde una posibilidad es escribir algo ya escrito (hay monografías que son simples transcripciones textuales), y otra posibilidad es, en vez de la repetición, la creación de una nueva estructura disipativa, un nuevo orden, de manera que queda una distancia entre el texto imaginado, garrapateado, corregido y finalmente publicado. Mientras tanto el texto sufre diversas correcciones. El primer lector de un autor es él mísmo, y es también su primer crítico, a veces feroz y despiadado. Un buen escritor, dijo alguien, es aquel que escribe veinte hojas y tira diez y nueve.


El resultado final es una estructura ordenada donde nada sobra ni nada falta. Un buen cuento, para Isidoro Blainstein, es como un reloj: no sobre ninguna pieza-palabra, ni tampoco falta ninguna. Es predecible un orden, pero no qué clase de orden: una misma consigna para distintos escritores, darán diferentes productos terminados. La impredecibilidad del tipo de orden al que se llega está dada por la incertidumbre o la intriga acerca de cuál será el siguiente párrafo. El escritor original busca nuevas combinaciones porque ello, al hacer más improbable, incierto o impredecible el próximo párrafo, lo hace también más informativo, según la idea de Shannon.
Aunque es más difícil, también puede estructurarse el discurso de manera que sea incierta no el próximo párrafo sino la próxima palabra, y, aún más difícil, que lo incierto sea la siguiente letra dentro de la palabra.
En síntesis, podríamos decir que desde que el sujeto incorpora las primeras letras del alfabeto hasta que termina escribiendo una tesis, va aprendiendo a administrar los recursos entrópicos del lenguaje. Si quiere un texto más creativo, aprenderá que debe consumir más energía, y si quiere ahorrarla, se transformará en un repetidor. Para ello cuenta con un patrimonio colectivo constituído por 28 letras, en el caso del castellano. Si solamente con las diferentes combinaciones de unas pocas bases cíclicas nitrogenadas del ADN se pueden generar tantos seres vivos diferentes, ¿que esperar de las 28 unidades de nuestro lenguaje?

(a) Cazau Pablo, "Introducción a la investigación en ciencias sociales", Buenos Aires, Rundinuskín Editores, 1991, página 72.
(b) Watzlawick P, Beavin J y Jackson D, "Teoría de la comunicación humana", Barcelona, Herder, 1981, 2° edición, páginas 59-149-151-250).
(c) Sorman Guy, Los verdaderos pensadores del siglo XX.
(d) Enciclopedia Temática Guiness, Barcelona, Folio, 1994, página 23.
(e) Reportaje a Ilya Prigogine (Clarín, 10-12-89).
(f) Reportaje a Alvin Toffler (La Nación, 27-11-86).
(g) Reportaje a Ilya Prigogine (La Nación, 27-10-91)
(h) Horstein L, Azar y determinismo. El psicoanálisis y la historia, Bs As., Página 12, 20-10-94.
(i) Horstein L, El cristal y el humo. Temporalidad, determinación y azar, Bs As, Página 12, 22-9-94.
(j) Moure F, Alas de mariposas: un nuevo modelo para la psicología, Bs As, Prensa Psicológica N°2, Mayo/Junio 1994, págs. 17-19.
(k) Watzlawick P y otros, Cambio, Barcelona, Herder.
(l) Feixas G y Miró MT, Aproximaciones a la psicoterapia, Barcelona, Paidós, 1993.
(m) Watzlawick, Beavin y Jackson, op. cit., págs. 104 y 149.
(n) La dinámica es la parte de la física que estudia el movimiento de los cuerpos en relación con las causas que los producen. Abarca la dinámica de los sólidos, la dinámica de los líquidos (hidrodinámica) y la dinámica de los gases. Estas dos últimas partes se llaman, en conjunto, dinámica de los fluidos.
(ñ) Romero Roberto, "Grupo, objeto y teoría", Volumen 2. Buenos Aires, Lugar Editorial, 1992, capítulo 4.

Cazau, Pablo (1995) La teoría del caos. [En línea] En: Antroposmoderno(2002-10-09). Disponible en: http://antroposmoderno.com/antro-articulo.php?id_articulo=152

Permalink :: Comentar | Referencias (0)

Teoría del Caos

Por Episteme - 26 de Noviembre, 2012, 17:21, Categoría: Filosofía de la ciencia

Lorenz Attractor on Twitpic

La introducción del Caos en las distintas disciplinas científicas a partir del siglo pasado representa sin lugar a dudas un cambio de paradigma frente a los fundamentos del modelo clásico, quiebre que significa principalmente un claro rechazo a la concepción determinista de los procesos humanos y naturales. Uno de sus precursores fue el matemático francés Henri Poincaré (1854-1912), que ya a principios del siglo XX haba llegado a ciertas conclusiones que habrán de ser un importante antecedente histórico y conceptual a la teoría del caos. As, ensayando con sistemas matemáticos no lineales descubrió que un pequeño error en las condiciones iniciales, en vez de generar pequeñas modificaciones en el sistema, provocara enormes cambios y una transformación sustancial de aquel estado original. Similares conclusiones llegaron al encuentro de Edward Lorenz (1917-2008), matemático y meteorólogo estadounidense, cuando en la década del 60, tratando de predecir el clima a través de fórmulas matemáticas que relacionaban variables como tiempo y humedad, descubrió una propiedad que resume en pocas palabras una característica esencial del caos: la sensibilidad a las condiciones iniciales. Esta propiedad, similar a lo que se desprenda en las conclusiones de Poincaré para las matemáticas, supone que la ms mínima perturbación en las condiciones iniciales de un sistema dado deriva en cambios cualitativos de tal magnitud que terminan por modificar sustancialmente el sistema en su totalidad. De manera tal que Lorenz llegó a la conclusión de la imposibilidad de pronosticar fenómenos climáticos más allá de un cierto número de das. Algo parecido ocurrirá en el campo de la biología para la misma poca; distanciándose de una visión generalizada que se tena respecto a los sistemas dinámicos biológicos, algunos ecólogos manifestaban para ese entonces que el desorden observado en las oscilaciones del tamaño de las poblaciones animales y vegetales era tal vez inherente a dichos sistemas, es decir, se estaba rompiendo con una concepción general de la biología que reconozca en la estabilidad la cualidad determinante de los sistemas, siendo el desorden atribuible a la sola influencia de factores externos.


Todas estas argumentaciones confrontaban con aquella cosmovisión dominante del siglo XIX en donde el orden y el desarrollo determinista del mundo se erijan como ejes fundamentales de la misma. En efecto, exista una adecuación básica a los postulados de la física clásica, a partir de los cuales se crea que en todo proceso temporal el futuro dependa de un modo determinista del pasado. Un ejemplo de esto era el sistema solar, siendo un sistema dinámico, se argumentaba que dadas las posiciones y las velocidades de todos los planetas en un instante dado, las leyes de la mecánica permitirán calcular sus posiciones y velocidades en todo instante ulterior. Pierre Simon Laplace, astrónomo, físico y matemático francés nacido en 1749, supo ser un cabal defensor de esta visión determinista, al tiempo que argumentaba que si un intelecto pudiese condensar todas las fuerzas que animan la naturaleza y las posiciones de los seres que la componen, para ese intelecto nada podrá ser incierto. Mas allá de esta figura ejemplificadora, conocida como el "demonio de Laplace", lo que subyace a este argumento es la concepción determinista del mundo propio de la física clásica, a partir de la cual la imposibilidad de predecir acontecimientos futuros, se crea, estaba dada por la ignorancia de alguna de las condiciones iniciales propias del sistema y no por el desarrollo del mismo.

Pero a partir del siglo XX esta cosmovisión comienza a resquebrajarse, y frente a los conceptos de orden, determinismo y desarrollo lineal entronizados por el modelo clásico, empiezan a surgir nuevas concepciones que dan cuenta de un cambio de mentalidad y de un quiere de poca fundamental; desorden, caos, indeterminismo y desarrollo aleatorio comienzan a ser conceptos explicativos validos de la realidad. Uno de los principales exponentes de esta visión general y de la Teoría del Caos en particular fue Ilya Prigogine, Físico, químico y profesor universitario belga de origen soviético, galardonado con el Premio Nobel de Química del año 1977. Su formulación de una termodinámica general se explica a partir del estudio de las estructuras disipativas (estructuras que cambian materia y energía con el exterior y, por ende, altamente inestables) en el mundo físico y del análisis de una de sus propiedades fundamentales, la posibilidad de dar lugar a una auto-organización espontánea, o dicho en otros términos, la manera en que el desorden genera orden. Esto último resulta clave para entender el pensamiento de Prigogine puesto que el autor no sostiene, así como tampoco las formulaciones generales del Caos, que nicamente existe el desorden y el caos (de ser as cualquier intento científico estará condenado al fracaso) sino que en el Universo se manifiestan ciclos sucesivos de orden y desorden, es decir, la realidad se presenta como una "mezcla" de estados. De este modo, el estudio de las estructuras disipativas le sirvió a Prigogine para postular que los desequilibrios químicos no desembocan siempre en la anarquía, sino que algunas veces permiten la aparición espontánea de organizaciones o estructuras perfectamente ordenadas. Ahora bien, al interior de este proceso dinámico el lugar no menor que ocupa el azar y lo aleatorio define sobremanera el proceso mismo, lo que hace imposible predecir con absoluta exactitud el desarrollo del sistema ("el fin de las certidumbres"). Una figura clásica y ejemplificadora de este desarrollo es la de "puntos de bifurcación", a través de la cual se explica cómo el desarrollo de un sistema dado no prosigue una secuencia lineal y susceptible de ser anticipada sino que en determinado momento de su evolución se enfrenta ante la posibilidad de "caminos" alternativos, siendo imprevisible la "rama" de la bifurcación que "escoger" el sistema, lo que hace al fenómeno absolutamente aleatorio. De esta forma las leyes del caos no solo rompen con el modelo determinista y lineal de la mecánica clásica sino que incorporan cambios sustanciales en la concepción del tiempo, dejando atrás la visión reversible y bidireccional del mismo (sin distinguir entre pasado y futuro) por aquella ligada a la "flecha del tiempo", esto es, transcurriendo irreversiblemente en una sola dirección. Siguiendo el principio de Bolzmann, el paso del tiempo implicara un "olvido" de las condiciones iniciales a punto tal de pensarlo imposiblemente reversible. As definido, Prigogine entiende que su "dimensión creadora" o "papel constructivo" evidencia claramente una forma de ruptura frente a la concepción clásica del tiempo.


Uno de los aspectos ms enriquecedores que se desprenden de la Teoría del Caos es que nos invita a pensar una realidad esencialmente "abierta" y "plural", lejos ya de aquella cosmovisión determinista del siglo XIX. De esta forma la libertad humana ya no depende exclusivamente de la voluntad ni de la responsabilidad del sujeto, sino que la libertad es parte objetiva de la realidad misma, lo que representa una invitación estimulante a discutir tica y moralmente la "pluralidad de futuros" posibles. El fin de la capacidad humana ("laplaciana") para poder predecirlo todo termina por ser una condición liberadora cuando se llega a reconocer en ella una ganancia del saber, o dicho en otros términos, cuando la ciencia logra integrar lo posible a su esfera de conocimiento, reconociendo a lo real solo como una realización entre las muchas posibles.


Fuentes: Lombardi, O., Los aportes de Prigogine a la Biología y a las ciencias sociales, tesis doctoral; Revista "Mundo Científico", N 115 volumen 11; Prigogine, I., Las leyes del caos, Critica, Barcelona, 2004; Spire, A., El pensamiento de Prigogine, Andrés Bello, España, 2000; Cazau, P., La teoría del Caos, www.antroposmoderno.com

Vilardo, Fernando. Teoría del Caos [En línea] Disponible en: CECIES. Pensamiento Latinoamericano alternativo. http://www.cecies.org/articulo.asp?id=126

 

Permalink :: Comentar | Referencias (0)
Etiquetas:

Theory of Natural Selection

Por Episteme - 28 de Noviembre, 2007, 21:59, Categoría: Filosofía de la ciencia

Philosophy of Science
and the Theory of Natural Selection

John Losee
Lafayette College


ABSTRACT: Toulmin, Hull, Campbell, and Popper have defended an "Evolutionary-Analogy" view of scientific evaluative practice. In this view, competing concepts, theories and methods of inquiry engage in a competitive struggle from which the "best adapted" emerge victorious. Whether applications of this analogy contribute to our understanding of science depends on the importance accorded the disanalogies between natural selection theory and scientific inquiry. Michael Ruse has suggested instead an "Evolutionary-Origins" view of scientific evaluative practices in which scientific inquiry is directed by application of epigenetic rules that have become encoded in homo sapiens in the course of evolutionary adaptation. Among these rules are "formulative theories that are internally consistent," "seek severe tests of theories," (Popper) and "achieve a consilience of inductions" (Whewell). As a descriptive theory of science, the "Evolutionary-Origins" view is prima facie inconsistent with evidence that human beings often make decisions that violate the "genetically-hard-wired rules." As a normative-prescriptive philosophy of science, the "Evolutionary-Origins" view is limited by the fact that in biological evolution, adaptation to present pressures may be achieved at the expense of a loss of adaptability (the capacity to respond creatively to future changes in environmental conditions).


In the 1980s, the hitherto-dominant normative-prescriptive conception of philosophy of science became the subject of a debate which continues to the present time. Some philosophers of science suggested that the proper aim of the discipline is the description of scientific evaluative practice.

There is a modest version and a robust version of descriptive philosophy of science. The aim of the modest version is the historical reconstruction of actual evaluative practice. Given that scientists preferred one theory (explanation, research strategy...) to a second, the modest descriptivist seeks to uncover the evaluative standards whose application led to this preference. For instance, the modest descriptivist may seek to uncover the standards implicit within such evaluative decisions as Aristotle's rejection of pangenesis, Newton's rejection of Cartesian Vortex Theory, or Einstein's insistence that the Copenhagen Interpretation of quantum mechanics is incomplete. Pursuit of a modest descriptive philosophy of science may require a certain amount of detective work, particularly for episodes in which the pronouncements of scientists and their actual practice do not coincide.

The conclusions reached by modest descriptive philosophy of science are subject to appraisal by reference to standards applicable to historical reconstruction in general. There is no distinctively philosophical task of appraisal. The modest descriptivist is a historian with a particular interest in evaluative practice.

The robust version of descriptive philosophy of science derives from, or superimposes upon, the conclusions of modest descriptivism, a theory about evaluative practice. The theory is put forward as a contribution to our understanding of science. It purports to explain why science is as it is. A robust descriptive philosophy of science typically includes the claim that scientific evaluative practices exhibit

certain patterns or conform to certain principles. Of course, not every historical instance will exhibit a pattern exactly or conform precisely to the requirements of a principle. But a successful robust descriptive theory must help us to understand at least some important episodes from the history of science.

A number of philosophers of science have sought to account for the growth of science by reference to the Theory of Organic Evolution. Michael Ruse has observed that "evolutionary philosophies of science" may be subdivided into two types. (1)

1) The "Evolutionary-Analogy" View develops an analogy between the growth of science and the operation of natural selection upon a pool of variants subject to environmental pressures. On this view, competing concepts, theories and methods of inquiry engage in a competitive struggle from which the "best adapted" emerge victorious.

2) The "Evolutionary-Origins" View attributes the growth of science to the application of epigenetic rules that have proved adaptive within the course of evolutionary history. On this view, science develops as it does because certain methodological rules and evaluative principles have become encoded in our genes. Acting on these rules and principles presumably proved adaptive for our proto-human ancestors.

The "Evolutionary-Analogy" View and the "Evolutionary-Origins" View are, in the first instance, robust descriptive philosophies of science. In addition, some evolutionary theorists have drawn normative-prescriptive recommendations from their theories about scientific progress.

The Evolutionary-Analogy View

Stephen Toulmin, David Hull, Donald Campbell and Karl Popper have developed versions of the Evolutionary-Analogy View. Toulmin maintained that the development of scientific concepts is an evolutionary process in which the fittest conceptual variants survive. (2) In a period of "Kuhnian Revolutionary Science", for instance, the victorious "paradigm" (set of concepts) is the one that best resolves the "anomalies" (disciplinary pressures) that gave rise to the adaptive crisis.

Toulmin held, moreover, that the identity-through-change of a scientific discipline is analogous to the identity-through-change of a biological species. Since we believe that we understand the interrelationship of the concepts 'variant', 'environmental pressure', 'adaptation' and 'fitness' within the theory of organic evolution, successful analogical extension of this interrelationship to the history of scientific evaluative practice presumably conveys understanding of "how science works".

David Hull sought to show that organic evolution and conceptual change are specific instances of a "General Theory of Selection Processes". (3) The General Theory specifies a mechanism by which entities pass on structure over time. The mechanism involves an interrelation among "interactors" and "replicators". Interactors compete with one another in response to environmental pressures. The resultant competitive differential adaptation of interactors causes differential success rates among replicators.

Replicators are entities which give rise to copies of themselves. In the organic realm, "replication occurs primarily at the level of the genetic material". (4) Interactors are entities subject to competition within some specific environment. In the organic realm, "interactors" include not only living organisms, but also genes, chromosomes, cells and kinship groups. (5)

Within the history of science, replicators are concepts and beliefs, and interactors are individual scientists and individual research groups. "Concept-replicators" are individual entities, but they exist in various contexts of interrelatedness. Beliefs also are individual entities, and include commitments to methodological principles and standards of appraisal.

Hull maintained that the history of science, like the history of organic forms, is the result of selective pressure operating upon a set of variants. The history of science is a history of "lineages", theories that change over time while retaining self-identity. Theories, like species, are entities determined by phylogeny, and not by possession of a common structure or set of properties. What counts is descent and not sameness of content.

Hull noted that, on a phylogenetic understanding of theory-life, "unappreciated precursors do not count." (6) Thus, Patrick Matthew's unnoticed formulation of the principle of natural selection (1831) is not part of the lineage of natural-selection theory. He noted also that a "phylogenetic" reconstruction of Darwinian Evolutionary Theory reveals a tree of descent whose branches include "Darwin's Darwinism, late nineteenth-century Darwinism, neo-Darwinian Darwinism, the new synthesis Darwinism, and so on". (7)

Hull's descriptive philosophy of science is robust. He maintained that we may increase our understanding of evaluative practice within science by reference to the General Theory of Selection Processes. Indeed, he claimed that otherwise puzzling aspects of evaluative practice are readily understood when viewed from the standpoint of the General Theory of Selection Processes.

One such puzzle is the success of science in policing the activities of its members. (8) The great majority of professional organizations are ineffective at imposing discipline upon their errant members. Science is a striking exception to the general rule. On Hull's model, an individual scientist is an interactor subject to the pressure of selection. Her "fitness" is established by publishing results that subsequently are acknowledged and utilized by other scientists. It is not in the long-term self-interest of a scientist to falsify or fabricate data, or to distort the conclusions reached by other scientists. Consequently, scientists collectively are quick to condemn and punish those occasional miscreants who undermine the process by which lineages are created.

A second puzzle is the vehemence of priority disputes among scientists. If the goal of science is the formulation of increasingly more powerful theories, what does it matter who receives credit for them? On the General Theory of Selection Processes it matters greatly. Theories are phylogenetic entitities. An interactor's fitness is measured by her contribution to such lineages. Any challenge to an interactor's role in the creation of a lineage is a serious threat indeed. Given Hull's Evolutionary Model, it is not surprising that priority disputes often are heated controversies.

Unfortunately for the Evolutionary-Analogy Program, there are important disanalogies between organic evolution and the growth of science. L. J. Cohen pointed out two such disanalogies.

In the first place, the process by which variants are produced within a breeding population takes place independently of the process by which the "better adapted" individuals succeed in the struggle to survive and reproduce. Mutation is a spontaneous, random process. As Cohen put it

    the gamete has no clairvoyant capacity to mutate preferentially in directions preadapted to the novel ecological demands which the resulting organisms are going to encounter at some later time. (9)

The situation is otherwise in science. Variant scientific concepts, methodological rules and evaluative standards are consciously created in order to overcome recognized deficiencies in older concepts, rules and standards. Thus there is an important relationship between the formation of scientific concepts and the subsequent fortunes of the theories within which they occur. "Variation" and "selection" are not uncoupled processes within science.

In the second place, biological species are not analogues of scientific disciplines. A biological species is a population of similar individuals each of which is a representative of that species. The same is not the case for a scientific discipline. A scientific discipline includes concepts, invariant and/or statistical relations among concepts, theories about underlying mechanisms, procedural rules and evaluative standards. These diverse ingredients are interrelated in complex ways. Even if we restrict attention to scientific concepts, it is clear that a concept such as 'force' does not instantiate physics in the way that 'Cigar' instantiates the species Equus.

Cohen emphasized that the identity-through-change of a biological species is markedly dissimilar to the identity-through-change of a scientific discipline. A biological species retains its identity provided that a set of individuals with similar characteristics at time t2 resembles in relevant respects another set of individuals with similar characteristics at time t1. But the identity-through-change of a scientific discipline is not of this type. In order to solve conceptual problems within a discipline we need a set of interrelated concepts, not a population of concepts with similar characteristics. Hence changes within a discipline involve a restructuring of an 'evolving' concept's relations to other concepts and not just a replacement of concepts similar to c1 by concepts similar to c2.

The adequacy of an Evolutionary-Analogy theory of science depends on the importance of the above-mentioned disanalogies. Cohen maintained that the independence of variation-generation and selection is an essential feature of the theory of natural selection. He concluded that the analogy to the growth of science fails. Toulmin and Hull, by contrast, conceded that this disanalogy exists, but insisted that the Evolutionary Analogy nevertheless provides a useful theory of science.

Donald Campbell sought to reinstate the evolutionary analogy by shifting attention from "random mutations" to "blind trials". He acknowledged that scientific beliefs, unlike biological variants, are not produced randomly. The scientist has in mind a problem to be solved and a history of prior attempts to find a solution. However, if scientific progress results from the selective retention of blind trials, then the core of the evolutionary analogy may be retained. Every random trial is a blind trial, but a trial may be blind without being random.

In Campbell's usage, a "blind trial" is a trial that satisfies three conditions: 1) the trial is independent of environmental conditions; 2) a successful trial is no more likely to occur at one point in a series of trials than at any other point in the series, and; 3) no trial in a sequence of trials is put forward as a "correction" of a prior trial. Campbell claimed that

    a blind-variation-and-selective-retention process is fundamental to all inductive achievements, to all genuine increases in knowledge, to all increases in fit of system to environment. (10)

Campbell thus maintained that the goal-directed decisions of scientists to entertain specific hypotheses are "blind" forays into the unknown, and that those hypotheses that prove "nonadaptive" under testing are eliminated.

The "Selective-Retention-of-Blind-Variants" View is a program for further research. In order for Campbell's program to succeed as a robust descriptive philosophy of science, two conditions must be fulfilled. The first condition is that the Evolutionary Analogy--amended to require selective retention of "blind" variants--must fit important episodes from the history of science. The second condition is that the "fit" has explanatory force.

Kepler's work on the orbit of Mars is a promising candidate for Campbellian reconstruction. Kepler hypothesized a number of ovoid orbits for Mars ("blind trials") before hitting upon an ellipse. The "blindtrials" picture also may be superimposed upon various programs to "save the appearances". The list of such programs includes Babylonian astronomy (the use of linear zigzag functions to calculate the day on which the next new moon appears), Ptolemy's mathematical models for calculating the zodiacal positions of the planets, the nineteenth-century algebraic chemistrys of Benjamin Brodie and Josiah Cooke, and contemporary econometric modelling of macroeconomic forces.

The modified Evolutionary Analogy is less promising as an account of theories about underlying mechanisms. It remains to be shown that Descartes' Vortex Theory, the Kinetic Theory of Gases, Molecular-Orbital Theory and Plate Tectonics Theory are results of the selective retention of blind trials.

Ron Amundson has insisted that the adequacy of "selection explanations" depends on the degree to which certain "central conditions" are met. These central conditions place restrictions on variation and sorting. Variations must be spontaneous, abundant and heritable modifications that are "nondirected with respect to the environmental needs of the organism". (11) And given a pool of such variants, there must be a

    preferential persistence of those variations which happen to be suited to the environmental needs of the organism or species- and (most importantly) this sorting mechanism is itself nonpurposive. (12)

Amundson maintained that the above conditions are necessary conditions of explanatory success for analogical applications of the theory of Natural Selection. He noted that challenges to proposed selection explanations often take the form of a denial that the requisite central conditions are met.

Campbell's "blind-variation-and-selective-retention" theory of scientific change would appear to be subject to two principal challenges. In the first place, the generation of variant hypotheses is neither random nor blind. Rather, hypotheses are put forward in response to recognized inadequacies within the scientific environment. In the second place, the sorting process that results in a decision to reject a high-level hypothesis involves judgments about background knowledge, auxiliary assumptions, experimental procedures, and sometimes even metaphysical principles. Amundson declared that

    the process of rejecting a 'falsified' hypothesis is often more like the literary critic's negative assessment of a poem than like the cold wind's freezing of the baldest polar bear. (13)

Campbell sought to blunt this type of criticism by acknowledging the existence of "shortcuts" for the blind-variations-and-selection-process. The formulation of hypotheses designed to address perceived deficiencies within a scientific domain may serve as a shortcut for the method of blind trials. Campbell insisted that such shortcuts themselves are an inductive achievement. He declared that we have acquired a

    wisdom about the environment achieved originally by blind variation and selective retention. (14)

Purposefully generated (nonblind) hypotheses may be part of a "phylogenetic lineage" the earlier members of which were generated by the blind-variation-and-selective-retention process.

Campbell's introduction of "shortcuts" raises anew the question about the explanatory force of his Modified Evolutionary Analogy. Does it have explanatory force to argue that scientists entertain goal-directed hypotheses today because at sometime in the past our ancestors engaged in blind trials (upon which selection operated)?

Karl Popper endorsed Campbell's version of the Evolutionary Analogy. He held that the conjectures of scientists are analogous to variations and that refutations are analogous to the selective retention of variants. On this view, the "phylogeny" of science is the lineage of theories that survives the rigors of severe testing.

Popper's opposition to inductivism is well known. He repeatedly insisted that there can be no successful algorithm for theory-formation. Popper likened the position of the theorist to the

    situation of a blind man who searches in a dark room for a black hat which is--perhaps--not there. (15)

The theorist, like the blind man, proceeds by trial-and-error, coming to learn where the hat is not, without ever reaching a certainty immune from rejection in the force of further experience.

Popper is correct to emphasize the role of creative imagination in the formulation of scientific hypotheses. The problem-situation does not dictate a solution to the theorist. However, neither are hypotheses formulated independently of the problem-situation. Popper's "black-hat image" is quite misleading. Scientific conjectures are "blind" only in the sense that the outcome of subsequent testing is unknown. They are not "blind" in Campbell's sense of being "independent of the environmental conditions of the occasion of their occurrence".

There is a further difficulty in Popper's particular use of an evolutionary analogy. Popper insisted that scientists ought formulate bold, content-increasing conjectures that run a high risk of falsification. But the Darwinian picture of descent-with-modification is a gradual accretion of small adaptations. Popper claimed explanatory value for an "Evolutionary Analogy" that includes pious references to "Darwinian Theory". But he also introduced "Lamarckian" emphases and "Saltation" effects that are inconsistent with that theory.

Of course, there have been disputes over the specific content of Darwinian Theory. However, if Amundson's "central conditions" express the core of this theory, Michael Ruse is correct to conclude that

    Popper has been no more successful than others in making traditional evolutionary epistemology plausible. The growth of science is not genuinely Darwinian. (16)

The Evolutionary-Origins View

The Evolutionary-Origins View, like the Evolutionary-Analogy View, may be defended as a purely descriptive theory about science. The Evolutionary-Analogy View is that there is competition leading to differential reproductive success within both organic evolution and science. The Evolutionary-Origins View is that scientific inquiry is directed by the application of epigenetic rules that have become encoded in homo sapiens in the course of evolutionary adaptation. We have certain capacities and dispositions because it was advantageous for our ancestors to have them.

Michael Ruse called attention to several epigenetic rules that appear to inform human evolution: 1) the partitioning of the (continuous) spectrum into discrete colors, a partitioning that takes place in diverse human cultures, presumably because it confers adaptive advantage in the struggle for existence; 2) the "deep structure" of language uncovered by Chomsky and others, and; 3) the prohibition of incest. Ruse suggested that there exist additional epigenetic rules that govern the creation of science: 1) formulate theories that are internally consistent; 2) seek "severe tests" of theories (Popper); 3) develop theories that are "consilient" (Whewell), and; 4) utilize the principles of logic and mathematics in the formulation and evaluation of theories. (17)

Critics of the Evolutionary-Origins View have pointed out that there is evidence that human beings often make decisions that are inconsistent with these supposedly "genetically-hard-wired" rules. Human subjects affirm the consequent with impunity, succumb to the "gambler's fallacy", and erroneously conclude that the probability of (A & B) is higher than the probability of A alone. Ruse acknowledged that this is evidence against the Evolutionary-Origins View, but insisted that it is

    better surely to suppose that much of the time we do not think particularly carefully or logically simply because it is not really necessary to do so, but when pressed we can do so and for very good reasons, namely, that those who could not tended not to survive and reproduce. (18)

This is unconvincing. If certain dispositions are acquired in the evolutionary process because of their adaptive value, then these dispositions ought be uniformly actualized. Ruse is forced to subdivide human actions into those that conform to the epigenetic rules (performed by scientists) and those that do not conform to those rules (performed by nonscientists in cases where it is "not really necessary" to conform). Ruse does not argue that those who fail to apply the epigenetic rules are likely to succumb to evolutionary pressures. Instead he introduces the ad hoc hypothesis that nonconformity occurs in cases in which conformity is not necessary. It is debatable whether such a move is consistent with the empirical method required by the position of evolutionary naturalism. (19)

Normative-prescriptive content may be added to the Evolutionary-Origins View by endorsing the move from

(1) The application of methodological rule R and evaluative standard S were adaptive responses to former ecological pressures P.

to

(2) R and S ought be applied by scientists today.

Ruse usually resisted the temptation to make this move. However, he sometimes teased the reader with suggestive adaptive scenarios. For example, he contrasted the responses of two hominids to evidence of the presence of tigers. Hominid #1 takes the existence of feathers, blood, paw marks in the mud, and growls from the bushes to establish a consilience of inductions, and flees. Hominid #2 views the same evidence but fails to see the importance of consilience. Ruse then asked "which of these two hominids was your ancestor?" (20) Ruse has led the reader to the point where it is natural to conclude, not only that the disposition to apply a standard of consilience has had adaptive value, but also that this standard ought be applied within science today.

However, Ruse did not issue explicit normative-prescriptive claims on behalf of epigenetic rules. (21) (22) Instead, he compared epigenetic rules to David Hume's "dispositions". Hume had observed that we organize our lives by reading "necessary connections" into Nature. We act on the expectation that correlations experienced in the past will continue to hold in the future. Ruse accepted Hume's account of the dispositions involved in our commerce with the world and appended to the Humean account a theory about the origin of these dispositions.

Hume denied that a rational justification can be provided for our expectations of regularity. Past uniformity does not entail the future continuation of that uniformity. Ruse accepted this Humean claim as well. He suggested that the only "justification" for implementing epigenetic rules is that these rules did arise during the course of human evolution. Ruse acknowledged that to provide a theory about the origin of a rule is to fall short of providing a justification for continuing to implement the rule.

There is a further difficulty for normative-prescriptive versions of evolutionary naturalism. In biological evolution "fitness" is a balance between a successful adaptation to present environmental conditions and the retention of the capacity to respond creatively to future changes in those conditions. In a particular case, successful adaptation may be achieved at the expense of a loss of adaptability. That this has occurred becomes evident only with the passage of time.

The normative-prescriptivist evolutionary naturalist stipulates that a particular evaluative decision is correct provided that it promotes "fitness" in the long run. But how can one know at the time a decision is made that it will do so? One may appeal to the fact that similar decisions in the past have proved to have survival value. However, it always is possible that the ecologically unique present situation requires a different response.

The most adequate appraisals are those rendered long after the fact. Survival is the best indicator of fitness. It is survival that establishes a continuing retention of adaptive capacity in the face of changing conditions. Judgments about contemporary evaluative options are much less secure.

The perceptive normative theorist will accept this limitation on prescriptive adequacy. She will acknowledge the possibihity that what appears at the time to be a "fit" evaluative response may turn out subsequently not to be such. But this need not be a recipe for scepticism. It is no more reasonable to expect certainty in the philosophy of science than it is to expect certainty in science.


Notes

(1) Michael Ruse, Taking Darwin Seriously (Oxford: Blackwell, 1986), 29-66;149-68.

(2) Stephen Toulmin, "Rationality and Scientific Discovery: PSA 1972" in Boston Studies in the Philosophy of Science, ed. by K. Schaffner and R. S. Cohen (Dordrecht: Reidel, 1974), Human Understanding, Vol. 1 (Oxford: Clarendon Press, 1972), 133-144.

(3) David Hull, Science as a Process (Chicago: University of Chicago Press, 1988), 409; Metaphysics of Evolution (Albany: SUNY Press, 1989), 96.

(4) Hull, "Conceptual Evolution and the Eye of the Octopus", in The Metaphysics of Evolution, 221.

(5) Ibid., 221.

(6) Ibid., 233.

(7) Ibid., 234-7

(8) Hull, Science as a Process, 301-19.

(9) L. Jonathan Cohen, "Is the Progress of Science Evolutionary?" Brit. J. Phil. Sci. 24 (1973), 47.

(10) Donald T. Campbell, "Blind Variation and Selective Retention in Creative Thought as in Other Knowledge Processes", Psych. Rev. 67 (1960) 380. Reprinted in Evolutionary Epistemology, Rationality, and the Sociology of Knowledge, ed. G. Radnitzky and W. W. Bartley III (LaSalle: Open Court, 1987) 91.

(11) Ron Amundson, "The Trials and Tribulations of Selectionist Explanations" in Issues in Evolutionary Epistemology, ed. K. Hahlweg and C. A. Hooker (Albany: SUNY Press, 1989), 417.

(12) Ibid., 417.

(13) Ibid., 428.

(14) Campbell, "Blind Variation and Selective Retention...", 91.

(15) Karl Popper, "Replies to My Critics", in The Philosophy of Karl Popper, ed. P. A. Schilpp (LaSalle: Open Court, 1974). 1061.

(16) Michael Ruse, Taking Darwin Seriously, 65.

(17) Ruse, Evolutionary Naturalism, 157-65; Taking Darwin Seriously, 149-60.

(18) Ruse, Evolutionary Naturalism (London: Routledge, 1995), 169.

(19) Karl Popper insisted that a pattern of repeated evasions of prima facie falsifying evidence establishes that a methodology is nonempirical. He conceded, however, that disagreements will arise about how extensive evasive attempts must be before a methodology is thus disqualified.

(20) Ruse, Taking Darwin Seriously, 163.

(21) Larry Laudan, "Progress or Rationality? The Prospects for a Normative Naturalism", Amer. Phil. Quart. 24 (1987), 25

(22) Larry Laudan has displayed no such reticence. He injected normative contact into his version of naturalism by endorsing a meta-methodological principle that stipulates that one ought continue to apply those rules that have proved most effective in the past.

Disponible en:
http://www.bu.edu/wcp/Papers/Scie/ScieLose.htm

Permalink :: Comentar | Referencias (0)

Method of "Rational Reconstruction"

Por Episteme - 28 de Noviembre, 2007, 21:43, Categoría: Filosofía de la ciencia

Thoughts on a Possible Rational Reconstruction of the Method of "Rational Reconstruction"

Gregg Alan Davia
University of Stuttgar and University of Mainz, Germany


ABSTRACT: Rational reconstructions standardly operate so as to transform a given problematic philosophical scientific account-particularly of a terminological, methodological or theoretical entity-into a similar, but more precise, consistent interpretation. This method occupies a central position in the practice of analytic philosophy. Nevertheless, we encounter-even if only in a very few specific publications-a vague image of it. This is due on the one hand to the problem of the intentions of application, i.e., of the normativity of rational reconstruction (descriptive/prescriptive-ambivalence). It is also due on the other hand to the problem of the significance of the method in the field of history of philosophy (systematic/historical-dichotomy). The varied usage within analytic philosophy, as well as the increasingly inflationary and interfering usage outside, contribute to make rational reconstruction somehow appear a Proteus in contemporary philosophical methodology. This paper attempts to administer first aid and to close a bit of the theoretical gap and thus to reach a more exact image for the interests of analytic philosophy. Self-application of the method appears to be the right remedy. A graduating rational reconstruction of a standard concept of rational reconstruction will be suggested, differentiating the concept of rational reconstruction according to normativity, and explicating the method of rational reconstruction into two such variants.


Introduction

The method of rational reconstruction occupies a central position in the practice of Analytical Philosophy. Andreas Kamlah once has dealt with it in an article under the indicative title "Wie arbeitet die analytische Wissenschaftstheorie?" or, in English, "How does Analytical Philosophy of Sciene operate?" (see Kamlah [1980]). Nevertheless, we encounter-even in the specific publications-only a vague image of it. Surprisingly, there are comparatively few specific publications. Historically they concentrate in the phase of Logical Empiricism. On the other hand we record a quite extensive literature on the latest variant of rational reconstruction, the "structuralist reconstruction." Besides Kamlah's article, Poser [1971] is to be mentioned. Further, for Analytical Philosophy directly relevant material includes mainly brief remarks in preliminaries and digressions, particularly in works of Wolfgang Stegmüller, who established the method in German postwar philosophy. I want to point out his well-known article on Kant (Stegmller [1967]), which I followed when choosing a title for this paper, as well as his introduction to the fourth volume of his great series on philosophy of science and Analytical Philosophy with its section "Neue Betrachtungen ber die Ziele und Aufgaben der Wissenschaftstheorie" (Stegmller [1973], pp. 1-64). Jrgen Mittelstra has commented for German Constructivism in some other articles (Mittelstra [1985a], Mittelstra [1985b]). Consequently, a general, problemizing and coherent "Theory of Rational Reconstruction" that really would deserve the name (as well as by the way any kind of "Textbook of Rational Reconstruction") has, as it seems, remained a desideratum. The varied usage within Analytical Philosophy as well as the increasingly inflationary and interfering usage outside contribute in addition, to make rational reconstruction appear a Proteus or a black box in philosophical methodology.

This paper tries-besides creating some appreciation of the difficulties-to administer first aid and-by analysis of one of the two main problems of the method-to close a little bit of the theoretical deficit gap and thus to reach a more exact image for the interests of Analytical Philosophy. As main problems (1) the issue of the intentions of application, i.e., of the normativeness of rational reconstructions (the descriptive/prescriptive-ambivalence, especially in Stegmller [1973] and Kamlah [1980]), and (2) the issue of the areas of application, i.e., of the significance of the method in the field of history of philosophy (the systematic/historical-dichotomy, especially in Poser [1971]), have come under discussion. In a broader sense, the second issue also includes the reconstructive discussions within history of science and the discussions about the reconstruction of non-apophantic entities; it then perhaps could be called the "systematic/ hermeneutic-controversy." According to its title this outline is to be understood as a self-application of the method at issue; therefore we will proceed in the following manner: First of all, a semantic preconception of the method of rational reconstruction has to be produced. We shall recur to a standard concept. On this basis then, the problem of normativeness of rational reconstructions will be taken up again and treated. A graduating rational reconstruction of the standard concept will be suggested. Finally, some residual and succeeding problems are to be pointed out.

Semantic Preliminaries, Or: A Standard Concept Of "Rational Reconstruction"

A rational reconstruction presupposes-this can already be said by intuition-acquaintance with a preceding object. Analogously, a rational reconstruction of rational reconstruction will presuppose a preceding concept of rational reconstruction itself. Such a semantic preconception can be produced in three manners:

First, a historical stocktaking of usage can be carried out. One then achieves a history of the reconstructive concepts. They have by no means been used with clear distinction and therefore will require a systematic analysis and coordination as a concept family. This is hardly to be managed adequately within this paper; we will have to content ourselves with the mere enumeration of the most important elements.

The starting point of the concept history regarding Analytical Philosophy is constituted by Rudolf Carnap's "rationale Nachkonstruktionen" within Logical Empiricism. According to Carnap "rationale Nachkonstruktionen" show knowledge, which he considers to be even in science mostly of intuitive nature, in its "formal structure" and thus transform it into the "rational form of logical inferences." With the thereby realized "separation between the pure given and the intellectual processing" intuition is given a rational justification. (Cf. Carnap [1928], pp. 138 f.-Translations by myself.) A subclass of this is "explication" as rational reconstruction of concepts, for which Carnap gives similarity, exactness, fruitfulness and simplicity as criteria of adequacy. (Cf. Carnap [1951], pp. 1 ff.) As described by Kamlah, Hans Reichenbach contrasts a "rationale Rekonstruktion," with a "logische Analyse." According to Reichenbach, the first is exclusively orientated towards someone else's scientific thoughts, whereas the latter is explicitly based on one's own judgement. (Cf. Kamlah [1980], pp. 26 ff.) In the more recent philosophy of science the concepts of "logical reconstruction" (with the main emphasis on using formal logic) and "structuralist reconstruction" (as rational reconstruction based on the structuralist conception of theories by Sneed and Stegmller (see e.g., Diederich [1981])) have dominated the scene. Particularly, the method has played an extremely important part in the discussion of Thomas S. Kuhn's history of science, actually within Imre Lakatos' alternative conception of "scientific research programmes" on the one hand, in Stegmüller's structuralist reconstruction of Kuhn's theory on the other hand. (See e.g., Lakatos [1978] and Stegmller [1985] respectively.) A part of this terminology is also used outside, within other philosophical schools. Particularly, Constructivism understands by "rational reconstruction" the confirming realization of action, speech and science as something people have in common. Such rational reconstructions are based on elementary experiences of human life and carried out in logical steps within a constructive "Orthosprache," which ultimately recurs to common action. (Cf. Lorenzen/Schwemmer [1973], pp. 9 ff.) Furthermore, so-called "Critical Theory" ("Frankfurt School") has tried to seize hold of the concept of reconstruction, but obviously without connecting a discernible comprehensive conception to it. (Cf. e.g., Habermas [1984], pp. 363-370 ("Bemerkungen zum Verfahren rationaler Nachkonstruktion") and pp. 371-385 passim ("Rekonstruktive vs. empiristische Sprachwissenschaft").) This is the transition to a so to speak "modish" usage. "Reconstructions" can nowadays be found in nearly every philosophical work, frequently with some changing attributes, but hardly ever with a sufficient explanation of what really happens. We are confronted with creations like "historical reconstruction," "critical reconstruction" or "social construction by reconstruction." Second, a pragmatically orientated analysis can take place, i.e., an enquiry into the practice of alleged applications. Besides the obvious philosophical examples we have applications in various other disciplines, e.g., in literary studies or in economic theory. However, this way can't be taken within this paper either.

What remains, is, third, the recourse to a standard concept of rational reconstruction, i.e., to a concept that has repeatedly played an important part in the discussions. Such a standard concept can be obtained from Stegmller's article on Kant (cf. Stegmller [1967], pp. 1 ff.) and also from Poser's short entry in Speck's encyclopaedia of philosophy of science (cf. Poser [1980]). According to this, a rational reconstruction presents a given problematic complex (the object of reconstruction-with special regard to the area of philosophy of science one may think, like Kamlah, of terminological, methodological or theoretical entities) in a similar, but more precise and more consistent formulation (the product of reconstruction).

This standard concept, as the semantic premise of reconstruction, constitutes the basis of the following reflections. But it should have become clear, that some other possible semantic premises and-if only because of that-possible rational reconstructions of the method of rational reconstruction remain conceivable.

On The Problem of Normativeness, Or: A Graduating Rational Reconstruction of the Standard Concept of Rational Reconstruction

For a long time there has been a quarrel within Analytical philosophy of science as well as e.g., between it and Constructivism, whether or to what extent philosophy of science is a prescriptive activity. Naturally, this quarrel has mainly taken the course of a methodological controversy.

An in a number of places quite surprising historical analysis referring to the familiy of reconstructive concepts has been presented by Kamlah with regard to the early Carnap and to Reichenbach. According to Kamlah the equation "analytic = descriptive" proves absurd in the light of history, as Carnap's early "rationale Nachkonstruktion" as well as Reichenbach's "logische Analyse" served the examination or justification of scientific operations. (Cf. Kamlah [1980], p. 25 and pp. 28 ff.) Of course such a historical argumentation cannot imply any commitment at all, since it forms a clear case of genetic fallacy, for which by the way Reichenbach himself (with his distinction between "context of discovery" and "context of justification") could be consulted as a main authority. Some systematic statements in Stegmller and in Poser regarding the method of rational reconstruction turn out ambivalent. According to Stegmller and Poser rational reconstructions are neither purely descriptive nor purely prescriptive. (Cf. Stegmller [1973], p. 8, resp. Poser [1980], p. 555.) Stegmller provides an itemization of types of strongly prescriptive operations, e.g., the demonstration of circular definitions (cf. Stegmller [1973], pp. 11 ff.), and Poser points out some fundamental prescriptive implications of rational reconstructions, like the evaluation of terminology or the choice of logic (cf. Poser [1980], p. 556). But regrettably, both authors fail to give a really satisfying explication and explanation of the actual ambivalence.

A solution to this problem by relating it to the objects of reconstruction has been submitted by Kamlah. According to this a "logical reconstruction"-Kamlah obviously uses this concept in his abstract as a synonym for Reichenbach's concepts of "rationale Rekonstruktion" and of "logische Analyse" (cf. Kamlah [1980], p. 1 and p. 32).

(1) of concepts is mainly descriptive (since concepts, as e.g., "light" or "sound," can't be true or false, an explicans for such an intuitively given concept requires an empirical survey of usage (cf. Kamlah [1980], pp. 32 ff.));

(2) of methods is mainly prescriptive (one has to ascertain the usage of a method, as e.g., the "argument by analogy," too, but then one has to estimate its suitability, which creates a prescriptive component that is not included in the reconstruction of concepts (cf. Kamlah [1980], pp. 32 ff.));

(3) of theories is-depending on intention-descriptive or prescriptive (the assumption of truth resp. reliability is the prerequisite of a purely descriptive reconstruction, in any other case the intention of the observer will make the reconstruction of a theory turn out prescriptive (cf. Kamlah [1980], pp. 36 ff.)).

For reasons of space I have to dispense with putting forward my special objections against Kamlah's argumentation, and confine myself to my general doubts about its adequacy. Kamlah's solution, I fear, is oversimplified, since it disregards the fundamental operativeness of the criteria of adequacy-as included in the here presupposed standard concept. Kamlah himself doesn't base his solution on an explicit semantic preconception, as the semantic function of his historical digression remains unclear. Stegmller [1973] and Poser [1980] by the way also lack an operational-criteriological analysis of this complex. Thus Kamlah comes to treat descriptivity and prescriptivity somehow as if they formed an inclusive disjunction, which rather represents an escamotage than an explication of the ambivalence of the concept of rational reconstruction. A clarification within a preceeding concept of reconstruction with its operative options is indispensable, for otherwise any talking about a uniform method, i.e., one that doesn't depend on the special applications, would seem unreasonable. A qualification with respect to the objects may be a depending second step.

Regarding the standard concept, the descriptive/prescriptive-ambivalence occurs as polarity or inconsistency between the criteria of adequacy, i.e., between the descriptive requirement of similarity on the one hand and the prescriptive elements of precision and consistency on the other hand. In order to clarify this polarity I would like to suggest a graduating rational reconstruction of rational reconstruction that elementarily unfolds the concept and method of rational reconstruction with two with regard to their normativeness graduated explicantia resp. that differentiates correspondingly between two such variants of the method.

Consider the qualitatively, i.e., with reference to the supposed intention of the object of reconstruction, determined change of the informational content of the object of reconstruction to be the yardstick on normativeness. One may then distinguish basically between rational reconstructions of the first and of the second degree. A "rational reconstruction of the first degree" is dominated by the descriptive impetus, i.e., by the requirement of similarity, which here has to be strictly interpreted as a criterion of material non-creativity. Rational reconstruction as a rational "again"-construction ("re-" as "again") is interested in making an object "more equal to itself," e.g., by extracting essential elements and reformulating and restructuring them. Its task is revealing formal or representational problems and managing them by realizing immanent possibilities to improve precision and consistency of the object of reconstruction. The problem of normativeness reduces to operational problems as the above-mentioned fundamental prescriptive implications of rational reconstructions outlined by Poser. For convincing illustrations one may consult the rational reconstructions by Ulrich Druwe in the area of political philosophy (see Druwe [1988] and [1995]).

A "rational reconstruction of the second degree" is dominated by the prescriptive impetus, i.e., the pursuit of precision and consistency, which here have to be interpreted as even material criteria of creativity. Rational reconstruction as rational "new"-construction ("re-" as "new-") is interested in a material correction resp. improvement by external formal criteria. The descriptive component reduces in the extreme case to the mere factuality of initial material, exactly the object of reconstruction, which is subjected to the instruments of precision and consistency improvement. (The concession of such a minimum similarity certainly requires a very liberal concept of similarity.) No or a decisively diminished "feedback" (This cybernetic notion of rational reconstruction has been introduced by Stegmller (cf. e.g., Stegmller [1973], p. 14).) between object and product of reconstruction is carried out. For an illustration one may consult Stegmller's structuralist reconstruction of Kuhn's history of science, which really contains some clear (and, in my opinion, innovative) reinterpretations of essential concepts and therefore abandons Kuhn's original intention (cf. the corresponding critique in Baumgardt-Thom [1978], pp. 110 ff.).

A conceivable further differentiation into 2+n degrees should be orientated to the extent of (increasing) prescriptivity. It could also be complementarily developed with reference to descriptivity. But prescriptivity of course is the philosophically decisive aspect, which becomes evident if one thinks of the theoretical maximum of similarity as mere paraphrase (which certainly lies beyond the method of rational reconstruction).

Some Residual and Succeeding Problems

The graduating rational reconstruction provides, in my opinion, a similar, but more precise and more consistent version of the chosen standard concept of rational reconstruction. It is similar to the standard concept, because it is developed with reference to its criteria of adequacy. And it is more precise and more consistent than the standard concept, because it explicates its normative variability. Furthermore, it applies to all systematic objects of application and may integrate Stegmller's itemization of prescriptive operations as well as Poser's fundamental prescriptive implications. Thus it constitutes a possible rational reconstruction of the method of rational reconstruction. However, the received product of reconstruction doesn't remain unproblematic. Residual and succeeding problems occur; I would like to specify the most important:

First, the problem of normativeness can be iterated, which implies the question of self-application, i.e., of the degree of the graduating rational reconstruction of rational reconstruction.

Second, with regard to application, the problem of measurability of formal or material processing of objects of reconstruction deserves consideration. The concepts of "intention" and of "informational content" imply known as well as new vagueness. An exactly differentiated graduation will require similarity, precision and consistency to be describable not only as comparative, but as quantitative or even metric concepts. For an illustration of this problem one may think of the theoretical possibility of a degree of rational reconstruction that contains descriptive and prescriptive components ana partes aequales. Third, a closer enquiry into the relations between the graduating rational reconstruction of rational reconstruction and Reichenbach's distinction ("rationale Rekonstruktion" vs. "logische Analyse") seems to suggest itself.

Finally, and in connection with all the other points, a careful examination of the fruitfulness of the presented graduating rational reconstruction for operating the systematic/historical-dichotomy remains desirable.

Final Observation

A part of the answer to the question of the perspectives of Analytical Philosophy, is devoted to and will necessarily be constituted by methodological reflection. It is a matter not of dogmatism, but of a sound, in principle dynamic and by the way didactically communicable canon. Such a canon must distinguish itself in the best Analytical tradition by lucidity, i.e., by precision and consistency. This brief discourse has been intended to stimulate a corresponding discussion.


Bibliography

Baumgardt-Thom, Yvonne [1978]: Das Problem der Geisteswissenschaften in der analytischen Philosophie und Wissenschaftstheorie. Unter besonderer Bercksichtigung der Rekonstruktion der Hermeneutik, Meisenheim am Glan 1978 (Diss. Dsseldorf 1977)

Carnap, Rudolf [1928]: Der logische Aufbau der Welt, Berlin-Schlachtensee 1928

________. [1951]: Logical Foundations of Probability, 2nd ed. London 1951 Diederich, Werner [1981]: Strukturalistische Rekonstruktionen. Untersuchungen zur Bedeutung, Weiterentwicklung und interdisziplinren Anwendung des strukturalistischen Konzepts wissenschaftlicher Theorien, Braunschweig 1981

Druwe, Ulrich [1988]: Vertragstheorie als Staatslegitimation. In: Archiv fr Rechts- und Sozialphilosophie 74 (1988), pp. 394-399

________ [1995]: Politische Theorie, 2nd ed. Neuried 1995

Habermas, Jrgen [1984]: Was heit Universalpragmatik? In: Habermas, Jrgen: Vorstudien und Ergnzungen zur Theorie des kommunikativen Handelns, Frankfurt a. M. 1984, pp. 353-440 (first publ. 1976)

Kamlah, Andreas [1980]: Wie arbeitet die analytische Wissenschaftstheorie? In: Zeitschrift fr allgemeine Wissenschaftstheorie 11 (1980), pp. 23-44

Lakatos, Imre [1978]: The Methodology of Scientific Research Programmes. Philosophical Papers I. Ed. by John Worrall and Gregory Currie, Cambridge 1978 Lorenzen, Paul/ Schwemmer, Oswald [1973]: Konstruktive Logik, Ethik und Wissenschaftstheorie, Mannheim 1973

Mittelstra, Jrgen [1985a]: Scientific Rationality And Its Reconstruction. In: Nicolas Rescher (ed.): Reason and Rationality in Natural Science, Lanham 1985, pp. 83-102

________ [1985b]: ber den Begriff der Rekonstruktion. In: Ratio 27 (1985), pp.71-82

Poser, Hans [1971]: Philosophiegeschichte und rationale Rekonstruktion. Wert und Grenze einer Methode. In: Studia Leibnitiana 3 (1971), pp. 67-76

________ [1980]: "Rekonstruktion, rationale." In: Speck, Josef (ed.): Handbuch wissenschaftstheoretischer Begriffe. Band. 3, Gttingen 1980, pp. 555-556

Stegmüller, Wolfgang [1967]: Gedanken ber eine mgliche rationale Rekonstruktion von Kants Metaphysik der Erfahrung. Teil I. Kants Rtsel der Erfahrungserkenntnis. In: Ratio 9 (1967), pp. 1-30

________ [1973]: Probleme und Resultate der Wissenschaftstheorie und Analytischen Philosophie. Band IV. Personelle und Statistische Wahrscheinlichkeit. Studienausgabe Teil A, Berlin 1973

________ [1985]: Probleme und Resultate der Wissenschaftstheorie und Analytischen Philosophie. Band II. Theorie und Erfahrung. Studienausgabe Teil E, 2nd ed., Berlin 1985.

Disponible en:
http://www.bu.edu/wcp/Papers/Scie/ScieDavi.htm


Permalink :: Comentar | Referencias (0)

Otros mensajes en Filosofía de la ciencia