Web-Blog

Epistemología



Rodolfo-J. Rodríguez R.

rodolfojrr@gmail.com

about.me/rodolfojrr

San José, Costa Rica,

América Central




 


Calendario

<<   Julio 2017    
LMMiJVSD
          1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31       

Subscripción

Sindicación

Ciencias y tecnologías económicas

Latindex

Programas de investigación filosófica

Cognoscitivismo
La explicación y la comprensión en las Ciencias Cognoscitivas

Condiciones de necesidad y suficiencia

Por Rodolfo J. Rodríguez R. - 7 de Marzo, 2012, 18:05, Categoría: Cognoscitivismo

Alice Math on Twitpic

Una herramienta muy útil en la búsqueda de precisar definiciones, es la especificación de las condiciones necesarias o suficientes para la aplicación de un término, el uso de un concepto, o la ocurrencia de algún fenómeno o evento. Por ejemplo, sin agua y oxígeno, no habría vida humana, por lo que estas son las condiciones necesarias para la existencia de los seres humanos. Caribeño, de acuerdo con la definición tradicional, son todos y sólo aquellos nacidos en una región colindante con el Mar Caribe. Por lo tanto el nacimiento en una zona especificada, en este caso en la región del Caribe, es tanto una condición necesaria como una condición suficiente para ser caribeño. Necesidad y suficiencia, son conceptos básicos, es decir tienen un caracter axiomático, a partir de los cuales es posible definir otros conceptos.

1. Filosofía y Condiciones

Una ambición de filosofía del siglo XX ha sido analizar y afinar las definiciones de los términos más significativos y de los conceptos expresados por ellos, con la esperanza de arrojar luz sobre problemas complejos, como por ejemplo: la verdad, la moralidad, el conocimiento y la existencia, que se encuentran lejos de llegar a tener una solución científica. Es medular a este objetivo, especificar al menos en parte las condiciones que deben cumplirse para la correcta aplicación de los términos. En este sentido, la de filosofía en la actualidad, ha asumido este reto frente a los estudios interdisciplinarios de la conciencia, la evolución de la inteligencia, el sentido del altruismo, la naturaleza de la obligación moral, el ámbito de la justicia, el concepto de dolor, la teoría de la percepción y así sucesivamente, con la consigna de poder dar un alto nievel de exactitud conceptual y el rigor a los argumentos en estas áreas.

¿Cómo diferenciar, entonces, cuál es una condición necesaria o una suficiente?. No obstante, establecer un criterio de demarcación total no es posible, pues son condiciones relativas entre sí. Es decir, la noción de condición suficiente se puede utilizar en la definición de lo que es una condición necesaria (y viceversa). Al respecto, Wittgenstein advirtió sobre los inconvenientes de teorizaciones divagantes y sobregeneralizaciones acerca los términos, y su idea apuntaba más bien a que muchos términos, que son familiares y cotidianos, deberían exigírsele más cautela con su uso, por medio de una especificación completa y precisa de lo que constituye sus condiciones necesarias y su condiciones suficientes.

2. La teoría estándar: las funciones de verdad y de reciprocidad

Alicia in Wonderland- Key-Small door on Twitpic

La puerta principal está cerrada. Con el fin de abrirla (en una forma normal, no violenta) y entrar en la casa, lo primero que se debe utilizar es la llave. Una condición necesaria para abrir la puerta, sin violencia, entonces, es utilizar la llave. Por lo tanto, (i) parece ser cierto que si abría la puerta, use la llave.

¿Podemos dar un sentido veritativo funcional al "si" y proponer que el consecuente de un condicional (en (i), el consecuente es "Usé la llave") especifica una condición necesaria para la verdad del antecedente (en (i ), "abrí la puerta"). Muchos textos de lógica y de pensamiento crítico utilizan sólo este tipo de enfoque, y puede ser definida como "teoría estándar" (véanse Blumberg, 1976, pp 133-4, Hintikka y Bachman, 1991, pág. 328 para ejemplos de este enfoque).

La teoría estándar hace uso del hecho de que en la lógica clásica, la función de verdad "p=>q" ("Si p, q") es falsa solamente cuando p es verdadera y q es falsa. La relación entre la "p" y "q" en este caso se refiere a menudo como la implicación material. Por esta razón, entonces q también se obtiene, del mismo modo si q no es cierta, entonces p también debe no ser verdad p (para que el condicional como una unidad sea verdadera). La teoría estándar entoces, afirma que cuando el condicional "p=>q" es verdadero, la verdad del consecuente, "q", es necesaria para la verdad del antecedente, "p", y la verdad del antecedente es a su vez, suficiente para la verdad del consecuente. Esta relación entre condiciones necesarias y suficientes coincide con la equivalencia formal entre una fórmula condicional y su contrapositiva ("~ q = > ~ p" es la contraposición de "p => q"). El sentido de estas condiciones, es derivado a partir de expresiones en torno a la verdad de las oraciones del lenguaje ordinario, referidas a los estados de cosas; por lo que se puede aseverar, con base en la teoría estándar, que el uso de la llave es la condición necesaria para la apertura de la puerta.

Fuentes citadas:

Blumberg, A. E., 1976. Logic: A First Course, New York: Alfred E. Knopf.
Bennett, J., 2003. A Philosophical Guide to Conditionals, Oxford: Oxford University Press.
Brady, Ross, 2006. Universal Logic, Stanford: CSLI Publications.
Downing, Peter, 1959. "Subjunctive Conditionals, Time Order and Causation", Proceedings of the Aristotelian Society, 59: 126–40.
Downing, Peter, 1975 "Conditionals, Impossibilities and Material Implications", Analysis, 35: 84–91.
Gomes, Gilberto, 2009. "Are Necessary and Sufficient Conditions Converse Relations?", Australasian Journal of Philosophy, 87: 375–87.
Goldstein, L., Brennan, A., Deutsch, M. and Lau, J., 2005. Logic: Key Concepts in Philosophy, London: Continuum.
Hintikka, J. and Bachman, J., 1991. What If …? Toward Excellence in Reasoning, London: Mayfield.
Jackson, F., 1998. From Metaphysics to Ethics: A Defence of Conceptual Analysis, Oxford: Oxford University Press.
Mackie, J. L., 1965. "Causes and Conditions", American Philosophical Quarterly, 12: 245–65.
McLaughlin, Brian, 1990. On the Logic of Ordinary Conditionals, Buffalo, NY: SUNY Press.
Sanford, David H., 1989. If P, then Q: Conditionals and the Foundations of Reasoning, London: Routledge.
Pearl, Judea, 2000. Causality: Models, Reasoning, and Inference, Cambridge: Cambridge University Press.
Von Fintel, Kai, 1997. "Bare Plurals, Bare Conditionals and Only", Journal of Semantics, 14: 1–56.
Sellars, Wilfrid, 1948. "Concepts as involving laws and inconceivable without them", Philosophy of Science, 15: 289–315.
McCawley, James, 1993. Everything that Linguists have Always Wanted to Know about Logic* (Subtitle: *B ut Were Ashamed to Ask), Chicago: Chicago University Press.
Wertheimer, R., 1968. "Conditions", Journal of Philosophy, 65: 355–64.
Von Wright, G. H., 1974. Causality and Determinism, New York: Columbia University Press.
Wilson, Ian R., 1979. "Explanatory and Inferential Conditionals", Philosophical Studies, 35: 269–78.
Woods, M., Wiggins, D. and Edgington D. (eds.), 1997. Conditionals, Oxford: Clarendon Press.

Fuente primaria:

Brennan, Andrew, "Necessary and Sufficient Conditions", The Stanford Encyclopedia of Philosophy (Winter 2011 Edition), Edward N. Zalta (ed.), URL = .

Permalink :: Comentar | Referencias (0)

Las ciencias cognoscitivas: dos explicaciones posibles

Por Episteme - 8 de Mayo, 2008, 16:32, Categoría: Cognoscitivismo

Las Ciencias Cognoscitivas:

 explicación y comprensión

Rodolfo-J. Rodríguez-Rodríguez

San José, Costa Rica

Correo-E.: rodolfojrr@gmail.com

Blog: http://epistemología.zoomblog.com

Blog: http://cognoscibilidad.blogspot.com

1.   Explicación genética de la emergencia transdisciplinaria de las neurociencias cognoscitivas

El surgimiento de las ciencias cognoscitivas en la primera parte del siglo XX, tiene que como fundamento los orígenes y desarrollo de disciplinas como la psicología cognoscitiva, la lingüística, la neurobiología cognoscitiva y la inteligencia artificial. Dar cuenta de cómo emergen las ciencias cognoscitivas a partir de un esfuerzo transdisciplinario y de convergencia metodológica, conlleva a dar cuenta de diversos programas o enfoques o aproximaciones de las ciencias cognoscitivas que se desarrollaron durante el siglo XX.

1.1.Programa de procesamiento de la información

El primer programa de investigación de las ciencias cognoscitivas emerge en el contexto del desarrollo de la Inteligencia Artificial, surge en el contexto de las investigaciones sobre el procesamiento electrónico de la información.  

Tuvo enorme significación la obra de Claude Shannon, matemático del MIT, que con su tesis  de maestría: "Análisis simbólico de los circuitos de relé y conmutación" (1938), demuestra que los circuitos, como los que aparecen en un aparato electrónico, podían expresarse mediante ecuaciones semejantes a las de Boole; es decir  bivalentemente, en la oposición: verdadero-falso,  equivalente a la oposición abierto y cerrado(o conectado o desconectado) en un circuito. Shannon determina  que cualquier operación puede describirse mediante esos relés de "conmutación".  La obra de Shannon sentó las bases para la fabricación de máquinas capaces de ejecutar tales operaciones veritativo funcionales, y además sugirió nuevas formas de diseñar circuitos. En el plano teórico dio la pauta -al establecer un conjunto de instrucciones codificadas que debían seguirse de forma minuciosa- para lo que sería la programación de computadoras, determinando que ésta debía concebirse como un problema de lógica formal y no como un problema aritmético, idea que provienen de los trabajos de Boole. Shannon introduce de esta manera el tema lógico-cognoscitivo en el mundo de la incipiente computación electrónica de su tiempo.

Alan M. Türing, ya en 1936 ("On Computable Numbers with an Application to the Entsheidungproblem"), había definido una clase de autómata (conocida como la máquina de Türing y demostró  que cualquier miembro de esta clase podía computar cualquier función entre un conjunto de clases. Este tipo de máquina formal de Türing, es la base del funcionamiento de la mayoría de las computadoras digitales.

Los argumentos originales de Alan Türing se complementan con los Alonzo Church, al postular las capacidades universales de resolución de problemas de las computadoras, sugiriendo que el cerebro debe comprenderse como si fuera una computadora. Particularmente Church sugiere que si existe un método consistente y finito para resolver un problema dado, luego existe un método que puede correr en una máquina de Türing y dar exactamente los mismos resultados. Por ello, para aquellos problemas que pueden ser resueltos consistentemente en tiempos finitos y especificados, una máquina de Türing es tan poderosa como cualquier otra entidad que pueda resolver el problema, incluido el cerebro.

Los argumentos de Shannon, Türing y Church estructuran la base de los modelos cognoscitivos de procesamiento de  la información,  y éste logra eventualmente un gran éxito  computacional. En este sentido lo primero es elegir un problema  significativo que todo el mundo esté de acuerdo que requiere para  su solución del uso de la inteligencia, luego se debe identificar los elementos de información que se necesitan para lograr la solución al problema, se debe determinar cómo podría representarse esta información en una computadora, encontrar un algoritmo que pueda manipular esta información para solucionar el problema; escribir el código computacional que implemente ese algoritmo y finalmente se debe poner éste a prueba contra instancias  muestradas (usualmente simples) del problema.

1.1.1.     Enfoque simbólico-serial

El modelo simbólico  es el primer núcleo sólido en Inteligencia Artificial, enmarcado dentro del contexto del Programa de investigación de "Procesamiento de Información" y alcanza su máxima expresión con la "Hipótesis del sistema de símbolos físicos" de A. Newell y H. A. Simon. Para ellos, un sistema de símbolos físicos es una máquina que produce a lo largo del tiempo una colección evolutiva de estructuras simbólicas. El sistema de símbolos tiene como referente un mundo de objetos más amplio de tan solo las expresiones simbólicas. El término "físico" hace referencia a que tales sistemas obedecen las leyes de la física, es decir, son realizables por sistemas de ingeniería o computación electrónica. La relación entre el referente y los símbolos se dará por medio de designación e interpretación. En dicho modelo se  considera que un sistema de símbolos físicos tiene los medios necesarios y suficientes para una acción inteligente. En este caso el concepto de "necesario" se entiende en el sentido de cualquier sistema que se considere inteligente de manera general, se puede entender como un sistema de símbolos físicos.  Lo de "suficiente" hace referencia a que cualquier sistema de símbolos físicos de suficiente tamaño puede ser organizado hasta llegar a mostrar acción inteligente general.

En el corazón de la teoría de los Sistemas de símbolos físicos, se encuentran las arquitecturas simbólicas las cuáles sirven de substrato para la computación electrónica, que es posible por la manipulación de señales físicas por medio de reglas explícitas que también están compuestas por otras señales. La manipulación está basada solamente en las propiedades físicas de las señales, no por sus significados. Todo procesamiento implica combinaciones basadas en reglas de señales simbólicas; esto es, hileras de señales. El sistema entero es semánticamente interpretable; esto es, todos sus componentes se refieren a objetos o a funciones de estados.

Este sistema de símbolos físicos es un claro ejemplo de máquina general de las ideadas por Türing, consolidándose así el modelo estructural propuesto originalmente por este último y que se  ha denominado como se ha mencionado: enfoque simbólico y que representa el primer modelo consolidado dentro de la Inteligencia Artificial para poder explicar los procesos mentales, aún cuando con el tiempo se ha mostrado muchas de sus limitaciones.

1.1.2.      Enfoque subsimbólico

Como alternativa al modelo simbólico se buscó desarrollar una tecnología que se acercase lo más posible al cerebro, como fuente de la inteligencia.

Esto pues el modelo simbólico partía de un supuesto que se consideró no del todo correcto, al postular que la inteligencia era posible producirla en computadoras seriales de tipo convencional y el cerebro no funciona de esta manera sino en forma masivamente paralela, donde cientos de miles o millones de neuronas desarrollan sutiles procesamientos de la información en el cerebro y a mucho más altas velocidades.

Los perceptos coherentes se forman en el tiempo que exceden a los tiempos elementales de reacción de las neuronas singulares por un factor de poco más de diez. Especialmente en lo que concierne a los procesos perceptuales básicos, como la visión, esta observación excluye las formas de procesamiento de información interactivas que tendrían que barrer los datos que ingresan serialmente, o pasarlos a través de muchas etapas de procesamiento intermediarias. 

Asimismo, dentro del cerebro, el conocimiento no se almacena en ninguna forma que se parezca a un programa de computadora convencional, sino que se almacena estructuralmente, en forma de patrones distribuidos de pesos sinápticos excitatorios o inhibitorios, cuyas magnitudes relativas determinan el flujo de las respuestas neuronales que las que constituyen la percepción y el pensamiento.

Algunos investigadores en Inteligencia Artificial  buscan relacionarse con la  neurociencia experimental de manera similar a como se relacionan la física teórica y la física experimental, de tal manera que  pueda unificar los desarrollos y las conjeturas teóricas con la experimentación.

Surge así otro modelo en inteligencia artificial  que se ha dado en llamar como: "computación con redes neurales".  Pero la aterradora complejidad del cerebro opone grandes  obstáculos a la materialización de los objetivos de dicho modelo, pues el cerebro humano consiste en aproximadamente 100 mil millones de neuronas, que posiblemente sean diez veces más. Las neuronas se comunican transmitiendo paquetes eléctricos (potenciales de acción) a una población de neuronas vecinas. De acuerdo con los estudios neurofisiológicos, la amplitud precisa y la forma de esos paquetes y el tiempo preciso para su llegada es un intervalo de dos milisegundos aproximadamente.  De ello se puede modelizar cada paquete como un "bit" singular portador de información en la corriente de salida de una neurona y decir que una neurona produce información a una velocidad aproximada de cien bits por segundo (100 BPS). El estimado total del cerebro sería de 10 billones de bits por segundo, tomado un factor de cien, para el "ancho de banda" interno del cerebro.

Una neurona transmite información a las neuronas vecinas en  uniones neuronales llamadas "sinapsis". Una sola neurona puede tener tanto como diez mil entradas sinápticas, aunque en algunos casos muchas entradas menos, para otros casos un aproximado de 100 mil entradas convergen en una sola neurona. El número total de sinapsis  en el cerebro se puede estimar en 1000 billones.

El punto de partida para los nuevos enfoques en I. A. deberá ser entonces, modelar  el cerebro como un computador compuesto de unos 100000 millones de computadores individuales, cada uno de los cuales es una computadora analógica o digital e "híbrida" de suma complejidad, interconectando en formas intrincadas con muchos computadores similares. La computación por redes neurales o conexionismo busca generar este modelo del cerebro de manera artificial, es decir por medio de una modelación tecnológica del mismo, acudiendo  a la física estadística y a la ingeniería para poder lograrlo (no a la neurobiología, como podría suponerse). La Inteligencia Artificial, queda parcelada en un número elevado de procesadores simples, con un crecimiento potencialmente enorme de la velocidad de computación.

El "paralelismo" ha demostrado ser difícil de aplicar en I. A., aunque ya ha surgido en la computación numérica como la única forma indefinidamente extensible de superar el "cuello de botella" de von Newmann (los límites fundamentales impuestos a la velocidad de los procesadores individuales por las leyes de la física, por ejemplo, dado que las señales no pueden viajar de una parte a otra de la computadora más rápido que la velocidad de la luz). Dado que estos sistemas  son imitaciones  de sistemas estadísticos, las nuevas estrategias también proporcionan  métodos de aproximación estadística a problemas de optimización que se han revelado  a  todo intento de computación exacta.

Este tipo de enfoque de procesamiento de información mediante estados de procesadores simples y las conexiones entre ellos es llamado conexionista o subsimbólico, sostenido por figuras como David. E. Rumelhart, James McClelland (1986), Paul Smolensky (1988)  y el grupo de Investigación Procesamiento Distribuido en Paralelo (PDP).

El grupo de investigación PDP es el que le ha dado forma al conexionismo ( Rumelhart & McClelland, 1986) caracterizándolo de la siguiente manera: un conjunto de unidades de procesamiento(entendidas como neuronas artificiales) que están interconectadas por "pesos de conexión"  o "cargas de conexión"  o "valores de conexión" (connection weights). Se generaron así sistemas redes neurales artificiales. Si se tienen entradas a alguno de estos sistemas se da una  activación de la red que es modulada por los pesos de conexión. Las entradas se dan en una unidad o neurona artificial (pasando a ser activada desde su estado pasivo) por medio de una regla de activación. Los pesos de conexión son manipulados sobre la base de "reglas de aprendizaje", las cuales son funciones matemáticas. La manipulación está puramente basada en los valores de activación y pesos de conexión (no por sus significados). Las entradas en el sistema son convertidas en salidas por medio de las reglas de activación, las cuales consisten en la combinación y recombinación de la activación de valores.

Los sistemas conexionistas son semánticamente representables, lo que hace que se mantenga dentro de la clase de los modelos de procesamiento de información.  La diferencia de este modelo es que no acude al procesamiento serial, sino al procesamiento distribuido en paralelo, por medio de redes neurales artificiales, similares al procesamiento de las redes neuronales naturales. En estos casos el procesamiento no es simbólico, sino que dichas redes se interpretan subsimbólicamente es decir es un procesamiento de la información de manera pluridireccional (es en este sentido que busca asemejarse a las conexiones sinápticas neuronales).

La diferencia  característica de los sistemas conexionistas de los sistemas computacionales simbólicos, es que los primeros no son programables en el sentido de los segundos, es decir mediante el almacenamiento en la memoria del texto de un algoritmo cuyos pasos debe seguir la computadora de manera secuencial.

A una red neural "se le enseña" por medio de pruebas con casos especialmente seleccionados. Es decir se le puede "enseñar" una letra o una palabra para que posteriormente pueda reconocerlas.  Es decir, más que ser programada una red neural, esta "aprende". Esto es lo que se ha dado en llamar como "aprendizaje mecánico" que se realiza modificando esta misma los valores de conexiones o pesos de conexión (emulando las sinapsis en las redes neuronales) entre sus distintas celdas. De esto se deriva su nombre de conexionismo. Este enfoque ha sido utilizado para explicar la conducta a un nivel  de descripción funcional bajo la presuposición que esto mismo ocurre al nivel psicológico. Sin embargo adolece de una  explicación funcional de la inteligencia, pues no es claro como a partir de las partes (neuronas y redes neurales) emergería la misma.

En computación el modelo conexionista es una elegante solución al problema de altas velocidades. Así si por otra parte podría entenderse los procesos neurofisiológicos de percepción como "vectores" que codifican las distintas entradas sensoriales, y también lo hace para varias salidas motoras. Bajo el modelo conexionista en computación se pueden llegar a lograr sistemas masivamente paralelos  que representen y manipulen transformaciones vectoriales como las dadas en los procesos neurofisiológicos del cerebro. El procesamiento computacional se puede hacer más rápido que el procesamiento cerebral. Este último procesa en milésimas de segundo, el computacional lo logra en millonésimas de segundo.

Asimismo las redes neurales artificiales aparte de ser computacionalmente más poderosas, son resistentes contra daños(o su equivalente de lesiones cerebrales), rápidas y modificables. Las estrategias formales del conexionismo se han fundamentado en la física estadística y comparten con el modelo simbólico la noción implícita de que los objetos y sucesos, las categorías y la lógica están dados, y que la naturaleza del trabajo cerebral es procesar información sobre el mundo con algoritmos que conduzcan a conclusiones que lleven a la conducta. Un problema de base que ha presentado por los modelos conexionistas  es su dificultad para realizar operaciones  computacionales recursivas, que son representativas de la computación humana. Esto pues las facultades cognoscitivas humanas para usar información contextual semántica y pragmática que facilita la comprensión sobrepasa en gran medida a la de cualquier computadora de las hasta ahora construidas.

Se puede decir finalmente sobre el conexionismo que más que resolver el problema natural de la inteligencia se ha convertido más bien en una herramienta poderosa de la computación electrónica. Es revelador advertir que todos los proyectos relevantes para diseñar y construir grandes maquinarias paralelas hacen uso de estructuras altamente artificiales para la comunicación y el procesamiento. Esto se aplica a la Máquina de Conexión de la Thinking Machines Corporation (comunicación en hipercubo y en matriz rectangular), al Procesador Masivamente Paralelo de la NASA, al Procesador Digital de Matrices del ICL (matriz rectangular), al Hipercubo de Intel Corporation (comunicación en hipercubo), al RP3 de IBM y a la Ultracomputadora de New York Univerity (comunicación en red omega).  Al final de cuentas, el conexionismo se ha dirigido más a la eficiencia computacional que a la explicación de las constricciones y alcances del mismo en las redes neuronales naturales.

1.1.3.      Enfoque modular

A este modelo se adscriben figuras como J. Fodor (1983), H. Gardner (1985), y Z. Pylyshyn (1981), y en cierta medida: R. Jackendoff (1987) con su dicotomía de mente computacional y mente fenomenológica. La modularidad parte del supuesto que la cognición se inicia con un sistema de entrada (Input) independiente (como las  responsables de la percepción de objetos) y  que procesos cognitivos de mayor generalidad serán dados en un sistema central. Los sistemas de entrada son el dominio específico en el sentido de que cada tipo de información recibida de procesamiento es diferente.  Los sistemas de entrada se asemejan a los niveles de procesamiento de información en términos de influencias selectivas  por variables.

La más importante propiedad es la encapsulación, que es proceso  la información solo influye a partir de un dominio de módulo de entrada. El caso -por ejemplo- para el habla, es influenciado solo por entradas de habla, no por contextos situacionales y lingüísticos. Los módulos de entrada son cognitivamente impenetrables, es decir no son objeto de control  volitivo. Los sistemas de entrada se direccionan hacia sus salidas, así por ejemplo, el módulo del lenguaje para la salida de acceso léxico se da solución significados de palabras. Los sistemas de entrada operan independientemente  uno de los otros y no se comunica. Finalmente, un módulo de entrada es asociado con la estructura neuronal específica.

En contraste con los sistemas de entradas, los sistemas centrales están influidos por muchas diferentes variables. Los sistemas centrales tienen acceso a las salidas de todos los sistemas de entrada y a todo el conocimiento en la memoria. En esta dicotomía, los sistemas de entrada se consideran como sistemas computacionales, mientras que el sistema central corresponde a lo que el organismo "cree". Los sistemas de entrada pueden ser estudiados como sistemas computacionales, mientras que los centrales no pueden ser considerados de tal manera. Esto porque son muchos los factores que influyen en sus proceso.

En breve, el enfoque modular  plantea una tricotomía de  niveles, sistemas de salida, de entrada y centrales. Este enfoque comparte muchas de las premisas originales del modelo de procesamiento de información, particularmente el supuesto de sistemas separados de la percepción y de la acción. Esta explicación funcional de diferenciar sistemas de entrada y salida y entre sistema de entrada y central no sustenta un substratos sólidos desde el punto de vista de la psicología de la percepción y de la neurofisiología, pues en el cerebro y el sistema nervioso en general no hay muestras de tales divisiones entre sistemas, por lo que no pareces ser muy seguro a la hora de explicar la  cognoscibilidad. 

1.2.Programa de investigación den neurobiología cognoscitiva

Un intento neurofilosófico por tratar de generar un teoría unificada de la mente-cerebro ha sido el dado Patricia Smith Churchland (1986). Este enfoque propone un trabajo cooperativo entre los investigadores de la mente y los investigadores del sistema nervioso. Para P. Smith C. resulta contraproducente para lograr una ciencia unificada de la mente-cerebro, postular que la psicología es irreducible a  sus fundamentos neurofisiológicos y neuroanatómicos. Por el momento es conveniente postular que ambas ciencias coevolucionan y que seguirán haciéndolo por algún   tiempo - señala P. Smith C.-, pero como se ha dado  anteriormente en la historia de la ciencia, todo parece mostrar que van en camino de la reducción. Ejemplos claros de ello han sido las investigaciones en bioquímica de la conducta y en la neuropsicofarmacología.

Consecuentemente desde esta postura cualquier dualismo entre mente y cuerpo es claramente demostrado como erróneo. Otro enfoque reduccionista de los procesos mentales es el propuesto por el premio Nóbel (por el descubrimiento del la estructura de la doble hélice del ADN junto con J. D. Watson): Francis Crick (1994). Su "hipótesis sorprendente" -como él la llama- consiste en que cualquier individuo, sus alegrías y aflicciones, sus recuerdos y ambiciones, su sentido de identidad personal, su libre albedrío, es de hecho el reflejo de la conducta de un vasto ensamblaje de células y de sus moléculas asociadas. Así por ejemplo, para que haya conciencia y memoria a corto plazo lo que se necesita es la actividad de circuitos reververatorios, que se encargan de mantenerlas. Asimismo la conciencia requiere la actividad de varias áreas corticales así como del tálamo. Aún cuando su hipótesis ya no resulta tan sorprendente su aporte para la "búsqueda científica del alma" ha resultado muy influyente. 

Pero el que pareciera más prometedor es el modelo propuesto por el también premio Nóbel (fisiología): G. Edelman y sus colaboradores en la Rockefeler University, quienes se  enfrentan a los enfoques de  la inteligencia como procesamiento de la información y proponen una explicación neurobiológica de la inteligencia, planteando su teoría de la Selección del grupo neuronal (SGN), a partir de los modelos de conformación del desarrollo del sistema nervioso.

Un enfoque similar y complementario al de Edelman ha sido del Jean Pierre Changeaux, neurobiólogo del laboratorio molecular del Institut Pasteur en París. Changeaux parte de los estudios de Edelman, añadiendo a la epigénesis neuronal, la impresión de la cultura en el desarrollo del cerebro después del nacimiento de los individuos, es decir añade aspectos antropogenéticos.

Pero bien, la propuesta de Edelman y sus colaboradores se remonta al período de formación cerebro del embrión, cuando la selección entre células neuronales en competencia y sus procesos determinan la forma anatómica y los patrones de conectividad sináptica del sistema nervioso. Esta selección para la conectividad se elabora mediante mecanismos evolutivos de adhesión y movimiento de células, crecimiento diferencial, división celular y muerte de células. Dada sus propiedades dinámicas, estos mecanismos selectivos introducen variación individual en las redes neuronales. Más tarde, durante la experiencia postnatal, la selección entre diversos grupos de células preexistentes, complementada por la modificación diferencial de fuerzas o eficacias sinápticas sin cambios en el patrón de conectividad, da forma al repertorio conductual del organismo de acuerdo con lo que posee par él valor adaptativo en su econicho.

La SGN es una teoría que comienza a ponerse a prueba, y que de acuerdo con distintas experiencias ha comenzado a ser exitosa. En este sentido, se han construido una serie de autómatas para la simulación computada para poner a prueba la consistencia de la SGN, así como para demostrar la habilidad de los sistemas de reconocimiento selectivos para realizar interesantes tareas de reconocimiento y categorización. Esos modelos pueden ser invaluables para ayudar a que los neurobiólogos se concentren en aspectos experimentales, que eventualmente ayuden a desarrollar computadoras capaces de desarrollar tareas de clasificación sensible, pues en la actualidad no se tienen.

Para Edelman, en vista de la complejidad de los sistemas biológicos, es necesario comenzar a analizar esos sistemas en términos de las estructuras y funciones básicas necesarias y sus modos de origen, su desarrollo tanto como su evolución. La separación entre hardware y software implícita en la estrategia de la IA tradicional tiene que abandonarse, aun cuando haya servido de principio orientado  en el desarrollo de las computadoras tipo von Newman, que pueden ser máquinas lógicas -y en alguna medida máquinas culturales- pero no máquinas biológicas. Edelman considera que la IA solo se alcanzará en sistemas no-von Neuman en los que las variantes especializadas de hardware, basadas en el tema común de la selección y el pensamiento de la población, trabajarán sin programas para adaptarse a todos los ambientes particulares en los que se encuentren, tal como lo hacen los organismos biológicos. Los   programas y la inteligencia basada en la comunicación podrán venir después

1.3.  Reconstrucciones racionales de las ciencias cognoscitivas

Son diversos los trabajos que han intentado dar cuenta del desarrollo de la complejidad multidisciplinaria de las ciencias cognoscitivas y que se convertirán en la última etapa más en unas neurociencias cognoscitivas.

Un primer intento de comprender integradamente a las ciencias cognoscitivas lo hizo Howard Gardner en su célebre: La nueva ciencia de la mente. Historia de la revolución cognitiva (1985). Cronológicamente es posible situar las siguientes obras que han buscado darle un sentido de conjunto a las ciencias cognoscitivas: Pylyshyn, Z. (1986). Computation and Cognition: Toward a Foundation for Cognitive Science; Churchland, P. S.(1986). Neurophilosophy: Toward a Unified Science of the Mind-Brain; Johnson-Laird, P.  (1988). The Computer and the Mind: An Introduction to Cognitive Science; von Eckardt, B.(1993). What is Cognitive Science?; Stillings, N., et al.,(1995). Cognitive Science; Dawson, M. R. W.(1998).Understanding Cognitive Science; Wilson, R. A., & Keil, F. C.(Eds.).(1999). The MIT Encyclopedia of the Cognitive Science; Sobel, C. P.(2001). The Cognitive Sciences: An Interdisciplinary Approach; Nadel, L.(Ed.).(2003). Encyclopedia of Cognitive Science; Gazzaniga, Michael S.(ed.) (2004). The Cognitive Neurosciences III; Thagard, P., (2005). Mind: Introduction to Cognitive Science.

2. Explicación taxonómica para las neurociencias cognoscitivas

Las ciencias cognoscitivas o en su acepción más común en la última década: las neurociencias cognoscitivas, son el producto de las investigaciones transdisciplinarias (inter y multidisciplinarias), incluyendo una amplia transdisciplinaridad de ciencias y tecnologías como:

Ciencias subjetuales:

Psicología cognoscitiva, psicobiología cognoscitiva, psicosociología, psicolingüísitica, etc. (ciencias que se encargan de modelar objetivamente (analítico-experimentalmente), los procesos subjetivos, apelando a la validación intersubjetiva de la modelación)(énfasis ontogenético)

Tecnologías subjetuales:

Psicologías experimentales aplicadas, terapias cognoscitivo-conductuales, etc. (basadas en modelos tecnológicos objetivos (validados intersubjetivamente), cuya acción tecnológica es la intervención y modificación las condiciones subjetuales (cognoscibilidad, emotividad, volitividad ) de sujetos )

Ciencias histórico-subjetuales:

La sociología, la antropología y la ligüística cognoscitivas, etc. (ciencias que permiten dar cuenta de estados de sujetos humanos en sus contextos socio-pragmáticos y de sus acciones pasadas, presentes y futuras) (énfasis filogenético)

Ciencias objetuales: Neurociencias:

Neurología (neurofisiología, neuroantomía, neuroquímica), neuropsicología (neuropsicoendocrinología, neuropsicofarmacología), neuroinmunología, neurolingüística, neurobiología cognoscitiva, neurocomputación inteligente, neurofilosofía, etc. (- teorías, modelos y sistemas explicativos sobre los encéfalos y sistemas nerviosos de los seres vivos, así como sus modelaciones artificiales - ).

Ciencias formales:

Lógica teórica, probabilidad y estadística y algunas áreas de las matemáticas.

Tecnologías objetuales:

Programación funcional y programación lógica, la inteligencia artificial, los sistemas expertos, la programación genética, lingüística computacional, redes neurales, neuroimagenería (CAT,MRI,fMRI,PET,SPECT,DOT,EROS), etc. (aplicaciones de modelos tecnológicos referidos a la objetualidad natural o artificial)

Entonces, los modelos epistemológicos y metodológicos de las neurociencias cognoscitivas, se construyen por medio de ensamblajes de procesos interteóricos entre las ciencias objetuales (naturales) y las subjetuales e histórico-subjetuales (sociales), así como entre las tecnologías objetuales (ingenieriles) y las tecnologías subjetuales (sociales).

3.   Más allá del dualismo metodológico

Resulta insoslayabe para las ciencias y tecnologías objetuales y las ciencias subjetuales e histórico-subjetuales, esclarecer los procesos de base cognoscitiva (subjetivos) previa sobre los que se ensamblan sus modelos objetivos: teóricos, modelos de acción, ejecución o transformación.

Los resultados inteteóricos a partir de las neurociencias cognoscitivas, brindan los instrumentos comprensivos, interpretativos, explicativos e inclusive predictivos para dar cuenta de los procesos cognoscitivo-subjetuales, involucrados en la construcción de los modelos objetuales de cada una de las otras ciencias y tecnologías.

Entonces, se puede concluir que por medio de la praxis disciplinaria de ámbitos como las neurociencias cognoscitivas se muestra que las fronteras entre las ciencias sociales y las naturales son ficciones metodológicas, al mostrarse como una alternativa transdisciplinaria (inter y multidisciplinaria). De esta integración transdisciplinaria emergen propiedades disciplinarias que no están presentes en sus ciencias constituyentes y que han exigido una convergencia metodológica. Asimismo, en algunos contextos académicos, el dualismo metodológico tradicional se mantiene como aun lo hacen las "monarquías europeas", es decir como vestigios que se considera que no hacen ningún daño y por diversos intereses creados.

Permalink :: Comentar | Referencias (0)

D. Davidson con la acción intencional

Por Episteme - 22 de Septiembre, 2007, 20:26, Categoría: Cognoscitivismo

Los problemas de

D. Davidson con la acción intencional

María del Rosario Hernández Borges

Universidad de La Laguna (Islas Canarias-España)

roherbo@ull.es

 

ABSTRACT: Es este trabajo quisiera exponer las dificultades que el modelo de explicación de la acción propuesto por Donald Davidson tuvo a la hora de explicar la intención. En su primer modelo, Davidson había explicado la acción a partie de deseo y creencia, éstas no sólo racionalizaban sino que también causaban la acción; y acción e intención se identificaban. Sin embargo, Davidson repara posteriormente en que, por un lado, a veces el deseo y la creencia parecen tener como resultado la acción y, sin embargo, no se da entre ellos la relación causal 'adecuada,' por lo que no podemos decir de la acción que sea intencional. Son casos de cadenas causales irregulares o no estándar. Por otro lado, a veces tener un deseo y una creencia relacionada no nos conduce necesariamente a la acción. Y, aún en el caso de que nos conduzca a la acción, ésta puede ser contraria a lo que nuestro mejor juicio nos dicta. Este es el problema de las conductas irracionales. Ambos problemas causaron que introdujera algunos cambios en su modelo inicial. Sostengo que estos cambios no mejoraron el modelo. El problema de las cadenas causales irregulares no se resuelve, y el problema de las separación entre deseo-creencia y acción se reformula en términos lógicos, mediante un recurso técnico.

 


En 1963, Donald Davidson publica un artículo "Acciones, razones y causas" que significó la reunificación de dos modelos de explicación tradicionalmente separados: el racionalista, según el cual las razones explican la acción porque la justifican; y el causal, que mantiene que la acción sólo se explica mediante sus causas. El planteamiento de Davidson disuelve esa oposición: "la racionalización [dice Davidson] es una especie de explicación causal ordinaria". (1)

No trataré aquí muchas de las críticas y problemas que suscitó y sigue haciéndolo este planteamiento del tema, como la conexión lógica que hay entre razón y acción o la necesidad de que exista una ley que respalde esa conexión. Mi objetivo es observar si este modelo puede dar cuenta de la intención, de ese momento previo a la acción. Los problemas que el tratamiento de la intención supusieron para el modelo causaron una reformulación de éste. Estos problemas fueron (1) las cadenas causales irregulares o no-estándar (externas o internas); y (2) aquellos casos en los que o bien el deseo no conduce necesariamente a la acción o bien los sujetos actúan en contra de su mejor juicio.

El primero de estos problemas, en mi opinión, no se resuelve ni produjo ningún cambio relevante en el modelo. El segundo, sí supuso un cambio, más de tipo lógico que sustantivo.

1

El modelo de explicación que defiende Davidson sigue la forma de un silogismo práctico. El razonamiento o silogismo práctico se formula en términos de lo que Davidson llama "una razón primaria", una actitud favorable y la creencia relacionada, aunque generalmente no es necesario mencionarlas a las dos. Davidson la define de la siguiente manera: "R es una razón primaria por la que el agente realizó la acción A bajo la descripción d, sólo si R consiste en una actitud favorable del agente hacia las acciones que poseen cierta propiedad, y es una creencia suya que A tiene esa propiedad en la descripción d". (2) Conocer una razón primaria por la que alguien actuó de cierta manera, es conocer la intención con la que se hizo la acción. Por ejemplo, la razón por la que Juan opositó fue que Juan tenía una "actitud favorable" ("deseo" en lo sucesivo) hacia aquellas acciones que le permitieran conseguir un trabajo estable y Juan cree que opositar es una forma de conseguir un trabajo estable. En este caso el deseo de Juan de conseguir un trabajo estable y la creencia relacionada coincide con la conclusión del silogismo: (3) Juan oposita. Por tanto, las razones primarias (las actitudes favorables del agente hacia las acciones de cierto tipo) dan cuenta tanto de la intencionalidad como de la acción, que en esta primera formulación de Davidson coinciden en la conclusión del silogismo práctico.

Sin embargo, existen casos donde el deseo y la creencia parecen tener como resultado final la acción deseada, pero, sin embargo, no podríamos decir, acertadamente, que haya sido una acción intencional. Es decir, "la cuestión es que no cualquier conexión causal entre actitudes racionalizantes y un efecto deseado bastan para garantizar que producir el efecto deseado fuera intencional". (4) R. Chisholm ilustra el caso con el siguiente ejemplo: un hombre desea heredar una fortuna; él cree que si mata a su tío, heredará una fortuna; y esta creencia y este deseo lo ponen tan nervioso que conduce excesivamente rápido, con el resultado de que, accidentalmente, atropella y mata a un peatón que, aunque su sobrino no lo sabía, era su tío. Por tanto, para dar buena cuenta de la acción intencional tendríamos que explicitar qué condiciones necesarias y suficientes se han de dar para que la acción intencional se siga siempre del deseo y la creencia que la han causado. Si la satisfacción de esas condiciones conducen siempre a la realización de la acción estaremos en posesión de una ley.

Davidson observa que en la literatura filosófica han sido varios los intentos de formular leyes de ese tipo. (5) Cada uno de esos intentos presenta el mismo problema: cómo conectar el deseo de hacer x con la realización de esa acción x, es decir, qué se añade a "A intentó hacer x" a fin de obtener condiciones suficientes y necesarias para "A hizo x intencionalmente". El mismo Davidson ya había establecido algunas condiciones que debía cumplir la explicación de la acción. Para explicar la conducta (B) en términos de creencias (C) y deseos (D), tendría que darse que:

1) Dado C, B es el mejor medio para llevar a cabo D.

Con esta condición se especifica la razón por la que el agente realizó la acción, pero no cualquier razón es suficiente para que se de la conducta, por ello es necesaria una segunda condición:

2) C y D causaron B, es decir, las razones deben ser también causas de la acción que racionalizan.

Pero aún cumpliéndose esta segunda condición, puede darse el caso de que las creencias y los deseos causen algún estado en el sujeto y que éste de forma involuntaria realice la acción. Este es el caso de las cadenas causales irregulares. Para evitar estos casos tendríamos ahora que añadir una tercera condición:

3) La cadena causal entre C-D y B ha de seguir la ruta correcta.

La cuestión sería que tendríamos que especificar cuál es la ruta correcta. Las "rutas incorrectas" dan lugar a dos tipos de cadenas causales irregulares. Por un lado, las cadenas causales irregulares externas, donde el razonamiento práctico no coincide con la acción, como en el caso que relata Daniel Bennett. Un hombre intenta matar a alguien pegándole un tiro. Sin embargo, al disparar no apunta bien y la bala no le da a la víctima. El sonido del tiro provocó la estampida de una piara de cerdos salvajes que pisotean a la supuesta víctima. En estos casos, según Armstrong, el efecto deseado debe ser producido por una cadena causal que responda al esquema del razonamiento práctico, esa sería "la ruta correcta". Tomando esta condición, el ejemplo de Bennett se analizaría como que el agente tuvo la intención de matar a la víctima disparando la pistola, porque de esa forma la bala penetraría en el cuerpo de la víctima causándole la muerte. Pero el razonamiento práctico no coincide con lo que ocurrió. Ya que el deseo era matar al hombre y la creencia era que la mejor manera de hacerlo era que una bala penetrara en su cuerpo, sin embargo, la víctima no murió porque la bala penetrata en su cuerpo. Davidson no está seguro de que las dificultades que estos casos presentan puedan resolverse; pero el problema más grave es el que presentan las cadenas causales irregulares internas.

Las cadenas causales irregulares internas son aquellas en las que el razonamiento práctico se corresponde con la cadena causal, esto es, deseo y creencia han causado la acción, pero la acción no es intencional. Sería un caso de cadena causal irregular el siguiente: "Un alpinista podría querer quitarse el peso y peligro de sostener a otro hombre de una cuerda y podría saber que soltar la cuerda podría quitarle el peso y el peligro. Esta creencia y este deseo podrían desconcertarlo tanto como para causar que la soltase y, sin embargo, podría suceder que nunca eligiese debilitar su presión, ni hacerlo intencionalmente". (6) En este caso, el deseo de quitarse el peso y el peligro de sostener a otro hombre y la creencia de que soltar la cuerda era una forma de conseguir ese objetivo causan la acción de soltar la cuerda. La cadena causal responde al esquema del razonamiento práctico, pero así y todo no podemos decir que el alpinista haya hecho la acción intencionalmente.

No hay posibilidad de establecer las condiciones causales antecedentes para que se de una ley de la conducta ya que si estas condiciones se formularan en términos mentalistas, la ley parecería analítica y no podríamos saber si la cadena causal entre condiciones especificadas y la acción sería irregular. Por otro lado, si enunciáramos las condiciones en términos físicos, lo que transformaría a la ley en una ley empírica y no analítica, fracasaríamos igualmente porque según la hipótesis del monismo anómalo que defiende Davidson no son posible leyes psicofísicas. Por tanto, el problema de las cadenas causales irregulares (especialmente las internas) como un aspecto del problema más general de lograr una ley que identifique completamente las condiciones causales de la acción intencional es insuperable desde el modelo davidsoniano de explicación de la acción.

Paradójicamente, a pesar de que todos los caminos recorridos por Davidson para llegar a una explicación satisfactoria de la acción intencional no han sido fructíferos, éste no renuncia a su particular versión de la teoría causal de la acción. Ya que su modelo de explicación de la acción deja muchas cuestiones importantes sin resolver, parecería razonable desechar la estrategia que ha seguido.

2

Un segundo problema importante en el tratamiento que Davidson hace de la acción lo constituyen aquellos casos en los que a un deseo no le sigue la acción que le corresponde. Es decir, cuando dadas las dos premisas que forman el silogismo (deseo y creencia) no se da la conclusión (la acción). Por ejemplo, yo tengo el deseo de ser millonaria (puedo tener una actitud favorable hacia aquellas acciones que me permiten llegar a ser millonaria) y la creencia de que hacer quinielas de fútbol es una forma de llegar a ser millonaria, y, sin embargo, no hago quinielas de fútbol.

Como he señalado antes, en el modelo planteado en "Acciones, razones y causas" (1963), la intención coincidía con la acción, era la conclusión del razonamiento práctico. Sin embargo, en "Intending" (1978) el planteamiento cambia, siguiendo una línea que ya se había iniciado en "How is weakness of the will possible?" (1970).

En el primer modelo, la acción se explicaba a partir solamente del deseo y la creencia. Así lo concibió Aristóteles, para quien la conexión deseo-creencia era tan mecánica que "una vez que una persona tiene el deseo y cree que alguna acción lo satisfacerá, inmediatamente actúa". (7) Davidson pensó que "llegar a la conclusión" se identificaba con "la acción" y de esta manera se eliminaban intermediarios entre razones y acciones, intermediarios como actos de voluntad o intenciones. (8) Pero, además, el modelo no sólo tenía dificultades a la hora de dar cuenta de casos como el anterior donde del deseo y la creencia no se sigue la acción, sino que si aplicamos el razonamiento práctico de forma mecánica, podríamos llegar a contradicciones. Supongamos los siguientes silogismos:

(1)

(Deseo) 1. Quiero sentirme relajada cuando tengo que hablar en público.

(Creencia) 2. Sé que si me tomo un ansiolítico fuerte me sentiré relajada.

(Intención/acción) Por tanto, es deseable que yo me tome un ansiolítico fuerte cuando tengo que hablar en público.

(2)

(Deseo) 1. Deseo no dormirme cuando tengo que hablar en público.

(Creencia) 2. Sé que si me tomo un ansiolítico fuerte me dormiré.

(Intención/Acción) Por tanto, no es deseable que yo me tome un ansiolítico fuerte cuando tengo que hablar en público.

El problema que reflejan estos dos silogismos es que las acciones tienen muchos aspectos, algunos de los cuales pueden ser deseables o indeseables. En nuestro ejemplo, el ansiolítico puede dormirme y esa puede ser una consecuencia indeseable si en esa situación tengo que hablar en público; pero, a la vez, me relaja en esa situación tensa y eso es deseable. Es decir, una misma acción puede ser deseable por una razón o indeseable por otra. Y considerada una misma acción (tomar un ansiolítico fuerte) se podría llegar a una conclusión contradictoria (es deseable e indeseable) a partir de premisas plausibles (me hace sentir relajada y me duerme).

A la vista de estas dificultades, Davidson reformula el silogismo de la siguiente manera:

(1) La premisa mayor que corresponde al deseo no se formula en términos de "cualquier acción que me haga sentir relajada en una situación tensa es deseable", sino en términos relativos: una acción es deseable en la medida en que me haga sentir relajada en una situación tensa. Los deseos así formulados son juicios prima facie, relacionales o condicionados. El sujeto puede formular varios juicios prima facie en el proceso deliberativo, considerando todos los aspectos relevantes, deseables e indeseables.

Igualmente, la conclusión del silogismo práctico es un juicio prima facie, ya que la deseabilidad o indeseabilidad es relativa a una característica u otra de la acción. Normalmente no se ha reparado en esto porque frecuentemente se considera que el juicio prima facie tiene forma de ley universal, ya que se llega a él a través de un modus ponens. Sin embargo, Davidson recomienda que no tratemos a los juicios prima facie como si formaran parte de un modus ponens, "o nos encontraremos concluyendo que la acción es simplemente deseable cuando todo lo que está garantizado es la conclusión de que es deseable en cierto respecto". (9)

(2) Una segunda modificación de la formulación inicial responderá la cuestión de por qué aún dándose el deseo no se da la acción.

Cuando decidimos y actuamos ya no consideramos un juicio como deseable por tener un rasgo u otro. Ese ha sido un paso previo. Simplemente lo consideramos incondicionalmente deseable. Es decir, una vez evaluados los pros y los contras, la toma de decisión y la realización de la acción indica su deseabilidad incondicional o global, y el juicio que le corresponde es un juicio global o incondicional, de la forma "Esta acción es deseable".

Distinguiendo estos dos tipos de juicios, Davidson quiere eliminar el problema de que la acción no se siga del deseo y la creencia. Un juicio incondicional no se puede seguir de un juicio prima-facie. En palabras de Davidson: "La dificultad lógica ha desaparecido porque un juicio de que 'a' es mejor que 'b', considerados todos los aspectos, es un juicio relacional, o pf (prima facie) y, por tanto, no puede entrar en conflicto lógicamente con un juicio incondicional". (10)

Creo que el modelo sigue siendo incompleto al resolver únicamente el problema lógico. Aún quedaría otra cuestión por resolver. El silogismo práctico nos lleva hasta un juicio de deseabilidad prima-facie. Una acción o intención se refleja en un juicio de deseabilidad incondicional. La cuestión sería cómo obtenemos juicios del segundo tipo a partir de juicios del primer tipo. (11) Y esto nos conduce a una segunda dificultad, aquellos casos en los que los sujetos no actúan siguiendo su mejor juicios (debilidad de la voluntad).

El paso de un tipo de juicio a otro, es decir, de la deliberación a la acción, se realiza a través del Principio de Continencia que todo ser racional sigue. Este principio dice que he de actuar siempre como mi mejor juicio me dicte (que sería el juicio relativo o prima-facie al que he llegado considerando todo lo relevante). Si no actúo como mi mejor juicio indica estaría siendo irracional, no porque no tenga una razón para actuar (la razón sería el deseo), sino porque estoy ignorando el Principio de Continencia.

El problema que suscitó la reformulación del silogismo queda resuelto en un nivel lógico, mientras la cuestión se traslada a otro problema, el de las conductas irracionales, que, en mi opinión, Davidson también resuelve de forma insatisfactoria: el carácter a priori de los principios de racionalidad (de los que forma parte el Principio de Continencia) y la imposibilidad de estudiarlos empíricamente es sólo uno de los problemas que plantea.

En conclusión, creo que el modelo explicativo que considera a las razones como causas de la acción presenta serias dificultades a la hora de tratar la intención, sea en relación con las razones, sea en relación con la acción. Este modelo tiene como resultado una síntesis entre psicología de sentido común y formalismo lógico (y tiene su máxima expresión en la teoría de la decisión racional), y olvida lo que la psicología empírica puede aportar a la explicación de la acción intencional. Esto debería conducirnos a su rechazo y a buscar modelos alternativos.

 

Notes

(1) D. Davidson, (1963): "Acciones, razones y causas", en A.R. White, La filosofía de la acción. Madrid: F.C.E., 1976, pag:117.

(2) op. cit.,118

(3) Esta coincidencia, que del deseo y la creencia se siga lógicamente la acción, es lo que da carácter justificativo a la razón primaria.

(4) D. Davidson, 1973, "Freedom to Act" en Davidson, 1985, Essays on Actions and Events, 1985, Oxford University Press, pag.78.

(5) Paul Churchland en "The Logical Character of Action Explanation", Alvin Goldman en "A Theory of Human Action", y Davidson Armstrong en "Acting and Trying", son los que comenta Davidson.

(6) op. cit., 79.

(7) D. Davidson, 1970, "How is Weakness of the Will Possible?, en Essays on Actions and Events, pag. 39.

(8) La concepción de Davidson de la intención ha cambiado de forma importante. Mientras en el primer modelo, consideró que las expresiones que se refieren a intenciones eran sincategoremáticos, sin referencia a ninguna entidad, estado o disposición; en la segunda formulación el asunto se plantea de otra manera: "[...] no es probable que si un hombre tiene la intención de atrapar un tigre, su intención no sea un estado, disposición o actitud de algún tipo. Sin embargo, si esto es así, es absolutamente increíble que este estado o actitud (y el suceso o acto relacionado de formar una intención) no vaya a desempeñar ningún papel en el actuar con una intención" ("Intending", 1978, en Essays on Actions and Events, p. 89).

(9) D. Davidson, 1978, "Intending" en Essays on Actions and Events, pag.98.

(10) D. Davidson, 1970, "How is Weakness of the Will Possible?, en Essays on Actions and Events, pág.39.

(11) S. Evnine, S., 1991, Donald Davidson, Cambridge: Polity Press.

 

 

Disponible en:

http://www.bu.edu/wcp/Papers/Acti/ActiHern.htm

Permalink :: Comentar | Referencias (0)

Las ciencias cognoscitivas

Por Episteme - 18 de Septiembre, 2007, 14:52, Categoría: Cognoscitivismo

Las ciencias cognoscitivas

en el análisis de Fracisco Varela

Adán Salinas Araya.

Para Francisco Varela, las ciencias cognitivas son el "nombre, con el que hoy designamos el análisis científico moderno del conocimiento, en todas sus dimensiones, es un campo multidisciplinario aun no bien definido".[i]

F. Varela, afirma que en Occidente no se ha escrito la historia natural del conocimiento de sí-mismo, pero sí han habido precursores de las ciencias cognitivas, se refiere a todos aquellos, que se han dedicado al estudio y especulación de la mente humana, como fuente primordial y ejemplo de la cognición y el conocimiento.

La mutación, que tiene apenas treinta o cuarenta años, al igual que como lo hizo en su tiempo el programa darwiniano, ha provocado que el conocimiento sea ligado con una tecnología, capaz de producir cambios sociales, incluso sobre las mismas causas que en nuestra sociedad le han dado surgimiento. Cabe señalar, como una de las expresiones más tangibles de este cambio, el fenómeno cada vez más desarrollado de  "la inteligencia artificial". Con ello, la sociedad va produciendo una exploración científica de la mente, que hace que las sociedades puedan verse a sí mismas. ¿Seremos capaces hoy de imaginar nuestras sociedades sin una pantalla que nos esté informando y comunicando, sin satélites que nos conecten, sin Internet ni correo electrónico, sin robots que nos faciliten la producción, sin calculadoras, sin tarjetas magnéticas? Al ver todas estas características nos reconocemos como un momento distinto de la historia de la humanidad, con cambios y avances vertiginosos y fascinantes, pero que, a la vez, nos sumergen en una pregunta límite: ¿Hasta donde llegará el desarrollo de la capacidad humana, de la mente y su ingenio? Al reconocernos como una etapa distinta de la sociedad, nos damos cuenta que todos los avances se guían por un modelo o prototipo: la mente humana, la conciencia, las habilidades sensorio-motrices, el habla comunicacional del hombre. Otear el horizonte del mundo es mirar al hombre y su sombra, cada giro del planeta, en su traslación y rotación, es al mismo tiempo el hombre que avanza y el hombre que queda atrás.

Consecuentemente, hoy somos capaces de cuestionarnos sobre cómo se constituye la mente y, si se le puede o no manipular para fines de diversa aplicación. Y, lo que antes era una cuestión espontánea en la comprensión de la mente, hoy es un esfuerzo, por lograr una comprensión de la mente a través de la ciencia considerando su emergente y constante estado de  transformación.

Cabe destacar, que por primera vez la comunidad científica internacional, ha reconocido las investigaciones del conocimiento mismo como legítimas, rebasando los límites impuestos por ella, dejando cabida, por ejemplo, a estudios interdisciplinarios con áreas de investigación no antes exploradas, como la fenomenología, la neurobiología, la lingüística.

Este cambio, ha llevado al conocimiento a involucrarse con otro fenómeno moderno: la tecnología. Ambos, conocimiento y tecnología han sido capaces de transformar las prácticas sociales. Un ejemplo tangible en nuestra experiencia, por el uso de la computación e Internet, que nos permiten compartir conocimientos, de las más diversas índoles y superando las barreras disciplinares.

Hoy, nuestra sociedad es capaz de hacerse preguntas tales como: "¿Es la mente una manipulación de símbolos? ¿Puede una máquina comprender el lenguaje?"[ii] ¿Serán capaces las máquinas de realizar tareas sólo privativas del hombre, e incluso realizarlas de mejor manera?

Nuestra era, lentamente ha ido superando el reduccionismo y dogmatismo científico que gobierna la legitimación de las teorías. La verdad absoluta, la búsqueda de una realidad objetiva se ha debilitado y ha surgido una nueva forma de validación y reconocimiento, más cercano a la intersubjetividad teórica. Hoy en día, diferentes disciplinas pueden estudiar un mismo fenómeno, desde diversos intereses y perspectivas, llegando no siempre a las mismas conclusiones; esto ha enriquecido el debate y la investigación, ampliando las posibilidades para describir un fenómeno, dando cabida a una colaboración abierta, para enfrentar la dinámica de los cambios y que van desde la "teoría de la relatividad (Einstein) al desarrollo de la mecánica cuántica y cómo minaron sus principios; también pusieron en tela de juicio, la posibilidad de la percepción objetiva pura"[iii].  No obstante, las ciencias cognitivas aparecen como un "mosaico" de perspectivas compatibles en mayor o menor grado referidas a un mismo dominio. Pero, aún las ciencias están atravesadas por ciertas "corrientes de poder", que manejan la legitimación de teorías. Nos dice Jeremy Hayward: "Cualquier hecho sugerido por la observación que vaya contra las teorías imperantes tiende a ser descartado"[iv].

F. Varela busca abrir espacio para un cúmulo de reflexiones e investigaciones, todas ellas novedosas y con argumentos potentes, pero que no provienen desde el centro hegemónico de las ciencias, que pueden tender sendas a nuevas posibilidades de mirar al hombre y al mundo. Él mismo se confiesa como un "inveterado amante de la heterodoxia"[v]; sin embargo, siempre un científico y un investigador con serias intenciones.

Breve reseña de Las Ciencias y Tecnologías de la Cognición (CTC).

Las Ciencias y Tecnologías Cognitivas, o "CTC" como las llama F. Varela, son un híbrido de diversas disciplinas interrelacionadas y donde cada cual, aporta sus intereses y preocupaciones propias.

Las ciencias cognitivas, como muchas otras, poseen una parte "formal", "pura" o "dura" y otra "aplicada". Los diferentes intereses estudiados, no se quedan en la teorización, que permite ayudarnos a conocer la realidad de la mente y su funcionamiento, sino que, se concreta en distintos tipos de aplicaciones. Sin duda, las más notables aplicaciones se han hecho en el ámbito de la Inteligencia Artificial, pero éste, no es el único campo ni de investigación ni de acción. De esta manera, preocupaciones que ayer eran meramente formales o teóricas, hoy las vemos en aplicaciones muy patentes en nuestro mundo actual. Veamos el siguiente ejemplo:

 Áreas de Investigación:              Ciencias aplicadas y Tecnologías:

 

Percepción                                     Reconocimiento de imágenes.

 

Lenguaje                                         Comprensión del lenguaje.

 

Inferencia.                                       Sistemas de programas.

 

Acción                                              Robótica.

En el anterior ejemplo, podemos apreciar cómo diferentes preocupaciones de diversas áreas de saber e investigación han desembocado en la búsqueda de aplicaciones manifiestas, en especial en los modernos ordenadores o computadores, que tienen como función reconocer y crear imágenes, comprender un código de pleno uso computacional (lenguaje), con reglas lógicas ordenadoras (programas computacionales) y con aplicaciones de trabajo y acción productiva, concretizadas en diversos prototipos de robots tanto para uso industrial, doméstico, espacial, entre otros.


Etapas sucesivas de las ciencias y tecnologías de la cognición.

Estas Ciencias y Tecnologías de la Cognición tienen un natural desarrollo, que se ha dado de forma paulatina. Nuestro autor guía reconoce, por lo menos, cuatro fases o etapas, que él considera como capas superpuestas: 

1ª Fase: Los años Fundacionales. 1940 – 1953.

2ª Fase: Los Símbolos: El Paradigma Cognitivista.

3ª Fase: La Emergencia: Una alternativa ante la manipulación de símbolos.

4ª Fase:La enacción: Una alternativa ante la Representación.

Este abordaje en Cuatro Etapas reconoce la base de algo que ya esta establecido como un "paradigma"[vi]. Este paradigma, según F. Varela, se ha perfilado claramente en las dos primeras etapas de las CTC y ha allanado el camino a nuevas perspectivas emergentes, propias de la tercera y cuarta etapa.

Para conocer más detalladamente el desarrollo histórico y teórico de cada una de las fases, a continuación, trataremos en breves enunciados a cada una de ellas, destacando los elementos relevantes y los acentos puestos en cada caso.

Primera Fase: Los Años Fundacionales. 1940 – 1956.

Los "Padres fundadores", como los llama el autor, tenían muy claro que sus investigaciones conducirían a una nueva ciencia y la bautizaron con el nombre de "Epistemología"[vii].

F. Varela también llama a este periodo la  "Fase Cibernética"[viii]. La Principal intención de este movimiento, era crear una "ciencia de la mente", dedicada al estudio de los fenómenos mentales, los que con anterioridad, sólo habían sido estudiados por filósofos y psicólogos. Estos investigadores "cibernéticos"[ix], buscaban expresar estos fenómenos de la mente, en mecanismos explícitos y formalismos matemáticos.

Dos de los exponentes más destacados de la etapa, cibernética, son Warren Mc Culloch y Walter Pitts. Ellos aseguraban, que la lógica era una disciplina que podía ayudar a comprender, tanto el cerebro como la actividad mental. Para ellos, el cerebro no era más que un "artilugio que corporiza principios lógicos en sus componentes o neuronas"[x]. Fue justamente bajo esta concepción, que se dio origen a lo que conocemos como "ordenadores digitales"[xi].

A esta etapa, también se la llama "epistemológica". Esta expresión es poco usada en la actualidad. Las ciencias cognitivas, en sus primeros años, estuvieron muy relacionadas con el esfuerzo de comprender el cómo y hasta dónde los seres vivos y, en especial, el hombre, conocían, es decir, con una teoría del conocimiento, aunque no exclusivamente filosófica. No es por casualidad, que en los años 40 serían varios los autores que utilizarían en diversos campos, el término epistemología; por ejemplo, Mc Culloch bautiza a su proyecto como "epistemología experimental"; Jean Piaget acuña la expresión "epistemología genética" y; Konrad Lorenz (zoólogo) comienza a hablar de "epistemología evolutiva". Sin duda, todos los ejemplos citados, a pesar de provenir de diferentes campos de la ciencia, compartían su interés por la forma o modo de conocer o interpretar la realidad.

Alrededor del año 1953, la mayoría de los cibernéticos se fueron distanciando o murieron.

Algunos de los principales resultados de esta primera fase son[xii]:

1.- El uso privilegiado de la lógica matemática, para comprender tanto el funcionamiento del sistema nervioso, como del razonamiento humano.

2.- Se inventan y crean máquinas de procesamiento de la información (los primeros operadores digitales), que van a constituir la base, de lo que hoy conocemos como Inteligencia Artificial.

3.- Instauración de una meta – disciplina, la teoría de los Sistemas, que ha influido en muchas áreas de la ciencia (Administración, biología, antropología, sociología, economía, y otras).

4.-  La "teoría de la información", como una teoría estadística de la señal y de los canales de comunicación, que constituye la base de muchas de las actuales tecnologías de la comunicación.

5.- la construcción y experimentación con los primeros ejemplos  de sistemas autoorganizativos y autónomos ( prototipos de robots)

Los aportes de esta primera fase de las CTC son muy amplios. Muchas de estas ideas hoy son parte habitual de nuestras vidas, pero antes de la década de los 40 no existían, no se habían pensado. Para los padres fundacionales, la mente humana era un mero mecanismo. En la década de los 50, se dará paso a una nueva perspectiva más desarrollada y que hasta nuestros días, es acogida por las corrientes más ortodoxas de la ciencia. Es así que se da paso al enfoque cognitivista.

Segunda Fase: Los Símbolos: La Hipótesis Cognitivista.

1956 fue el año de nacimiento de una nueva etapa de las ciencias cognitivas. Ese año se llevaron a cabo reuniones científicas en Cambridge y Darmouth, donde personajes como Herbert Simon, Noam Chomsky, Marvin Minsky o John McCarthy, afianzarían una serie de ideas que configurarían las líneas de investigación, reflexión y acción de las ciencias cognitivas. Es así como se da inicio al Cognitivismo[xiii]. La intuición central de este nuevo enfoque, es que "la inteligencia -la humana incluida- se asemeja tanto a la informática en sus características esenciales que la cognición se puede definir como computaciones de representaciones simbólicas"[xiv]. En esta etapa, la mente humana es equiparada a un computador u ordenador, es decir, una de las tesis, entre tantas, de la fase anterior es  reconocida en ésta como hipótesis central.

En esta Fase nuclear de las ciencias cognitivas, la Cognición[xv] es entendida como computación. Como ya citamos una computación es un proceso que se lleva a cabo mediante símbolos o elementos que "representan" aquello que designan o aquello a que se refieren.

Una idea central es la noción de "representación" o "intencionalidad", es decir, está referida a lo que se entiende generalmente en filosofía como algo "acerca de" algo o como una adecuatio rei ad cerebrum - adecuación de las cosas en el cerebro (sic) - o, incluso, adecuatio rei ad Máquina (sic), pensando en la visión que muchos cognitivistas tenían del cerebro: un sistema central.

Para los cognitivistas toda conducta inteligente supone la capacidad del agente o sujeto cognoscente para representarse el mundo, como si éste, el mundo, fuera ya de cierta manera. Esto nos hace pensar en un mundo dado y objetivo, del cual, el agente cognoscente, representa los rasgos fundamentales de la situación, o porción de mundo, en que se encuentra: "existe un mundo exterior que debemos conocer y la tarea del sistema nervioso es hacerlo mediante la aprehensión de sus características"[xvi]. Para este paradigma, mientras más precisa sea la representación de los rasgos relevantes de esa porción del mundo, mayor éxito alcanzará, siempre y cuando los rasgos representados no cambien en la realidad. Esta visión es continuadora de enfoques adaptacionistas, ya presentes en la teoría evolutiva y en la de selección natural.

En segundo lugar, el cognitivismo afirma que la manera unívoca de explicar tanto la inteligencia como la intencionalidad, se logra impulsando una hipótesis donde la cognición es entendida como acción "a partir de representaciones que se realizan físicamente en forma de un código simbólico dentro del cerebro o de una máquina"[xvii].

Para el cognitivismo, la computación humana es simbólica, esto da entender que los símbolos son elementos físicos, pero a la vez semánticos. Toda computación de símbolos se encaja y se rige por la carga de significados o de valores semánticos que poseen estos símbolos. Esto explicaría una necesaria correlación existente entre los estados intencionales o representacionales (creencias deseos, intenciones...) y los cambios físicos que se dan en la conducta del agente. Dicho de otra forma, esto explicaría la causa de la conducta humana a partir de la representación e interpretación de símbolos rescatados del mundo objetivo. En el caso de ciertos computadores, sólo se observa una operación sobre la base física de los símbolos que computa, no se reconoce en ellos conducta. Sin embargo, cada programa puede ser perfilado de tal forma que pueda reconocer y leer la distinción semántica del lenguaje computacional utilizado, es decir, reconozca los códigos y los decodifique. "Para un ordenador, la sintaxis es reflejo o paralelo de la semántica"[xviii]. Si la conducta y la inteligencia en los humanos se entienden gracias al significado o intencionalidad con que se representa o computa, para el computador el orden y contexto de los símbolos produce ciertos tipos de computaciones presentes en ciertos programas.

La hipótesis cognitivista, por tanto, es "que los ordenadores brindan un modelo mecánico del pensamiento,... el pensamiento consiste en computaciones simbólicas y físicas. Las ciencias cognitivas se transforman en el estudio de esos sistemas simbólicos cognitivos y físicos"[xix].

Hay que tener en cuenta, que si bien los símbolos se computan a nivel físico, esto no quiere decir que la cabeza o el cerebro del hombre este lleno de pequeños elementos físico-espaciales, no hay "simbolitos" moviéndose de un lugar a otro. La actividad cerebral puede ser descrita por un encefalograma pero no por una radiografía que nos muestre componentes físicos como letras, paisajes, ideas o deseos.

Para F. Varela el programa cognitivista se puede sintetizar de la siguiente forma:

"1.- PREGUNTA: ¿Qué es la Cognición?

      RESPUESTA: Procesamiento de la información como computación simbólica, es decir, manipulación de símbolos basadas en reglas.

2.- PREGUNTA: ¿Cómo funciona?

     RESPUESTA: A través de cualquier dispositivo que pueda soportar y manipular elementos funcionales discretos: los símbolos. El sistema interactúa sólo con la forma de los símbolos(sus atributos físicos), no su significado.

3.- PREGUNTA: ¿Cómo sé cuando un sistema cognitivo funciona adecuadamente?

 RESPUESTA: Cuando los símbolos representan adecuadamente algún aspecto del mundo real y el procesamiento de información conduce a una adecuada solución del problema presentado al sistema"[xx]

Por lo tanto, para el cognitivista el mundo existe como algo exterior al individuo que lo representa a partir de símbolos. Lo que se quiere lograr, es averiguar como esta configuración interna del hombre, que llamamos mente, representa y procesa la información, para luego dar respuestas adecuadas y eficientes en el medio externo. No obstante, se reconoce que si bien el cerebro puede ser comparado a un operador digital (computador), el sistema cognitivo o mental del hombre es mucho más intrincado y complejo que un sistema computacional o programa.

El enfoque cognitivista recoge como su interpretación más literal a la Inteligencia Artificial, ya que se presupone, que en el estudio de la cognición es imposible separar ciencia de tecnología, ya que de esta unión, necesariamente, surgen efectos que influyen directamente a la sociedad o el público en general. La actividad mental y sus representaciones, junto con sus creencias, deseos e intenciones, dan sustento a los artilugios o sistemas cognitivos artificiales.

El cerebro es visto por los cognitivistas como un perfecto procesador de información que reacciona selectivamente ante ciertas características ambientales. Esta mirada, en particular,  ha influido, prácticamente a toda la neurobiología, la que da por sentado estos juicios. Un ejemplo muy gráfico de esta visión se da en la teoría de la "célula abuela" de H. Barlow donde los conceptos se corresponden con las percepciones, que a la vez están asociadas a ciertas neuronas específicas[xxi].

De esta forma, el enfoque cognitivista pasaría a ocupar el lugar privilegiado en la ortodoxia de las ciencias cognitivas, en especial, en la psicología cognitiva, la lingüística y la neurobiología. Pero con el tiempo, pasados veinticinco años de hegemonía, salen al tapete nuevas formas de explicar los fenómenos mentales.

Tercera Fase: La Emergencia: Una alternativa ante la manipulación de símbolos.

En esta etapa el tema central será la noción de "propiedades emergentes" y nace como una superación del enfoque anterior donde predominaba la manipulación de símbolos. Ya, desde los años fundacionales de las ciencias cognitivas, hubo controversias sobre si existía o no en los cerebros alguna norma o procesador lógico central o si su información se encontraba o no localizada y almacenada en direcciones o lugares precisos. En 1949, Donald Hebb "sugería que el aprendizaje se podía basar en cambios cerebrales que surgen del grado de actividad correlativa entre neuronas"[xxii] , dicho en otras palabras, los cerebros operarían sobre la base de interconexiones masivas, de forma distribuida, donde la misma conectividad cambiaría según la experiencia. De esta manera, la conectividad del sistema sería inseparable de su historia de transformación y estaría directamente relacionada con la clase de tarea definida para el sistema. A esta manera de ver estos problemas se le llamó "conexionismo" o neo-conexionismo. La estrategia conexionista, en vez de partir de reglas o descripciones simbólicas abstractas, parte de una trama de componentes (al parecer) absurdos, no inteligentes o sin sentido; que, interconectados apropiadamente, alcanzarían importantes propiedades a nivel global. Para entender de mejor manera, hay que precisar que elementos simples se conectan dinámicamente, cada componente actuaría en su ámbito local. El sistema se constituye como una red de neuronas interconectadas, de donde emergería una cooperación global en forma espontánea. Este paso de lo local a lo global es lo que se conoció en la era cibernética como "autoorganización" y que se le denomina actualmente "propiedades emergentes o globales", "dinámicas de red", "redes no lineales", "sistemas complejos", "teoría del caos" o, incluso, "sinergia".

Desde la década de 1970, hubo un creciente renacer de estas ideas. Lo que motivo el dar un nuevo vistazo al conexionismo o autoorganización, fue la existencia de dos deficiencias del cognitivismo o Representacionismo:

1)      El procesamiento de información simbólica se basa en reglas secuenciales, aplicadas una a la vez. Pero, ¿Qué pasa cuando una tarea requiere una gran cantidad de operaciones secuenciales a la vez?

2)      El procesamiento simbólico está localizado y, la pérdida o mal funcionamiento de uno de sus componentes, es decir, cualquier parte de los símbolos o del sistema, conlleva a una falla o daño grave a nivel global; mientras, al contrario, las operaciones distribuidas aseguran una relativa equipotencialidad e inmunidad que suplirían cualquier mutilación o falla de uno de los elementos conectados en red.

Si bien, no se puede hablar de una teoría formal unificada de la Emergencia, al contrario, existen variados puntos de vista acerca de qué es la ciencia cognitiva y cuál es su futuro, podemos mencionar ciertos principios básicos:

"1.- PREGUNTA: ¿Qué es la Cognición?

RESPUESTA: La emergencia de estados globales en una red de componentes simples.

2.- PREGUNTA: ¿Cómo funciona?

RESPUESTA: A través de reglas locales que rigen las operaciones individuales y, de reglas de cambio que rigen la conexión entre los elementos.

3.- PREGUNTA: ¿Cómo sé cuando un sistema cognitivo funciona adecuadamente?

RESPUESTA: Cuando vemos que las propiedades emergentes (y la estructura resultante) se corresponden con una aptitud cognitiva específica: una solución adecuada para la tarea requerida"[xxiii].

Este nuevo enfoque provocó una nueva manera de concebir el cerebro, el cual necesariamente operaría bajo propiedades emergentes y, las neuronas operarían como miembros de una serie de conjuntos que aparecen y desaparecen repetidas veces. Cada neurona tendría una determinada y distinta respuesta según cada contexto y conexión. Por lo cual, el cerebro ya no sería un sistema central unificado de procesos informativos sino, más bien, un sistema altamente cooperativo, desde lo local a lo global y de lo global a lo local; entre el sistema y los subsistemas; entre los subsistemas y los elementos locales. El sistema en conjunto cobraría coherencia, a pesar de que sus componentes por separado no la tengan. Una neurona tendría muy poca importancia y funcionalidad si se la toma por separado o aisladamente. Esto da la base de variadas capacidades cognoscitivas que emergerían de una labor conjunta de diversos elementos y no de uno en particular.

Estas conclusiones han tenido variadas consecuencias en diversas áreas de investigación y estudio. Es así que podemos encontrar modelos emergentes o autoorganizativos en la física, en las matemáticas no lineales, en la inteligencia artificial, en inmunología, en genética, en psicología experimental, en economía y sociología.

Cuarta fase: El Enfoque Enactivo: Una alternativa a la representación.

Hasta el momento, hemos conocido la vida de F. Varela y como se acercó al estudio de la mente, es decir, a las ciencias cognitivas. Luego, hemos conocido cuales han sido las etapas de desarrollo de estas ciencias, pero nos falta reconocer su última y más reciente fase, el enfoque enactivo, en el que F. Varela aporta de forma significativa, ejerciendo una importante influencia hasta hoy.

Las diferentes fases del desarrollo de las ciencias cognitivas, paulatinamente, han dado lugar a una tendencia que avanza cada vez más hacia la temporalidad de la cognición como historia vivida, y se aleja de aquella actitud objetivista/subjetivista que predomina en la ciencia occidental moderna. F. Varela, comprometido en esta tarea, nos ayuda a comprender que, hasta hoy, al intentar definir lo qué es la cognición ha existido una falta de sentido común. Para F. Varela, la cognición ya no puede ser identificada con una representación de un mundo externo, sino que debe transformarse en una "acción corporeizada" inextricablemente ligada a historias vividas.

Hasta el momento, la cognición ha sido vista como representación y su principal función consistía en "resolver problemas". Pero para F. Varela, el éxito de cualquier actividad depende necesariamente de habilidades motrices adquiridas y del uso continuo del sentido común o "know how", ya que, se trata de una especie de "disposición" o "conocimiento práctico" que se basa en la acumulación de experiencia adquirida en un gran número de casos. El know how contextual se transforma así en la esencia misma de la cognición creativa. La fuente filosófica hacia el sentido común, la encontramos en filósofos europeos, especialmente en la escuela hermenéutica, y se desprende de la obra temprana de M. Heidegger y también de H. Gadamer, M. Foucault o M. Merleau-Ponty. La hermenéutica, que en principio nace como una forma de interpretar textos antiguos, "denota  todo el fenómeno de la interpretación, entendida como "enactuar" o "hacer emerger" el sentido a partir de un trasfondo de comprensión"[xxiv] La mayor capacidad de la cognición viviente consiste en gran medida en plantear las cuestiones relevantes que van surgiendo en cada momento de nuestra vida y que no son predefinidas sino enactuadas: se las hace emerger desde un trasfondo, ya que, el conocimiento se relaciona con el hecho de estar en un mundo que resulta inseparable de nuestro cuerpo, nuestro lenguaje y nuestra historia social, es decir, de nuestra "corporización"[xxv]

Las ciencias cognitivas, entonces, asumen este desafío: cuestionar el supuesto que el mundo es independiente del conocedor. Al contrario, "conocedor y conocido, la mente y el mundo se relacionan mediante una especificación mutua o un coorigen dependiente"[xxvi], es decir, surgen o emergen conjuntamente. De ahí que, no podamos ponerlos en ninguno de los dos polos (¿Qué es primero el huevo o la gallina?"):

Por un lado, el objetivismo representacionista (Postura de la gallina) que  propone que el mundo está afuera de nosotros y tiene leyes fijas, precede a la imagen que nos hacemos de él y que proyecta sobre nuestro sistema cognitivo, el cual captura y representa mediante símbolos.

Por otro lado, el subjetivismo solipsista, conexionista o constructivista (Postura del huevo) que plantea que es el sistema cognitivo o el propio organismo, y la solidez de sus propias leyes internas, quien crea o construye su propio mundo.

El enfoque enactivo propone una vía intermedia: "nuestra intención es sortear esta geografía lógica de "interno-externo" estudiando la cognición ni como recuperación ni como proyección, sino como acción corporeizada"[xxvii]. "Acción corporeizada" quiere decir dos cosas:

(1)"la  cognición depende de las experiencias originadas en la postura de un cuerpo con diversas aptitudes sensorio-motrices:

(2) estas aptitudes sensorio-motrices están encastradas en un contexto biológico, psicológico y cultural más amplio"[xxviii].

Por lo tanto, lo biológico y la experiencia vivida son inseparables. Nuestro cuerpo es a la vez un organismo vivo y ser que vivencia. Al mismo tiempo, el ambiente (Unwelt) emerge  a través de la puesta en acto del ser del organismo y, a la vez, el organismo vive porque el ambiente se lo permite -el organismo configura o inicia el medio ambiente pero a la vez es modelado por él. Para el enfoque enactivo, las personas, los objetos, el mundo, no se ven por medio de la extracción de rasgos posibles de representar o simbolizar, sino que son enactuados e interactuamos con ellos mediante la guía sensorial de la acción, esto constituye la historia de nuestro acoplamiento estructural donde conocedor y conocido se codeterminan y se constituyen recíprocamente. En consecuencia, la cognición deja de ser un dispositivo que resuelve problemas mediante representaciones, para hacer emerger un mundo donde el único requisito es que la acción sea efectiva: por lo tanto, podemos responder a las mismas preguntas de las fases anteriores con las siguientes respuestas:

"PREGUNTA N° 1:  ¿Qué es la cognición?

RESPUESTA: Acción efectiva: historia del acontecimiento estructural que enactúa (hace emerger) un mundo.

PREGUNTA N° 2: ¿Cómo funciona?

RESPUESTA: A través de una red de elementos interconectados capaces de cambios estructurales durante una historia ininterrumpida.

PREGUNTA N° 3: ¿Cómo saber que un sistema cognitivo funciona adecuadamente?

RESPUESTA: Cuando se transforma en parte de un mundo de significación preexistente (como lo hacen los vástagos de toda especie), o configura uno nuevo (como ocurre en la historia de la evolución)"[xxix].

Las representaciones han dejado de cumplir papel alguno, la inteligencia ya no desempeña la propiedad de resolver problemas y ha pasado a entenderse como la capacidad de ingresar en un mundo compartido.

 Las ciencias cognitivas y su investigación práctica se ven afectadas por el enfoque enactivo, no sólo la robótica y la inteligencia artificial, sino también la filosofía. Como veremos en el siguiente capítulo, también se abre una nueva perspectiva de comprender la experiencia ética.

En esta cuarta fase, que corresponde a las teorías de la enacción, encontramos las tres categorías básicas del pensamiento vareliano respecto del conocer y que son, al mismo tiempo, las categorías centrales de nuestro trabajo. Por tal razón, le dedicaremos un capítulo completo. Las categorías son: enacción, microidentidades y Micromundos. No obstante, resulta necesario dar un paso previo para entender mejor estas mismas nociones. El paso es detallar en forma general las tradiciones de Sabiduría que salen al paso de las Ciencias cognitivas; pues en tal encuentro aparece con más claridad la postura de F. Varela

Conclusiones.

Deben distinguirse, en la obra de Francisco Varela, dos momentos importantes. El primero, es en el que predomina la noción de autopoiesis. Esta etapa está marcada por el trabajo conjunto con H. Maturana. Se distingue por ser una teoría general de los seres vivos de corte mecanicista que plantea el concepto de máquina como noción básica para la definición de los seres vivos y propone la autoorganización como su característica fundamental. De tal concepción surge una teoría del conocimiento que F. Varela asumirá como primer postulado durante esta etapa y que servirá de base para su desarrollo posterior. Los textos claves de este momento son "De máquinas y seres Vivos", donde se encuentran los postulados básicos; y "El árbol del conocimiento", en el cual se elabora una teoría del conocimiento que deviene de los postulados básicos planteados en el texto anterior. También pertenecen a este primer momento algunos pasajes de "El fenómeno de la Vida", texto editado el año 2000 en retrospectiva del trabajo de 30 años y que incorpora escritos del momento de la autopoiesis y del enfoque enactivo.

El segundo momento, corresponde al enfoque enactivo. Hay que entenderlo en conexión con el momento anterior; pues profundiza la comprensión de los postulados biológicos allí desarrollados. El surgimiento de este segundo momento está mediado por los lazos teóricos y vivenciales que F. Varela asume con la fenomenología y el budismo. El concepto de máquina es reemplazado por el concepto de cuerpo, evolución que explicare mejor en clases posteriores. La teoría del conocimiento se transforma y deviene en postulados éticos y se comienza a forjar un método de trabajo que F. Varela menciona como ecología filosófica o neurofenomenología, dependiendo de ciertos matices. El resto de los textos mencionados corresponden a esta etapa. "Conocer" es un texto que trata los postulados básicos de la teoría del conocimiento, en diálogo con las diferentes posturas desarrollada al interior de las ciencias cognitivas. "Ética y Acción", "Habilidad ética" y "De cuerpo presente" tratan en más detalle los postulados éticos, aunque con el vicio editorial de la reproducción textual en muchos pasajes. Por último, están los textos que recopilan las conferencias "Mente y Vida" con el Dalai Lama, los cuales se dirigen a dar cuenta de la práctica de transformación del sujeto que F. Varela asumió privilegiadamente, es decir, el Budismo, y el modo en cómo lo entiende al contacto de las ciencias cognitivas. "El fenómeno de la Vida" tiene pasajes que corresponden al enfoque enactivo y otros, al momento de la autopoiesis. Una de las pistas para distinguirlos es la fecha de publicación original de los artículos; pero ellas no vienen indicadas en el texto. La segunda pista es la revisión de las notas al pie y la bibliografía ocupada para cada artículo; pero F. Varela al parecer ha revisado y ampliado dicho trabajo bibliográfico. De tal modo que, la única manera de distinguir entre ambos periodos es la temática de cada artículo; aunque eso requiere una cierta comprensión previa de ambos momentos.

Esta mirada general al desarrollo intelectual de F. Varela y la explicación de sus fuentes principales nos preparan para entender más acabadamente los conceptos de enacción, microidentidades y micromundos, que desarrollaré a continuación. Se trata del primer paso, según el propio camino que trazó Varela: Del conocer a la ética y a las prácticas concretas de transformación.

 

Notas:

[i] Varela, F. Conocer. Las Ciencias cognitivas: Tendencias y perspectivas. Cartografía de las ideas actuales. Ed. Gedisa Barcelona 1990.

[ii]. Varela, F.Conocer. Op. Cit. pág. 13.

[iii] Varela, F.; Hayward, J. Un puente para dos miradas. Conversaciones con el Dalai Lama sobre las Ciencias de la Mente. Dolmen Ediciones S.A. Santiago de Chile. 1997. pág. 28.

[iv] Ibid. pág 36.

[v] Varela, F. Conocer. Op. Cit p.

[vi] Un paradigma, según E. S. Kuhn es el modo habitual de referirse al conjunto coherente de ideas científicas que se aceptan como explicación de un "corpus" fenomenológico.

[vii] F. Varela utiliza el término "epistemología" más cercana a la connotación de origen anglosajona, este sentido del término se relaciona fuertemente con lo que solemos llamar "Teoría del Conocimiento", y no le da la connotación que se ha aplicado en Francia, donde se utiliza en estrecha relación con lo que entendemos por "historia y/o Filosofía de las Ciencias" Cf.: Varela, F.Conocer. Pág. 30.

[viii] Cf.: Rosh, Thompson y Varela, F. De cuerpo presente. (The Embodied Mind) Op cit. Pág. 62.

[ix]  El termino cibernéico proviene de la palabra de origen griego: "cibernetes", que significa el "arte del piloto", es decir, del que sabe conducir, del que gobierna. Actualmente se la entiende como la imitación, a través de las máquinas, de los sistemas de regulación de los seres vivos.

[x].: Rosh, Thompson y Varela, F. De cuerpo presente. Op. Cit Pág. 63.

[xi] "Un ordenador o computador es un artilugio físico (artefacto) construido de tal modo que un conjunto particular de sus cambios físicos se puede interpretar como computaciones. Una computación es una operación llevada a cabo sobre símbolos, es decir, sobre elementos que representan aquello a que aluden". Ibid. Pág. 32.

[xii] Cf.: Varela, F.Conocer. Op cit. p. 34 – 35. También en Rosh, Thompson y Varela, F.De cuerpo presente. Op cit p. 62.

[xiii] "A veces se describe el cognitivismo como el "paradigma simbólico" del "enfoque informático". Aquí ambas designaciones serán sinónimas" (Nota del autor) Rosh, Thompson y Varela, F. De cuerpo presente. Op. cit Pág. 32.

[xiv] Ibíd. Pág. 64.

[xv] Término que deriva del latín cognitio, -entablar conocimiento con- entendido generalmente como el proceso mental con el que se adquiere conocimiento, que supone, fundamentalmente, la percepción, el recuerdo, la imaginación, el concepto y la idea o pensamiento

[xvi]Varela, F.El fenómeno de la vida Op. cit. Pág. 155.

[xvii] Ibíd. Pág. 65.

[xviii] Ibíd. Pág. 65.

[xix] Ibíd. Pág. 66.

[xx] Ibíd. Pág. 67.

[xxi] Varela, F. cita la obra "Single Units and Sensation: A Neuron Doctrine for Perceptual Psycology" de H. Barlow, en especial las páginas 371-394. (Perception 1, 1972).

[xxii]Varela, F. et alts.. De cuerpo presente. Op. cit. Pág. 113.

[xxiii] Ibíd. Pág. 126.

[xxiv]Varela, F. De Cuerpo Presente. Op Cit. Pág. 176.

[xxv] Nuestro mundo, por lo tanto, no está en un "allá afuera", en una "realidad pre-dada", sino que se constituye, emerge de nuestra capacidad de comprensión arraigada a nuestra estructura de corporización. No nos representamos el mundo, sino que lo hacemos emerger. Nuestro conocimiento es el resultado de la interpretación que surge de esta capacidad que tenemos de comprender desde nuestra corporización biológica, pero que se experimenta, se vive, dentro de un dominio de acción consensual e historia cultural. Fenomenológicamente hablando, "tenemos un mundo", existimos con él y en él, porque somos en y con el mundo podemos tener una precomprensión que emerge de nuestra experiencia vivida. El significado nace de nuestra experiencia corporeizada y de las estructuras preconceptuales de nuestra sensibilidad. Percibimos, nos orientamos e interactuamos con los objetos, los acontecimientos y las personas. Pero estos modelos corporeizados no son intimistas ni solipsistas, es decir, en ningún caso se restringen a la persona que los experimenta. Interpretamos en una comunidad según modelos de sentimiento y modalidades culturales compartidas de experiencia que constituyen "nuestra" comprensión significativa y coherente de nuestro mundo. Cf. F. Varela. Ibíd. Pág. 177.

[xxvi] Ibíd. Pág. 178.

[xxvii] Ibíd. Pág. 202.

[xxviii] Ibíd. Pág. 203.

[xxix] Ibíd. Pág. 240.

Disponible en:

http://es.geocities.com/nayit8k/apuntes/maqu/cogn.doc

Permalink :: Comentar | Referencias (1)