Web-Blog

Epistemología



Rodolfo-J. Rodríguez R.

rodolfojrr@gmail.com

about.me/rodolfojrr

San José, Costa Rica,

América Central




 


Calendario

<<   Mayo 2008  >>
LMMiJVSD
      1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31  

Subscripción

Sindicación

Ciencias y tecnologías económicas

Latindex

Programas de investigación filosófica

Las ciencias cognoscitivas: dos explicaciones posibles

Por Episteme - 8 de Mayo, 2008, 16:32, Categoría: Cognoscitivismo

Las Ciencias Cognoscitivas:

 explicación y comprensión

Rodolfo-J. Rodríguez-Rodríguez

San José, Costa Rica

Correo-E.: rodolfojrr@gmail.com

Blog: http://epistemología.zoomblog.com

Blog: http://cognoscibilidad.blogspot.com

1.   Explicación genética de la emergencia transdisciplinaria de las neurociencias cognoscitivas

El surgimiento de las ciencias cognoscitivas en la primera parte del siglo XX, tiene que como fundamento los orígenes y desarrollo de disciplinas como la psicología cognoscitiva, la lingüística, la neurobiología cognoscitiva y la inteligencia artificial. Dar cuenta de cómo emergen las ciencias cognoscitivas a partir de un esfuerzo transdisciplinario y de convergencia metodológica, conlleva a dar cuenta de diversos programas o enfoques o aproximaciones de las ciencias cognoscitivas que se desarrollaron durante el siglo XX.

1.1.Programa de procesamiento de la información

El primer programa de investigación de las ciencias cognoscitivas emerge en el contexto del desarrollo de la Inteligencia Artificial, surge en el contexto de las investigaciones sobre el procesamiento electrónico de la información.  

Tuvo enorme significación la obra de Claude Shannon, matemático del MIT, que con su tesis  de maestría: "Análisis simbólico de los circuitos de relé y conmutación" (1938), demuestra que los circuitos, como los que aparecen en un aparato electrónico, podían expresarse mediante ecuaciones semejantes a las de Boole; es decir  bivalentemente, en la oposición: verdadero-falso,  equivalente a la oposición abierto y cerrado(o conectado o desconectado) en un circuito. Shannon determina  que cualquier operación puede describirse mediante esos relés de "conmutación".  La obra de Shannon sentó las bases para la fabricación de máquinas capaces de ejecutar tales operaciones veritativo funcionales, y además sugirió nuevas formas de diseñar circuitos. En el plano teórico dio la pauta -al establecer un conjunto de instrucciones codificadas que debían seguirse de forma minuciosa- para lo que sería la programación de computadoras, determinando que ésta debía concebirse como un problema de lógica formal y no como un problema aritmético, idea que provienen de los trabajos de Boole. Shannon introduce de esta manera el tema lógico-cognoscitivo en el mundo de la incipiente computación electrónica de su tiempo.

Alan M. Türing, ya en 1936 ("On Computable Numbers with an Application to the Entsheidungproblem"), había definido una clase de autómata (conocida como la máquina de Türing y demostró  que cualquier miembro de esta clase podía computar cualquier función entre un conjunto de clases. Este tipo de máquina formal de Türing, es la base del funcionamiento de la mayoría de las computadoras digitales.

Los argumentos originales de Alan Türing se complementan con los Alonzo Church, al postular las capacidades universales de resolución de problemas de las computadoras, sugiriendo que el cerebro debe comprenderse como si fuera una computadora. Particularmente Church sugiere que si existe un método consistente y finito para resolver un problema dado, luego existe un método que puede correr en una máquina de Türing y dar exactamente los mismos resultados. Por ello, para aquellos problemas que pueden ser resueltos consistentemente en tiempos finitos y especificados, una máquina de Türing es tan poderosa como cualquier otra entidad que pueda resolver el problema, incluido el cerebro.

Los argumentos de Shannon, Türing y Church estructuran la base de los modelos cognoscitivos de procesamiento de  la información,  y éste logra eventualmente un gran éxito  computacional. En este sentido lo primero es elegir un problema  significativo que todo el mundo esté de acuerdo que requiere para  su solución del uso de la inteligencia, luego se debe identificar los elementos de información que se necesitan para lograr la solución al problema, se debe determinar cómo podría representarse esta información en una computadora, encontrar un algoritmo que pueda manipular esta información para solucionar el problema; escribir el código computacional que implemente ese algoritmo y finalmente se debe poner éste a prueba contra instancias  muestradas (usualmente simples) del problema.

1.1.1.     Enfoque simbólico-serial

El modelo simbólico  es el primer núcleo sólido en Inteligencia Artificial, enmarcado dentro del contexto del Programa de investigación de "Procesamiento de Información" y alcanza su máxima expresión con la "Hipótesis del sistema de símbolos físicos" de A. Newell y H. A. Simon. Para ellos, un sistema de símbolos físicos es una máquina que produce a lo largo del tiempo una colección evolutiva de estructuras simbólicas. El sistema de símbolos tiene como referente un mundo de objetos más amplio de tan solo las expresiones simbólicas. El término "físico" hace referencia a que tales sistemas obedecen las leyes de la física, es decir, son realizables por sistemas de ingeniería o computación electrónica. La relación entre el referente y los símbolos se dará por medio de designación e interpretación. En dicho modelo se  considera que un sistema de símbolos físicos tiene los medios necesarios y suficientes para una acción inteligente. En este caso el concepto de "necesario" se entiende en el sentido de cualquier sistema que se considere inteligente de manera general, se puede entender como un sistema de símbolos físicos.  Lo de "suficiente" hace referencia a que cualquier sistema de símbolos físicos de suficiente tamaño puede ser organizado hasta llegar a mostrar acción inteligente general.

En el corazón de la teoría de los Sistemas de símbolos físicos, se encuentran las arquitecturas simbólicas las cuáles sirven de substrato para la computación electrónica, que es posible por la manipulación de señales físicas por medio de reglas explícitas que también están compuestas por otras señales. La manipulación está basada solamente en las propiedades físicas de las señales, no por sus significados. Todo procesamiento implica combinaciones basadas en reglas de señales simbólicas; esto es, hileras de señales. El sistema entero es semánticamente interpretable; esto es, todos sus componentes se refieren a objetos o a funciones de estados.

Este sistema de símbolos físicos es un claro ejemplo de máquina general de las ideadas por Türing, consolidándose así el modelo estructural propuesto originalmente por este último y que se  ha denominado como se ha mencionado: enfoque simbólico y que representa el primer modelo consolidado dentro de la Inteligencia Artificial para poder explicar los procesos mentales, aún cuando con el tiempo se ha mostrado muchas de sus limitaciones.

1.1.2.      Enfoque subsimbólico

Como alternativa al modelo simbólico se buscó desarrollar una tecnología que se acercase lo más posible al cerebro, como fuente de la inteligencia.

Esto pues el modelo simbólico partía de un supuesto que se consideró no del todo correcto, al postular que la inteligencia era posible producirla en computadoras seriales de tipo convencional y el cerebro no funciona de esta manera sino en forma masivamente paralela, donde cientos de miles o millones de neuronas desarrollan sutiles procesamientos de la información en el cerebro y a mucho más altas velocidades.

Los perceptos coherentes se forman en el tiempo que exceden a los tiempos elementales de reacción de las neuronas singulares por un factor de poco más de diez. Especialmente en lo que concierne a los procesos perceptuales básicos, como la visión, esta observación excluye las formas de procesamiento de información interactivas que tendrían que barrer los datos que ingresan serialmente, o pasarlos a través de muchas etapas de procesamiento intermediarias. 

Asimismo, dentro del cerebro, el conocimiento no se almacena en ninguna forma que se parezca a un programa de computadora convencional, sino que se almacena estructuralmente, en forma de patrones distribuidos de pesos sinápticos excitatorios o inhibitorios, cuyas magnitudes relativas determinan el flujo de las respuestas neuronales que las que constituyen la percepción y el pensamiento.

Algunos investigadores en Inteligencia Artificial  buscan relacionarse con la  neurociencia experimental de manera similar a como se relacionan la física teórica y la física experimental, de tal manera que  pueda unificar los desarrollos y las conjeturas teóricas con la experimentación.

Surge así otro modelo en inteligencia artificial  que se ha dado en llamar como: "computación con redes neurales".  Pero la aterradora complejidad del cerebro opone grandes  obstáculos a la materialización de los objetivos de dicho modelo, pues el cerebro humano consiste en aproximadamente 100 mil millones de neuronas, que posiblemente sean diez veces más. Las neuronas se comunican transmitiendo paquetes eléctricos (potenciales de acción) a una población de neuronas vecinas. De acuerdo con los estudios neurofisiológicos, la amplitud precisa y la forma de esos paquetes y el tiempo preciso para su llegada es un intervalo de dos milisegundos aproximadamente.  De ello se puede modelizar cada paquete como un "bit" singular portador de información en la corriente de salida de una neurona y decir que una neurona produce información a una velocidad aproximada de cien bits por segundo (100 BPS). El estimado total del cerebro sería de 10 billones de bits por segundo, tomado un factor de cien, para el "ancho de banda" interno del cerebro.

Una neurona transmite información a las neuronas vecinas en  uniones neuronales llamadas "sinapsis". Una sola neurona puede tener tanto como diez mil entradas sinápticas, aunque en algunos casos muchas entradas menos, para otros casos un aproximado de 100 mil entradas convergen en una sola neurona. El número total de sinapsis  en el cerebro se puede estimar en 1000 billones.

El punto de partida para los nuevos enfoques en I. A. deberá ser entonces, modelar  el cerebro como un computador compuesto de unos 100000 millones de computadores individuales, cada uno de los cuales es una computadora analógica o digital e "híbrida" de suma complejidad, interconectando en formas intrincadas con muchos computadores similares. La computación por redes neurales o conexionismo busca generar este modelo del cerebro de manera artificial, es decir por medio de una modelación tecnológica del mismo, acudiendo  a la física estadística y a la ingeniería para poder lograrlo (no a la neurobiología, como podría suponerse). La Inteligencia Artificial, queda parcelada en un número elevado de procesadores simples, con un crecimiento potencialmente enorme de la velocidad de computación.

El "paralelismo" ha demostrado ser difícil de aplicar en I. A., aunque ya ha surgido en la computación numérica como la única forma indefinidamente extensible de superar el "cuello de botella" de von Newmann (los límites fundamentales impuestos a la velocidad de los procesadores individuales por las leyes de la física, por ejemplo, dado que las señales no pueden viajar de una parte a otra de la computadora más rápido que la velocidad de la luz). Dado que estos sistemas  son imitaciones  de sistemas estadísticos, las nuevas estrategias también proporcionan  métodos de aproximación estadística a problemas de optimización que se han revelado  a  todo intento de computación exacta.

Este tipo de enfoque de procesamiento de información mediante estados de procesadores simples y las conexiones entre ellos es llamado conexionista o subsimbólico, sostenido por figuras como David. E. Rumelhart, James McClelland (1986), Paul Smolensky (1988)  y el grupo de Investigación Procesamiento Distribuido en Paralelo (PDP).

El grupo de investigación PDP es el que le ha dado forma al conexionismo ( Rumelhart & McClelland, 1986) caracterizándolo de la siguiente manera: un conjunto de unidades de procesamiento(entendidas como neuronas artificiales) que están interconectadas por "pesos de conexión"  o "cargas de conexión"  o "valores de conexión" (connection weights). Se generaron así sistemas redes neurales artificiales. Si se tienen entradas a alguno de estos sistemas se da una  activación de la red que es modulada por los pesos de conexión. Las entradas se dan en una unidad o neurona artificial (pasando a ser activada desde su estado pasivo) por medio de una regla de activación. Los pesos de conexión son manipulados sobre la base de "reglas de aprendizaje", las cuales son funciones matemáticas. La manipulación está puramente basada en los valores de activación y pesos de conexión (no por sus significados). Las entradas en el sistema son convertidas en salidas por medio de las reglas de activación, las cuales consisten en la combinación y recombinación de la activación de valores.

Los sistemas conexionistas son semánticamente representables, lo que hace que se mantenga dentro de la clase de los modelos de procesamiento de información.  La diferencia de este modelo es que no acude al procesamiento serial, sino al procesamiento distribuido en paralelo, por medio de redes neurales artificiales, similares al procesamiento de las redes neuronales naturales. En estos casos el procesamiento no es simbólico, sino que dichas redes se interpretan subsimbólicamente es decir es un procesamiento de la información de manera pluridireccional (es en este sentido que busca asemejarse a las conexiones sinápticas neuronales).

La diferencia  característica de los sistemas conexionistas de los sistemas computacionales simbólicos, es que los primeros no son programables en el sentido de los segundos, es decir mediante el almacenamiento en la memoria del texto de un algoritmo cuyos pasos debe seguir la computadora de manera secuencial.

A una red neural "se le enseña" por medio de pruebas con casos especialmente seleccionados. Es decir se le puede "enseñar" una letra o una palabra para que posteriormente pueda reconocerlas.  Es decir, más que ser programada una red neural, esta "aprende". Esto es lo que se ha dado en llamar como "aprendizaje mecánico" que se realiza modificando esta misma los valores de conexiones o pesos de conexión (emulando las sinapsis en las redes neuronales) entre sus distintas celdas. De esto se deriva su nombre de conexionismo. Este enfoque ha sido utilizado para explicar la conducta a un nivel  de descripción funcional bajo la presuposición que esto mismo ocurre al nivel psicológico. Sin embargo adolece de una  explicación funcional de la inteligencia, pues no es claro como a partir de las partes (neuronas y redes neurales) emergería la misma.

En computación el modelo conexionista es una elegante solución al problema de altas velocidades. Así si por otra parte podría entenderse los procesos neurofisiológicos de percepción como "vectores" que codifican las distintas entradas sensoriales, y también lo hace para varias salidas motoras. Bajo el modelo conexionista en computación se pueden llegar a lograr sistemas masivamente paralelos  que representen y manipulen transformaciones vectoriales como las dadas en los procesos neurofisiológicos del cerebro. El procesamiento computacional se puede hacer más rápido que el procesamiento cerebral. Este último procesa en milésimas de segundo, el computacional lo logra en millonésimas de segundo.

Asimismo las redes neurales artificiales aparte de ser computacionalmente más poderosas, son resistentes contra daños(o su equivalente de lesiones cerebrales), rápidas y modificables. Las estrategias formales del conexionismo se han fundamentado en la física estadística y comparten con el modelo simbólico la noción implícita de que los objetos y sucesos, las categorías y la lógica están dados, y que la naturaleza del trabajo cerebral es procesar información sobre el mundo con algoritmos que conduzcan a conclusiones que lleven a la conducta. Un problema de base que ha presentado por los modelos conexionistas  es su dificultad para realizar operaciones  computacionales recursivas, que son representativas de la computación humana. Esto pues las facultades cognoscitivas humanas para usar información contextual semántica y pragmática que facilita la comprensión sobrepasa en gran medida a la de cualquier computadora de las hasta ahora construidas.

Se puede decir finalmente sobre el conexionismo que más que resolver el problema natural de la inteligencia se ha convertido más bien en una herramienta poderosa de la computación electrónica. Es revelador advertir que todos los proyectos relevantes para diseñar y construir grandes maquinarias paralelas hacen uso de estructuras altamente artificiales para la comunicación y el procesamiento. Esto se aplica a la Máquina de Conexión de la Thinking Machines Corporation (comunicación en hipercubo y en matriz rectangular), al Procesador Masivamente Paralelo de la NASA, al Procesador Digital de Matrices del ICL (matriz rectangular), al Hipercubo de Intel Corporation (comunicación en hipercubo), al RP3 de IBM y a la Ultracomputadora de New York Univerity (comunicación en red omega).  Al final de cuentas, el conexionismo se ha dirigido más a la eficiencia computacional que a la explicación de las constricciones y alcances del mismo en las redes neuronales naturales.

1.1.3.      Enfoque modular

A este modelo se adscriben figuras como J. Fodor (1983), H. Gardner (1985), y Z. Pylyshyn (1981), y en cierta medida: R. Jackendoff (1987) con su dicotomía de mente computacional y mente fenomenológica. La modularidad parte del supuesto que la cognición se inicia con un sistema de entrada (Input) independiente (como las  responsables de la percepción de objetos) y  que procesos cognitivos de mayor generalidad serán dados en un sistema central. Los sistemas de entrada son el dominio específico en el sentido de que cada tipo de información recibida de procesamiento es diferente.  Los sistemas de entrada se asemejan a los niveles de procesamiento de información en términos de influencias selectivas  por variables.

La más importante propiedad es la encapsulación, que es proceso  la información solo influye a partir de un dominio de módulo de entrada. El caso -por ejemplo- para el habla, es influenciado solo por entradas de habla, no por contextos situacionales y lingüísticos. Los módulos de entrada son cognitivamente impenetrables, es decir no son objeto de control  volitivo. Los sistemas de entrada se direccionan hacia sus salidas, así por ejemplo, el módulo del lenguaje para la salida de acceso léxico se da solución significados de palabras. Los sistemas de entrada operan independientemente  uno de los otros y no se comunica. Finalmente, un módulo de entrada es asociado con la estructura neuronal específica.

En contraste con los sistemas de entradas, los sistemas centrales están influidos por muchas diferentes variables. Los sistemas centrales tienen acceso a las salidas de todos los sistemas de entrada y a todo el conocimiento en la memoria. En esta dicotomía, los sistemas de entrada se consideran como sistemas computacionales, mientras que el sistema central corresponde a lo que el organismo "cree". Los sistemas de entrada pueden ser estudiados como sistemas computacionales, mientras que los centrales no pueden ser considerados de tal manera. Esto porque son muchos los factores que influyen en sus proceso.

En breve, el enfoque modular  plantea una tricotomía de  niveles, sistemas de salida, de entrada y centrales. Este enfoque comparte muchas de las premisas originales del modelo de procesamiento de información, particularmente el supuesto de sistemas separados de la percepción y de la acción. Esta explicación funcional de diferenciar sistemas de entrada y salida y entre sistema de entrada y central no sustenta un substratos sólidos desde el punto de vista de la psicología de la percepción y de la neurofisiología, pues en el cerebro y el sistema nervioso en general no hay muestras de tales divisiones entre sistemas, por lo que no pareces ser muy seguro a la hora de explicar la  cognoscibilidad. 

1.2.Programa de investigación den neurobiología cognoscitiva

Un intento neurofilosófico por tratar de generar un teoría unificada de la mente-cerebro ha sido el dado Patricia Smith Churchland (1986). Este enfoque propone un trabajo cooperativo entre los investigadores de la mente y los investigadores del sistema nervioso. Para P. Smith C. resulta contraproducente para lograr una ciencia unificada de la mente-cerebro, postular que la psicología es irreducible a  sus fundamentos neurofisiológicos y neuroanatómicos. Por el momento es conveniente postular que ambas ciencias coevolucionan y que seguirán haciéndolo por algún   tiempo - señala P. Smith C.-, pero como se ha dado  anteriormente en la historia de la ciencia, todo parece mostrar que van en camino de la reducción. Ejemplos claros de ello han sido las investigaciones en bioquímica de la conducta y en la neuropsicofarmacología.

Consecuentemente desde esta postura cualquier dualismo entre mente y cuerpo es claramente demostrado como erróneo. Otro enfoque reduccionista de los procesos mentales es el propuesto por el premio Nóbel (por el descubrimiento del la estructura de la doble hélice del ADN junto con J. D. Watson): Francis Crick (1994). Su "hipótesis sorprendente" -como él la llama- consiste en que cualquier individuo, sus alegrías y aflicciones, sus recuerdos y ambiciones, su sentido de identidad personal, su libre albedrío, es de hecho el reflejo de la conducta de un vasto ensamblaje de células y de sus moléculas asociadas. Así por ejemplo, para que haya conciencia y memoria a corto plazo lo que se necesita es la actividad de circuitos reververatorios, que se encargan de mantenerlas. Asimismo la conciencia requiere la actividad de varias áreas corticales así como del tálamo. Aún cuando su hipótesis ya no resulta tan sorprendente su aporte para la "búsqueda científica del alma" ha resultado muy influyente. 

Pero el que pareciera más prometedor es el modelo propuesto por el también premio Nóbel (fisiología): G. Edelman y sus colaboradores en la Rockefeler University, quienes se  enfrentan a los enfoques de  la inteligencia como procesamiento de la información y proponen una explicación neurobiológica de la inteligencia, planteando su teoría de la Selección del grupo neuronal (SGN), a partir de los modelos de conformación del desarrollo del sistema nervioso.

Un enfoque similar y complementario al de Edelman ha sido del Jean Pierre Changeaux, neurobiólogo del laboratorio molecular del Institut Pasteur en París. Changeaux parte de los estudios de Edelman, añadiendo a la epigénesis neuronal, la impresión de la cultura en el desarrollo del cerebro después del nacimiento de los individuos, es decir añade aspectos antropogenéticos.

Pero bien, la propuesta de Edelman y sus colaboradores se remonta al período de formación cerebro del embrión, cuando la selección entre células neuronales en competencia y sus procesos determinan la forma anatómica y los patrones de conectividad sináptica del sistema nervioso. Esta selección para la conectividad se elabora mediante mecanismos evolutivos de adhesión y movimiento de células, crecimiento diferencial, división celular y muerte de células. Dada sus propiedades dinámicas, estos mecanismos selectivos introducen variación individual en las redes neuronales. Más tarde, durante la experiencia postnatal, la selección entre diversos grupos de células preexistentes, complementada por la modificación diferencial de fuerzas o eficacias sinápticas sin cambios en el patrón de conectividad, da forma al repertorio conductual del organismo de acuerdo con lo que posee par él valor adaptativo en su econicho.

La SGN es una teoría que comienza a ponerse a prueba, y que de acuerdo con distintas experiencias ha comenzado a ser exitosa. En este sentido, se han construido una serie de autómatas para la simulación computada para poner a prueba la consistencia de la SGN, así como para demostrar la habilidad de los sistemas de reconocimiento selectivos para realizar interesantes tareas de reconocimiento y categorización. Esos modelos pueden ser invaluables para ayudar a que los neurobiólogos se concentren en aspectos experimentales, que eventualmente ayuden a desarrollar computadoras capaces de desarrollar tareas de clasificación sensible, pues en la actualidad no se tienen.

Para Edelman, en vista de la complejidad de los sistemas biológicos, es necesario comenzar a analizar esos sistemas en términos de las estructuras y funciones básicas necesarias y sus modos de origen, su desarrollo tanto como su evolución. La separación entre hardware y software implícita en la estrategia de la IA tradicional tiene que abandonarse, aun cuando haya servido de principio orientado  en el desarrollo de las computadoras tipo von Newman, que pueden ser máquinas lógicas -y en alguna medida máquinas culturales- pero no máquinas biológicas. Edelman considera que la IA solo se alcanzará en sistemas no-von Neuman en los que las variantes especializadas de hardware, basadas en el tema común de la selección y el pensamiento de la población, trabajarán sin programas para adaptarse a todos los ambientes particulares en los que se encuentren, tal como lo hacen los organismos biológicos. Los   programas y la inteligencia basada en la comunicación podrán venir después

1.3.  Reconstrucciones racionales de las ciencias cognoscitivas

Son diversos los trabajos que han intentado dar cuenta del desarrollo de la complejidad multidisciplinaria de las ciencias cognoscitivas y que se convertirán en la última etapa más en unas neurociencias cognoscitivas.

Un primer intento de comprender integradamente a las ciencias cognoscitivas lo hizo Howard Gardner en su célebre: La nueva ciencia de la mente. Historia de la revolución cognitiva (1985). Cronológicamente es posible situar las siguientes obras que han buscado darle un sentido de conjunto a las ciencias cognoscitivas: Pylyshyn, Z. (1986). Computation and Cognition: Toward a Foundation for Cognitive Science; Churchland, P. S.(1986). Neurophilosophy: Toward a Unified Science of the Mind-Brain; Johnson-Laird, P.  (1988). The Computer and the Mind: An Introduction to Cognitive Science; von Eckardt, B.(1993). What is Cognitive Science?; Stillings, N., et al.,(1995). Cognitive Science; Dawson, M. R. W.(1998).Understanding Cognitive Science; Wilson, R. A., & Keil, F. C.(Eds.).(1999). The MIT Encyclopedia of the Cognitive Science; Sobel, C. P.(2001). The Cognitive Sciences: An Interdisciplinary Approach; Nadel, L.(Ed.).(2003). Encyclopedia of Cognitive Science; Gazzaniga, Michael S.(ed.) (2004). The Cognitive Neurosciences III; Thagard, P., (2005). Mind: Introduction to Cognitive Science.

2. Explicación taxonómica para las neurociencias cognoscitivas

Las ciencias cognoscitivas o en su acepción más común en la última década: las neurociencias cognoscitivas, son el producto de las investigaciones transdisciplinarias (inter y multidisciplinarias), incluyendo una amplia transdisciplinaridad de ciencias y tecnologías como:

Ciencias subjetuales:

Psicología cognoscitiva, psicobiología cognoscitiva, psicosociología, psicolingüísitica, etc. (ciencias que se encargan de modelar objetivamente (analítico-experimentalmente), los procesos subjetivos, apelando a la validación intersubjetiva de la modelación)(énfasis ontogenético)

Tecnologías subjetuales:

Psicologías experimentales aplicadas, terapias cognoscitivo-conductuales, etc. (basadas en modelos tecnológicos objetivos (validados intersubjetivamente), cuya acción tecnológica es la intervención y modificación las condiciones subjetuales (cognoscibilidad, emotividad, volitividad ) de sujetos )

Ciencias histórico-subjetuales:

La sociología, la antropología y la ligüística cognoscitivas, etc. (ciencias que permiten dar cuenta de estados de sujetos humanos en sus contextos socio-pragmáticos y de sus acciones pasadas, presentes y futuras) (énfasis filogenético)

Ciencias objetuales: Neurociencias:

Neurología (neurofisiología, neuroantomía, neuroquímica), neuropsicología (neuropsicoendocrinología, neuropsicofarmacología), neuroinmunología, neurolingüística, neurobiología cognoscitiva, neurocomputación inteligente, neurofilosofía, etc. (- teorías, modelos y sistemas explicativos sobre los encéfalos y sistemas nerviosos de los seres vivos, así como sus modelaciones artificiales - ).

Ciencias formales:

Lógica teórica, probabilidad y estadística y algunas áreas de las matemáticas.

Tecnologías objetuales:

Programación funcional y programación lógica, la inteligencia artificial, los sistemas expertos, la programación genética, lingüística computacional, redes neurales, neuroimagenería (CAT,MRI,fMRI,PET,SPECT,DOT,EROS), etc. (aplicaciones de modelos tecnológicos referidos a la objetualidad natural o artificial)

Entonces, los modelos epistemológicos y metodológicos de las neurociencias cognoscitivas, se construyen por medio de ensamblajes de procesos interteóricos entre las ciencias objetuales (naturales) y las subjetuales e histórico-subjetuales (sociales), así como entre las tecnologías objetuales (ingenieriles) y las tecnologías subjetuales (sociales).

3.   Más allá del dualismo metodológico

Resulta insoslayabe para las ciencias y tecnologías objetuales y las ciencias subjetuales e histórico-subjetuales, esclarecer los procesos de base cognoscitiva (subjetivos) previa sobre los que se ensamblan sus modelos objetivos: teóricos, modelos de acción, ejecución o transformación.

Los resultados inteteóricos a partir de las neurociencias cognoscitivas, brindan los instrumentos comprensivos, interpretativos, explicativos e inclusive predictivos para dar cuenta de los procesos cognoscitivo-subjetuales, involucrados en la construcción de los modelos objetuales de cada una de las otras ciencias y tecnologías.

Entonces, se puede concluir que por medio de la praxis disciplinaria de ámbitos como las neurociencias cognoscitivas se muestra que las fronteras entre las ciencias sociales y las naturales son ficciones metodológicas, al mostrarse como una alternativa transdisciplinaria (inter y multidisciplinaria). De esta integración transdisciplinaria emergen propiedades disciplinarias que no están presentes en sus ciencias constituyentes y que han exigido una convergencia metodológica. Asimismo, en algunos contextos académicos, el dualismo metodológico tradicional se mantiene como aun lo hacen las "monarquías europeas", es decir como vestigios que se considera que no hacen ningún daño y por diversos intereses creados.

Permalink :: Comentar | Referencias (0)