Aznar Alternativas Teoricas en Percepcion Raic
-
Upload
felipe-kldrn -
Category
Documents
-
view
276 -
download
2
description
Transcript of Aznar Alternativas Teoricas en Percepcion Raic
ALTERNATIVAS TEORICAS EN PERCEPCION:
RAICES ORIGENES Y ACTUALIDAD
J. Antonio Aznar Casanova Fecha de publicación: 1991 Lugar: Valencia Editorial: Nau Llibres
2
A quienes no pueden VER con CLARIDAD
3
Indice Capítulo I: Reflexiones epistemológicas sobre la percepción…. 9
1.1. INTRODUCCION GENERAL…………………………… 9 1.2. ORGANIZACION DEL CONTENIDO………………………….15
Capítulo II: Raíces filosóficas: teorías del conocimiento….…….21 2.1. INTRODUCCION…………………………………………….21 2.2. EL PENSAMIENTO GRIEGO………………………………22 2.3. EL PENSAMIENTO MEDIEVAL …………………………..24 2.4. EL RACIONALISMO CARTESIANO …………………….. 24 2.5. EL EMPIRISMO-ASOCIACIONISMO……………………..26 2.6. EL IDEALISMO TRANSCENDENTAL Y LA FILOSOFIA ALEMANA DEL XIX……………………………………………....30 2.7. LA FENOMENOLOGIA……………………………………...31
Capítulo III: Orígenes científicos de la psicología y estudio de la percepción……………………………………………………………………………….…33
3.1. INTRODUCCION…………………………………………33 3.2. LA PSICOFISIOLOGIA DEL XIX……………………….34 3.3. LA PSICOLOGIA SENSORIAL DEL XIX…………….. 36
A) VISION………………………………………………………………36 B) AUDICION……………………………….……………………….. 36 C) TACTO……………………………………………………………... 37
3.4. INFLUENCIA DE LA ASTRONOMIA: LA ECUACION PERSONAL………………………………………………………. 38
Capítulo IV: Nace la psicología en el terreno de perceptivo……..39 4.1. INTRODUCCION................................................................... 39 4.2. GUSTAV THEODOR FECHNER (1801-1877)……….…… 39 4.3. HERMAN VON HELMOLTZ (1821-1894)………………….. 41 4.4. WILHELM WUNDT (1832-1920)………………..……………42
Capítulo V: Primeros desarrollos teórico-metodológicos: el modelo psicofísico y la fenomenología……………………………….……………….. 47
5.1. PSICOFISICA: CONCEPTO Y OBJETIVO…………………47 5.2. EL MODELO DE LA PSICOFISICA CLASICA……………. 48 5.3. LA MEDIDA DE LA SENSACION: LOS UMBRALES……..49 5.4. METODOS PSICOFISICOS CLASICOS……………………51 5.5. LAS ESCALAS PSICOFISICAS…………………………….. 52 5.6. DE LA PSICOFISICA CLASICA A LA CONTEMPORANEA……..53 5.7. DE LA FENOMENOLOGIA FILOSOFICA A La EXPERIMENTAL..54
Capítulo VI: La dicotomía teórica de base dualista………………. 57 6.1. INTRODUCCION…………………………………………….. 57 6.2. EL ESTRUCTURALISMO……………………………………59
4
6.3. LA PSICOLOGIA DE LA GESTALT………………………...60 6.4. OTROS ASOCIACIONISMOS………………………………62
Capítulo VII: Reacciones teóricas frente al conductismo……………... 67 7.1. INTRODUCCION 67 7.2. TEORIA DEL CAMPO SENSORIO-TONICO 69 7.3. TEORIA DEL NIVEL DE ADAPTACION 70 7.4. TEORIA DEL FUNCIONALISMO PROBABILISTICO 71 7.5. TEORIA TRANSACCIONALISTA 72 7.6. TEORIA DEL ESTADO DIRECTIVO Y LAS EXPECTATIVAS 74
Capítulo VIII: Procesamiento de información 79 8.1. INTRODUCCION 79 8.2. MODELOS DE PROCESAMIENTO SERIAL 81 8.3. DISTINCIONES CONCEPTUALES MODELOS DE PROCESAMIENTO 86 8.4. MODELOS DE PROCESAMIENTO EN PARALELO 88 8.5. MODELOS DE PROCESAMIENTO EN LECTURA 92 8.6. EL MODELO DEL LOGOGEN: MODELO DE INTEGRACION DE INFORMACION SENSORIO-COGNITIVA 94 8.7. PROCESAMIENTO DE INFORMACION: METODOS DE REGISTRO DE DATOS 96
Capítulo IX: Psicología cognitiva y ciencia cognitiva 99 9.1. INTRODUCCION 99 9.2. DE LA CIBERNETICA A LA INTELIGENCIA ARTIFICIAL 102 9.3. TEORIA DE LA VISION DE D. MARR 105 9.4. SISTEMAS DE PROCESAMIENTO PARALELO MASIVO DISTRIBUIDO (PDP) 109 9.5. VISION ELECTRONICA VERSUS VISION HUMANA 110
Capítulo X: Neurociencia cognitiva 115 10.1. INTRODUCCION 115 10.2. ANTECEDENTES HISTORICOS 116 10.3. LA SINTESIS INTEGRADORA DE D.O. HEBB: UNA TEORIA NEUROFISIOLOGICA DE LA PERCEPCION 118 10.4. ANALIZADORES DE CARACTERISTICAS 119 10.5. DIFERENCIAS INTERHEMISFERICAS 120 10.6. LA ANALOGIA DEL HOLOGRAMA DE PRIBRAM 122 10.7. METODOS DE REGISTRO ELECTROFISIOLOGICO 122
Capítulo XI: La perspectiva ecológica en percepción 128 11.1. INTRODUCCION 128 11.2. OPTICA ECOLOGICA: TEORIA DE LA PERCEPCION DIRECTA 128 11.3. LA TEORIA CONSTRUCTIVISTA DE U. NEISSER 132
Capítulo XII: Taxonomía de las teorías de la percepción 137 12.1. INTRODUCCION 137 12.2. ASPECTOS QUE CARACTERIZAN LA PERCEPCION HUMANA 138
12.2.1. PREFERENCIA ANTE LA AMBIGÜEDAD 139 12.2.2. CONSTANCIA Y VERACIDAD PERCEPTUAL 140 12.2.3. EFECTOS DEL CONTEXTO EN LA PERCEPCION 140
5
12.2.4. ORGANIZACION O ESTRUCTURA PERCEPTIVA 140 12.2.5. INTERACCION SENSORIO-COGNITIVA 141 12.2.6. PERCEPCION DEMORADA 141 12.2.7. INTERDEPENDENCIAS PERCEPTUALES 141
12.3. CLASIFICACION DE LAS TEORIAS DE LA PERCEPCION 142 12.3.1. TEORIAS DEL ESTIMULO 142 12.3.2. TEORIAS CONSTRUCTIVISTAS 144
12.3.2.1. TEORIAS DE LA INTERACCION ESPONTANEA 144 12.3.2.2. TEORIAS COGNITIVAS 145
12.3.3. COMPARACION DE LAS DOS TEORIAS CONSTRUCTIVAS 146
CAPITULO XIII: La atención en el procesamiento perceptivo 149 13.1. Introducción 149 13.2. Procesos automáticos versus procesos controlados 151 13.3. LA INTERACCION SENSORIO COGNITIVA: PROCESAMIENTO GUIADO POR LOS DATOS VERSUS GUIADO CONCEPTUALMENTE 153 13.4. LA PRECEDENCIA PERCEPTIVA: GLOBAL VERSUS LOCAL 155
13.4.1. ORIGEN DEL DEBATE 155 13.4.2. ESTADO ACTUAL DE LA CUESTION 157
13.5. TEORIA DE LA INTEGRACION DE CARACTERISTICAS 160
Capítulo XIV: Las teorías de esquemas 163 14.1. INTRODUCCION 163 14.2. ORIGEN Y DEFINICIONES 164 14.3. CARACTERISTICAS Y ELEMENTOS DEL ESQUEMA 167 14.4. MULTIFUNCIONALIDAD DE LOS ESQUEMAS Y AREAS DE APLICACION 168 14.5. CONTENIDOS REPRESENTADOS POR LOS ESQUEMAS 170 14.6. LA TEORIA DE ESQUEMAS 172
Capítulo XV: Marcos perceptuales (frames) 175 15.1. DEFINICION DE TERMINOS 175 15.2. EXPLORACION DE ESCENAS 176 15.3. IDENTIFICACION DE ESCENAS VERSUS RECONOCIMIENTO 178 15.4. VARIABLES QUE INFLUYEN EN EL RECONOCIMIENTO 179 15.5. MARCOS PERCEPTUALES 180
Bibliografía 183
6
Capítulo I: Reflexiones epistemológicas sobre la percepción
"Gran número de cuestiones filosóficas, en realidad son sólo cuestiones científicas que la ciencia no sabe todavía como resolver". (Bertrand Russell, 1.960)
1.1. INTRODUCCION GENERAL En la especie humana existe la necesidad de conocer el mayor número de cosas con el máximo
grado de certeza posible, para lograr una adaptación exitosa al medio, natural, social y cultural. El
conocimiento ha sido y es la preocupación básica de toda filosofía, desde las antiguas concepciones
griegas hasta nuestros días; sin embargo, hasta E. Kant no se constituyó la Teoría del conocimiento
como una parcela definida dentro de la filosofía, que debía investigar el alcance y los límites de la
facultad de conocer. La cognición, en cuanto acto de conocer, ha sido definida en nuestra época
como referida a "todos los procesos mediante los cuales el ingreso sensorial es transformado,
reducido, elaborado, almacenado, recordado o utilizado" (Neisser, 1967) y es tal la importancia que
se le reconoce que el término 'cognitivo' ha pasado a denominar al paradigma hegemónico de la
Psicología de nuestros días.
Desde el punto de vista filosófico, se plantea una triple problemática en torno al conocimiento,
vinculada a los siguientes aspectos:
1) La naturaleza del conocimiento: ¿qué es el conocimiento?, ¿cómo lo obtenemos?
2) La validez del conocimiento: ¿son fiables los conocimientos que nos proporcionan nuestros
sentidos?, ¿es posible alcanzar la certeza absoluta?
3) Los criterios de verdad-falsedad del conocimiento adquirido: ¿sigue las leyes de la lógica?
Diversas ramas de la filosofía (la metafísica, la lógica, la epistemología, etc.) trataron y tratan de
abordar los numerosos problemas planteados acerca del conocimiento y, a lo largo de su historia,
cristalizaron diferentes posturas ante tales cuestiones, entre las cuales destacaremos:
El escepticismo, que niega la posibilidad de conocer algo con certeza.
El dogmatismo, que admite la posibilidad de conocer la verdad con una confianza absoluta.
El agnosticismo, que defiende la relatividad del conocimien to para el pensamiento humano.
El panteismo, el cual afirma que cuanto existe es parte de una sustancia, de un sólo ser, que es Dios.
El realismo, que admite la existencia del mundo exterior independientemente de nuestra
7
conciencia. Contrapone lo objetivo (realidad) a lo subjetivo (el yo). Hay diversos grados que fluctúan
desde el realismo ingenuo hasta el realismo crítico.
El logicismo, el cual supone que la mente sigue las leyes y principios de la lógica.
El psicologismo, que considera como principios válidos de la inferencia aquellos con los que la
mente opera.
El fisicalismo, que sostiene que las leyes de la física explican tanto la materia como la mente.
El conductismo filosófico, según el cual toda afirmación sobre la experiencia humana puede
expresarse inequívocamente mediante afirmaciones acerca de sus disposiciones conductuales.
El fenomenalismo, sugiere que las afirmaciones con respecto a objetos del mundo exterior se
pueden traducir, sin pérdida de significado, en afirmaciones acerca de la posibilidad de la propia
experiencia.
Desde el punto de vista epistemológico o teoría del conocimiento, son numerosos los problemas
que han sido planteados en torno a los fenómenos perceptivos, que se hallan en la base de la
adquisición del conocimiento; sin embargo, en el núcleo de la cuestión se encuentran sin respuesta
aquellos que se preguntan por la certidumbre o incertidumbre de nuestro conocimiento: ¿se
corresponde la realidad con la representación cognitiva que el hombre tiene?, ¿el mundo cognitivo es
sólo un producto inventado por la mente humana, o se halla en correspondencia con el exterior?,
¿existe el mundo físico de modo independiente a nuestra mente, como admiten los físicos?, ¿son
fiables y válidos los datos informativos que los órganos sensoriales captan y transmiten, o nos
engañan los datos sensoriales?
Otro insoslayable problema en la temática perceptiva, que ha ocupado una parte importante de la
historia de la filosofía, es el relativo a la relación entre el sujeto percipiente y el objeto percibido:
¿cómo encuentra el sujeto al objeto y lo llega a conocer? La respuesta ha variado según el énfasis
recaiga sobre el sujeto o sobre el objeto, sobre el ser o sobre el pensamiento, sobre la materia o
sobre el espíritu (la conciencia), dando lugar a una interminable pugna entre las dos grandes
corrientes de la filosofía: el materialismo y el idealismo.
Respecto a las relaciones cognoscitivas, el materialismo concede prioridad al ser respecto a la
conciencia, se caracteriza por considerar que toda teoría debe partir de unos axiomas considerados
como absolutamente verdaderos, sostiene un radical determinismo y es una concepción
inmanentista del universo. Como contrapunto, el idealismo otorga primacía a la conciencia sobre la
8
materia, considera que toda teoría debe buscar una causa original, deja una puerta abierta a un no
determinismo y es una concepción transcendentalista del mundo.
La ciencia física, que obviamente lleva muchos años de ventaja a la psicología, no cuestiona si la
realidad exterior es un producto creativo de nuestra mente y, como consecuencia, nuestras
percepciones deberían determinar dicho mundo externo, sino que parte de la asumción de que la
realidad existe de manera independiente a nuestra mente, centrando su objeto de estudio en ella.
Sin embargo, la psicología, y particularmente en el estudio de la percepción, no se halla interesada en
el conocimiento de la energía estimular del medio, sino en cómo interacciona el organismo y el
medio para alcanzar un conocimiento que permita un comportamiento adaptativo, es decir, ¿cómo el
sistema nervioso es capaz de reconstruir internamente el mundo externo? Esta cuestión es conocida
como el problema de la "correspondencia psicofísica", el cual pretende esclarecer las relaciones
existentes entre la información contenida en la energía del estímulo y su correspondiente experiencia
psicológica (por ejemplo, los vínculos existentes entre cada longitud de onda y el color visible que
percibimos).
También ha dado lugar a variadas controversias la distinción entre conocimiento directo e indirecto,
planteándose el interrogante acerca de si nuestro conocimiento del mundo es mediato o inmediato,
en otros términos, ¿podemos acceder al conocimiento actuando nuestros sitemas sensoriales
directamente sobre la realidad o, por el contrario, hemos de apelar a hechos observados
(fundamentados empíricamente) para interpretar o explicar los hechos no-observables?, lo que se
halla en íntima relación con el problema de la representación mental del conocimiento.
Entre otras numerosas cuestiones en torno al conocimiento y la percepción, que han saltado a la
palestra a lo largo de los siglos, haremos una selección de aquellas que consideramos de mayor
interés en relación con el propósito de la obra y que, de algún modo, se pondrán de relieve en los
diferentes temas abordados. Destaquemos entre ellas el problema de la organización perceptiva o
estructura perceptual. Al observar la realidad, contemplamos diversas formas, tamaños, colores,
movimientos, etc, pero … ¿percibimos estas cualidades como partes inseparables de los objetos o,
por el contrario, primero percibimos las partes y posteriormente las integramos contruyendo
internamente copias o correlatos de los objetos? Al parecer, todas las funciones psicológicas
(aprendizaje, memoria, pensamiento, razonamiento, motivación, etc) se fundamentan en nuestra
capacidad de percibir, esto es, en la habilidad para construir una concepción del mundo que se
9
adecúe a la realidad de modo razonable. Consiguientemente, la percepción sería una función básica
en la que descansan los procesos superiores y sin la cual no podrían ocurrir ninguno de ellos. Diversas
perspectivas teóricas arrancan de una toma de partido en torno a cuales son las unidades de análisis
de los fenómenos perceptivos, ¿el todo?, ¿las partes? El enfrentamiento se plasma entre
concepciones atomistas-elementalistas y holistas-globalistas, las cuales debaten los determinantes
prioritarios de los fenómenos perceptivos, la búsqueda de las apropiadas unidades de análisis
(sensaciones, elementos del estímulo, configuración global, etc.) y la segregación de figuras sobre un
fondo más o menos difuso.
Vinculado a lo anterior se halla el dilema sobre si el proceso perceptivo procede de lo particular y
avanza hacia lo general, o viceversa, el cual se ha puesto de manifiesto al tratar de simular el
reconocimiento visual mediante ordenadores.
En el estudio de la percepción pueden distinguirse tres concepciones principales que difieren según
el acento del fenómeno recaiga sobre el individuo (organicismo), el medio (ambientalismo) o la
interacción individuo-medio (interaccionismo). Ello da lugar a considerar como determinantes
prioritarios de los fenómenos perceptivos las condiciones estimulares del medio, las variables
organísmicas o una combinación de ambas. Se preguntan que información se requiere para lograr
cierta precisión en la percepción, ¿la qué existe en el medio ambiente?, o ¿tal vez, ésta resulta
incompleta y nos vemos obligados a aportar expectativas e inferencias basadas en conocimientos
pasados? Cuando se considera la percepción desde la óptica del individuo, se plantea la polémica
sobre si los conocimientos adquiridos son extraídos por estructuras pertenecientes a los sistemas
sensoriales y biológicamente predeterminadas (innatismo) o, más bien se alcanzan en sucesivos
reencuentros con la realidad que dan lugar mediante aprendizaje a un bagaje de experiencias
pasadas (conexionismo).
Otro grupo de problemas son más concretos o se hallan implícitos en los presupuestos teóricos
aceptados en determinados planteamientos del tema perceptivo. En cualquier caso, una teoría de la
percepción, que se precie de serlo, debería responder a los interrogantes que han ido surgiendo al
practicar reflexiones epistemológicas acerca de los fenómenos perceptivos.
Uno de ellos es el que hace referencia a las constancias perceptivas: ¿por qué en un mundo donde
reina la variación tendemos a percibir las cosas de manera invariable?, si la imagen retiniana de una
mesa redonda cambia en función del punto de vista del observador, formándose a veces una forma
10
de mesa elíptica, ¿por qué seguimos percibiendo una mesa redonda, en lugar de otra mesa eliptica?
(constancia de la forma). Y ¿por qué nos mostramos contumaces en el error perceptual que acaece
en las ilusiones ópticas, incluso cuando sabemos que las cosas no son como parecen ser?
No muy distante de lo anterior, se encuentran enigmas como el relativo al modo en que registramos
la tercera dimensión en la retina, para luego reconstruir la imagen del objeto en la mente, aspecto al
que aludiremos bajo la denominación de 'interpretación de las claves o pistas ambientales'.
Otra duda teórica que todavía permanece abierta y pendiente de esclarecimiento emergió cuando
los psicólogos se plantearon cual es la sede del conocimiento: ¿se encuentra localizado, de modo que
pueden establecerse mapas cerebrales o una especie de cartografía cerebral o, quizá, se halla
distribuído en amplias zonas del sistema nervioso o, tal vez, cualquier área es capaz de asumir
cualquier proceso o función? Esta vieja polémica entre defensores del localizacionismo versus
holismo o, para expresarlo en otros términos, la dicotomía conceptual 'especificidad-plasticidad' del
cerebro, también cuenta con una importante tradición en la psicología de la percepción y no faltan
abundantes pruebas que apoyan a una o a otra tesis, hasta el punto de tenerse la impresión,
actualmente, de que ambas tienen parte de razón y no sólo no son antagónicas, sino que pueden ser
compatibles, aunque diferenciadas en el 'modus operandi' de cada uno de los hemisferios cerebrales.
En el ámbito de la compatibilidad de los niveles explicativos en la ciencia, en general, y en la
percepción, en particular, saltan nuevas preguntas: ¿puede una explicación de nivel neurofisiológico
explicar el nivel comportamental?, lo que nos conduce al problema del reduccionismo. O, también,
¿resulta realmente imprescindible postular un nivel representacional para explicar los fenómenos
perceptivos? Dentro del plano representacional abundan los interrogantes que se hallan en el
epicentro de investigaciones actuales, tales como: ¿cual es el formato representacional del
pensamiento, las imágenes mentales, las proposiciones, listas de rasgos, un código abstracto
polivalente,…?, ¿las imágenes mentales son sólamente vehículos del pensamiento, o son
pensamientos en si mismas (productos)?, ¿reflejan la manipulación de entidades simbólicas, o son
simplemente epifenómenos, reminiscencias que no contribuyen sustancialmente al conocimiento?,
¿qué diferencias existen entre la percepción del mundo real y cualquier forma de representaciones
externas (fotografías, dibujos, etc.) o internas (imágenes mentales)?
Finalmente, señalaremos algunos de los problemas planteados en el plano de lo vivencial o
fenomenológico: ¿la percepción requiere siempre a la conciencia?, ¿qué papel desempeña la
11
conciencia en la percepción?, ¿es la conciencia un proceso más en el flujo del procesamiento, o es un
estado que puede, o no, emerger en una determinada fase del procesamiento perceptivo?
A lo largo de esta obra intentaremos mostrar que soluciones se han ido proponiendo a estas
cuestiones, así como las presumciones teóricas adoptadas por determinados modelos o teorías en su
intento de describir o explicar el comportamiento humano.
1.2. ORGANIZACION DEL CONTENIDO
La estructura del presente libro se articula en cuatro bloques, de los cuales, las tres primeras partes
[I) Antecedentes históricos de la psicología de la percepción; II) Primeras teorías psicológicas de la
percepción, y III) Alternativas teóricas actuales en percepción.] pretenden evidenciar como fue
posible incardinar, históricamente, las antiguas concepciones filosóficas (especulativas y
precientíficas), relativas a la problemática sobre el conocimiento y abordadas metafísicamente,
dentro de las más recientes teorías científicas de la psicología experimental perceptiva.
El lector atento, observará de que modo, para lograr el reconocimiento de los fenómenos
perceptuales como objeto de estudio accesible mediante el método científico, fue preciso avanzar en
el terreno de la medición de ciertos aspectos propios de la temática perceptiva. Medición no exenta
de dificultades derivadas de la inaccesibilidad directa, rapidez con que ocurre y ausencia de
transparencia para el sujeto que experimenta la percepción. En este sentido, hay que conceder a la
psicofísica clásica el mérito de haber demostrado la viabilidad de la incorporación de la psicología al
terreno de lo mensurable (umbrales, escalas, etc.) entrando así en la esfera de las ciencias
experimentales, si bien es cierto que la medida de la sensación que utilizó la psicofísica entrañaba
apreciaciones subjetivas de las personas, que posteriormente serían evaluadas tanto por la psicofísica
contemporanea como por la teoría de la detección de señales. Así como, el valor innegable de las
demostraciones, que pusieron de manifiesto, partiendo de una fenomenología experimental (no
filosófica), los psicólogos de la Gestalt. Y sin olvidar las contribuciones de la cronometría al
esclarecimiento de los procesos subyacentes a la percepción.
Tampoco debe pasar inadvertido, ni interpretarse como una casual coincidencia, el hecho de que el
surgimiento y nacimiento de la psicología experimental tuviese lugar en el terreno de la percepción,
simplemente se trataba de buscar una explicación fundamentada en la metodología
científico-natural, que evidenciase empíricamente los ancestrales problemas sobre el conocimiento
12
humano, planteados por los filósofos griegos, en vez de proseguir con las inverificables
argumentaciones metafísicas.
También nos ha de hacer reflexionar acerca de la manera en que todo el legado histórico del
estudio de la percepción humana, en el pasado remoto y próximo, nos ha conducido hasta el
momento actual, en el que la metodología es variada y los instrumentos de medida más sofisticados
y precisos; donde ninguna ciencia (ni siquiera la psicología) puede atribuirse un papel monopolizador
e imperialista, sino que, al contrario, las aportaciones interdisciplinarias (de la biología,
neurofisiología, linguística, lógica, matemática, informática, etc.) se hacen necesarias para abordar la
complejidad manifiesta de los fenómenos perceptivos, concretamente, entre las estructuras procesos
y representaciones que intervienen en la interacción perceptiva del sujeto con el medio.
Por último, cabe señalar que, este sintético recorrido histórico en torno a las teorías actuales de la
percepción, sugiere una concepción unitaria del sistema cognitivo humano en el que se hallan
interrelacionadas las funciones superiores (aprendizaje, memoria, atención, razonamiento, resolución
de problemas, etc.) y hacen posible que la realidad exterior resulte interiorizada y conforme una
representación del mundo.
En el bloque final o parte cuarta, nos adentramos en uno de los enfoques psicológicos actuales, que
cuenta con numerosos prosélitos y que integra los hallazgos de gran parte de la psicología de la
percepción: el análisis de escenas. En esta parte, hemos complementado sus líneas generales de
trabajo en la problemática que nos ocupa con los presupuestos teóricos más característicos, que
admiten y definen su peculiar modo de sumergirse, para explorar el oceáno de la percepción.
Esperamos que estas breves referencias a las teorías de la percepción de ayer y hoy, las cuales nos
permiten hacer la prospección del mañana y que hemos clasificado en el capítulo 12, a fin de poner
orden en el caos que pudiera originar la prolífica productividad mental de la fértil mente humana,
puedan servir de guía a quienes desean introducirse en las, todavía no claras, aguas del mar
perceptivo, en el que han vertido sustancias algunas corrientes cristalinas, junto con otras 'aguas
residuales', que convendrá purificar al objeto de poder vislumbrar con nitidez el fondo marino.
13
Primera parte ANTECEDENTES HISTORICOS DE LA PSICOLOGIA DE LA PERCEPCION
14
Capítulo II: Raices filosoficas: teorías del conocimiento
"Si rechazas todas las sensaciones, no tendrás ningún criterio para distinguir aquellas que se dice que son falsas". (Epicuro s.IV)
2.1. INTRODUCCION
Aunque la evidencia empírica y la posibilidad de comprobación no acompañan al saber
filosófico y, por consiguiente, se halle alejado del saber científico, en cuanto que no
obtiene sus conocimientos por el método ortodoxo, estimamos conveniente el hecho de
conocer las concepciones filosóficas de mayores repercusiones que, en el devenir
histórico, se han formulado sobre los problemas epistemológicos, que giran en torno a la
pregunta de "cómo alcanzamos el conocimiento". Ciertamente, cada modelo, paradigma
o teoría explicativa de la percepción, descansa en unos presupuestos filosóficos y ésto es
una razón insoslayable que justifica su incorporación en esta obra; si bien, se tratará de
manera sucinta y concisa.
Para mayor claridad expositiva, agruparemos las etapas del pensamiento filosófico,
relacionadas en algún sentido con los fenómenos perceptivos, en seis subapartados, a
saber: 1) el pensamiento griego, 2) el pensamiento medieval, 3) el racionalismo
cartesiano, 4) el empirísmo y asociacionismo, 5) el idealismo transcendental y la filosofía
alemana del s. XIX y 6) la fenomenología.
2.2. EL PENSAMIENTO GRIEGO
La antítesis entre la experiencia mental y la experiencia sensorial, ¡cómo no!, se planteó
en la Grecia del siglo V a. de JC. con el escepticismo de Heráclito de Efeso, quien negó la
razón en favor del mundo de los sentidos. Para este filósofo, todo cuanto existe está en
permanente cambio, en continuo fluir, nada de cuanto existe es al momento siguiente
igual a sí mismo. Dice, "la existencia es la corriente de un río, en el cual no podemos
bañarnos dos veces en las mismas aguas". Según él, podemos ver el correr tumultuoso de
las aguas de un río, pero, para captar esa corriente, sólo podríamos helar las aguas y
15
tomar los bloques sólidos, mas en ese momento, la corriente habría desaparecido.
Aprehender la realidad en conceptos fijos, inmóviles, es como helar la corriente del río,
desvirtuar la realidad en lo que tiene de más puramente real. La razón únicamente es
capaz de crear conceptos estáticos, lo más ajeno a la realidad.
Parménides de Elea vivió poco después de Heráclito y, al contrario que éste, proclama la
relevancia de la razón, negando la experiencia sensible, viéndose abocado a un quietismo
contemplativo que le lleva a caer en el panteismo. El principio de la naturaleza es, para
Parménides, el ser uno, infinito, inmóvil y perfecto. Afirma:
"para que algo fluya es preciso que haya antes ese algo, es decir, un sustrato
permanente, un ser en sí. La razón me pone en contacto con ese algo…, pero, ante
todo, con una idea que es la base de las demás: la idea de ser, por la que me hago
cargo de todo lo que es. Posteriormente, conozco otras ideas…, y después los sentidos
me informan de un mundo de individuos todos diferentes, cambiantes,
perecederos…".
Para recomponer la integridad del hombre como ser perfectible por su propia actividad,
fue necesario el advenimiento de Sócrates, quien condujo la filosofía al humanismo al
sostener:
"¿De qué me sirve conocer el mundo si no me conozco a mi mismo? ¿Qué soy yo mismo
y qué mi razón, este instrumento del que me sirvo para conocer?"
Sin embargo, fue su discípulo Platón quien expuso con mayor claridad su concepción
metafísica del conocimiento de modo alegórico en "el mito del carro alado", que se
encuentra en su obra 'Fedro o del Amor' y en "el mito de la caverna", contenido en otra
gran obra, 'la República'. Distingue Platón, el mundo de las ideas, integrado por las ideas
de todas las cosas y que son más reales que las cosas, ya que éstas cambian, se mueven y
son temporales, en tanto que las ideas son eternas, inmutables e inmóviles. El mundo
sensible o mundo de las sombras, en que vivimos, es un mundo de realidad aparente que
está en triple relación con el mundo de las ideas: por participación, por imitación y por
finalidad. Cuando el hombre 'cae' de su vida anterior, desciende del mundo de las ideas
16
al de las sombras, olvidando las ideas y teniendo que redescubrirlas a través de los
sentidos, percibiendo sólo cosas concretas, singulares. De este idealismo deriva cierto
innatismo de las ideas, ya que contemplamos dichas ideas en una vida anterior y en esta
vida podemos rememorarlas; así como, un eviente dualismo, al diferenciar el mundo de
las ideas, de la razón, al que da preeminencia, del mundo de las cosas, de lo material.
Aristóteles, discípulo de Platón, expresa en su "Metafísica" su concepción respecto al
tema que nos ocupa. En la realidad sólo existe, para él, las cosas individuales, concretas,
lo que denomina 'sustancias'. Estas sustancias contienen un universal o modo de ser
general, la 'esencia', aquello que la cosa es y cuyo ser comparte con los demás individuos
de su especie. Esta individualidad y esta universalidad, que se dan unidas en las cosas
materiales concretas, las explica mediante dos principios que llama 'materia' y 'forma'
(teoría del hylemorfismo). La forma, heredera de la 'idea platónica' es un principio
universal y origen de la inteligibilidad, por la que comprendemos las cosas. Lo que las
cosas tienen de puramente individual es incomprensible intelectualmente; lo individual
sólo es accesible a la experiencia sensible, impenetrable a la razón e inexpresable; por
tanto, la comprensión del entendimiento se realiza siempre por medio de lo universal.
Materia y forma son las dos primeras "causas del ser" para Aristóteles.
La concepción aristotélica del todo (forma), como infinitamente reductible, a través de
un análisis sucesivo de la forma, y la materia, no aborda el problema de cómo interactúa
la materia (elementos) para alcanzar el siguiente nivel de forma, dando base a un
elementarismo asociacionista ulterior. Frente a la opinión platónica, los aristotélicos
sostenían que las ideas se obtienen por abstracción, a partir del conocimiento sensible de
las cosas singulares.
2.3. EL PENSAMIENTO MEDIEVAL
La filosofía medieval escolástica no se ocupó apenas del tema perceptivo, centrándose
particularmente en la distinción entre razón y fe (saber racional y saber revelado).
17
Merece un papel destacado el problema de los universales planteado por Porfirio, el cual
trata de establecer si las ideas o conceptos universales existen en la realidad o sólo en
nuestra mente. Este problema recibió tres alternativas explicativas:
a) Realismo radical: afirma que las ideas existen en la realidad
b) Nominalismo: sostiene que las ideas son meros nombres.
c) Realismo moderado: defiende que las ideas existen en la mente, pero con
fundamento en la realidad.
Nos extenderemos algo más en el nominalismo, propuesto por Guillermo de Occam,
que consiste en afirmar que los conceptos universales (géneros y especies) no son cosas
reales, ni se fundamentan en la realidad, sino que son meros nombres o términos. Occam
concluye que en la realidad sólo existen individuos, en los que sólo pueden distinguirse la
materia y la forma, pero no la esencia de la existencia ni la sustancia de los accidentes
absolutos, como afirmaba el abstraccionismo de Tomás de Aquino. Por consiguiente, el
único conocimiento verdadero y cierto será el conocimiento intuitivo sensible, el
conocimiento directo de las cosas por medio de los sentidos. Con sus ideas el occamismo,
anticipó la doctrina cartesiana, que identifica la sustancia material y la extensión,
abriendo el cauce al empirismo de la filosofía moderna y a la moderna ciencia
experimental.
2.4. EL RACIONALISMO CARTESIANO
La tendencia racionalista, que se inicia con René Descartes (1596-1650), ha ejercido en
la historia de la psicología una influencia profunda, que se extiende hasta la actualidad.
Como es sabido, se denomina racionalismo a la filosofía que concede el valor máximo a
la razón, distinguiéndose frecuentemente entre un racionalismo gnoseológico y un
racionalismo metafísico. El primero defiende que la razón es la única fuente válida de
conocimiento, que sólo son verdaderos y ciertos los conocimientos adquiridos mediante
la razón. El racionalismo metafísico, sostiene que la totalidad del ser puede conocerse
mediante un sistema racional de conceptos, negando la existencia del azar y la
18
contingencia, hasta el extremo de sostener que todo suceso tiene una explicación
racional y lógica.
Descartes concibió la mente humana formada por dos sustancias, una libre, racional y
autoconsciente, y otra autómata, gobernada por leyes mecánicas, constituyéndose así en
el padre de dos modelos psicológicos históricamente alternativos: el
introspeccionista-mentalista y el reflexológico-materialista (Caparros, 1980). El dualismo
mente-cuerpo de Descartes es interaccionista; sin embargo, no da una explicación
aceptable de esta relación (glándula pineal).
El cartesianismo, en opinión de Firth (1974), sostiene tres tesis en torno a la percepción:
a) Identificación de la experiencia sensorial mediante un juicio psicofísico (por ejem.,
ahora percibo una casa).
b) Validación del juicio mediante inferencias a partir de la experiencia sensorial
(relaciones inferenciales).
c) Justificación de las proposiciones acerca de la experiencia sensorial por sí mismas
(autojustificación).
Según Caparrós (1980), el legado cartesiano a la psicología puede sintetizarse en el
dualismo mente-cuerpo, un enfoque mecanicista, el introspeccionismo, innatismo y
cierta propensión a relacionar la mente con el cerebro.
Baruch de Spinoza (1632-1677) diverge de Descartes en el dualismo y considera el alma
(mente) y cuerpo como dos aspectos de una unidad fundamental.
Wilhelm Leibnitz (1646-1716), dentro de su teoría de las "mónadas" (atomismo activo y
consciente), concibe el conocimiento, no como resultante de una impresión sensorial
pasiva, sino mediante una relación "armónica preestablecida" (por Dios). De este modo
continúa la concepción unitaria de la mente y el cuerpo, si bien relacionados a través de
un "paralelismo psicofísico", que servirá a muchos autores para eludir el compromiso
teórico con este problema metafísico, ya que permite reconocer los dos niveles (físico y
psíquico) sin adentrarse en el terreno de la especulación, ajeno al método científico.
Otra anticipación importante de este autor es la distinción entre percepción y
apercepción. Parte de suponer que en los seres humanos hay distintos grados de
conciencia (concibe la conciencia como un continuum), algunas de nuestras percepciones
19
no llegan a ser conscientes ("petites perceptions"), otras si lo son, las denominadas
"apercepciones" (conciencia o conocimiento reflexivo del estado interior). Este
planteamiento de los grados de conciencia, conceptualizado por Leibnitz, se hallara
omnipresente en diferentes concepciones psicológicas. Fechner lo llamará "sensaciones
negativas", Herbart y Wundt retomarán el concepto de "apercepción", en Freud será el
inconsciente y, más próximo a nuestros días será reconceptualizado bajo el término de
"subcepción" o "percepción subliminar".
2.5. EL EMPIRISMO-ASOCIACIONISMO
El empirismo, fundamentado en el nominalismo, con su valoración de la experiencia
como fuente del conocimiento, impulsó notablemente en Europa el estudio de las
ciencias experimentales. Se conoce con el nombre de empirismo toda doctrina filosófica
que considera la experiencia sensible como única fuente válida de conocimiento. Como
un reflejo del sentido utilitarista inglés, tuvo allí su origen y culminación, siendo sus
figuras más destacadas Hobbes, Locke, Berkeley y Hume.
Los empiristas, sin salir de la mentalidad racionalista común a la filosofía moderna, no
se centraron en el análisis de las ideas ya elaboradas que posee la razón, sino en cómo
elabora la razón sus contenidos y de que primeros elementos parte.
La teoría del conocimiento de John Locke (1630-1704) se inspira en un viejo adagio
escolástico: "nada hay en el entendimiento que no haya pasado antes por los sentidos".
El conocimiento se inicia en la experiencia sensible y a los datos de ésta se reduce
Las meras representaciones de los datos sensibles se llaman "ideas simples" o
"sensaciones" y el entendimiento forma, mediante asociación, las "ideas complejas"; por
consiguiente, todo conocimiento es una idea simple o un complejo de ideas simples. Para
Locke y sus seguidores la clave para entender como la experiencia se organiza en
estructuras con significado es el principio de asociación. Sin embargo, este análisis nunca
puede explicar por qué experimentamos, de manera preferente, objetos como unidades
aisladas antes que sus partes constitutivas.
20
Este filósofo distingue entre cualidades primarias (ideas simples que se obtienen por
varios sentidos, por ejemplo, el tamaño de una manzana) y cualidades secundarias (ideas
que se adquieren mediante un sólo sentido, por ejemplo, el sabor de una manzana).
Según él, las cualidades primarias corresponden realmente a los objetos, mientras que las
cualidades secundarias son subjetivas y no se dan en el objeto.
Locke afirmaba que la mente del recien nacido es como una placa en blanco ('tabula
rasa'), todo el conocimiento se adquiere por la experiencia y asociaciones de
experiencias, partiendo de aquí la corriente psicológica del asociacionismo, que pretende
estudiar la mente al modo físico-matemático, como una ciencia experimental más. De
este modo, Locke, al rebelarse contra las ideas innatas del cartesianismo y basar el
conocimiento en la experiencia, introdujo en la filosofía británica un sesgo psicológico
elementarista, analítico y asociacionista, haciendo posible una gradual aproximación
hacia la psicofisiología sensorial alemana del siglo XIX, complementándola con su
enfoque.
El obispo anglicano George Berkeley (1685-1757) llevó todavía más lejos el pensamiento
de Locke al negar realidad exterior tanto a las ideas primarias como a las secundarias,
afirmando que nuestro espíritu trata sólo con ideas (sensaciones y sus compuestos).
Sostuvo que nosotros suponemos que ese mundo ideal, mental, es representación de
otro mundo, el cual es exterior a nosotros mismos, pero ese mundo objetivo no lo ha
visto nadie, ya que nadie ha salido de su propia mente. La consecuencia es, para
Berkeley, el idealismo absoluto, que consiste en negar la existencia de una realidad
exterior a la mente, o como el mismo dijo, en que el ser de las cosas consiste en ser
percibidas (esse est percipi), esto es, las cosas existen en tanto que son percibidas por mi;
cuando dejo de percibirlas, dejan de existir, porque su ser no era otro que mi percepción
de ellas.
Este idealismo también ha sido denominado idealismo psicológico, que se diferencia del
idealismo lógico en que, este último, supone también que la realidad es una creación del
espíritu, pero del espíritu humano o razón colectiva, de la que participan todos los
hombres.
Con David Hume (1711-1776) se consuma el proceso demoledor de los empiristas
21
británicos hasta llegar al escepticismo metafísico. Su alternativa al problema del
conocimiento le permitió destruir los conceptos fundamentales de la metafísica, el de
sustancia y el de causalidad, incidiendo por tanto en un fenomenismo, según el cual sólo
conocemos "fenómenos", apariencias y no cosas "en sí".
Hume reduce los conocimientos a percepciones y todas las percepciones se pueden
agrupar en dos géneros distintos, denominados: impresiones e ideas. Entre ambos
géneros de percepciones existe una diferencia, que consiste en los grados de fuerza o
vivacidad con que se presentan al pensamiento. Las percepciones que ofrecen más
fuerza y violencia se llaman impresiones. Las ideas son imágenes debilitadas de las
impresiones. Tanto la impresiones como las ideas se dividen en complejas y simples.
Según Hume, toda idea que no posea su impresión correspondiente es una construcción
mental sin validez objetiva alguna. Esta reducción de todo ser a meras impresiones
sensibles se llama fenomenismo y con él se abría el camino a la doctrina de Kant.
Ya en pleno siglo de las luces, surgen dos teorías del conocimiento, que recogen del
racionalismo y del empirismo su preocupación por estas cuestiones. Nos referimos a
Thomas Reid (1710-1796) fundador de la "escuela escocesa", quien en contra de Locke y
Hume se propuso demostrar la objetividad y certeza de nuestros conocimientos,
mediante el análisis del alma humana. Reid propone la experiencia como punto de
partida del conocimiento, entendiendo por experiencia la percepción inmediata de los
objetos en su realidad externa. Según él, la percepción va siempre acompañada de la
creencia de que existe la realidad externa del objeto percibido; la validez gnoseológica de
esta creencia se fundamenta en un elemento natural que posee la conciencia de todos
los hombres: el sentido común.
La tendencia empirista llega con la ilustración a sus últimas consecuencias: el
conocimiento queda reducido a pura sensación. Tal fue el sensualismo formulado por
Condillac (1715-1780), el cual considera que "nuestros errores proceden de que nuestras
ideas han sido mal hechas…, y el único medio de corregirlas es rehacerlas". Para ello es
preciso descomponer nuestros conocimientos en los elementos integrantes y así se llega
a la 'sensación' como elemento único e irreductible de los mismos. Condillac llega con su
sensualismo al límite extremo del nominalismo, para él, una ciencia no es más que un
22
lenguaje bien hecho.
El estudio del hombre en la época iluminista dio origen a dos diferentes corrientes
psicológicas: la asociacionista y la analítica. El principal representante de la psicología
asociacionista fue David Hartley (1704-1757), quién consideró que todas las
manifestaciones psíquicas se reducen a una mera "asociación" de sucesos simples y de
representaciones, cuyo desarrollo da origen a las ideas completas, conscientes, religiosas,
etc. Según Hartley, a esta asociación de representaciones corresponde una asociación
fisiológica en el cerebro.
Hartley reconvirtió el empirismo en un asociacionismo, fundamentado en la mecánica
newtoniana, siendo a partir de entoces dicho asociacionismo una fuerza impulsora de la
psicología filosófica británica.
Si la psicología asociacionista redujo la vida psíquica a la unión o conglomerado de
elementos psíquicos, contrariamente, la psicología analítica consideró la vida psíquica
como una unidad o fuerza unitaria que escapa a la experiencia, pero que se manifiesta
mediante actos de pensar, querer y sentir. Esta corriente psicológica se halla muy influída
por la doctrina de Leibnitz, y sus más destacados representantes son Sulzer (1720-1779) y
Tetens (1736-1805).
El asociacionismo británico halló su culminación en la figura de James Mill (1773-1836),
que llevó el principio asociacionista hasta alcanzar su culminación, fundamentado en el
utilitarismo de Jeremías Benthan (1748-1832) sobre una psicología asociacionista. Como
elementarista estricto, concibió a la mente constituida sólamente de sensaciones e ideas,
mantenidas juntas por asociación. Sostenía que todo conjunto mental, incluyendo
cualquier percepción, es simplemente la suma total de sus elementos combinados. Los
elementos eran, para él, las renombradas sensaciones e ideas, siendo estas últimas
réplicas de sensaciones previas.
Su hijo, John Stuart Mill (1806-1873) se inclinó por un asociacionismo opuesto, en cierto
sentido, al de su padre, al apelar al término de "química mental" para explicar la
combinación de las ideas. Señaló que las ideas complejas no son sólamente un sumatorio
de ideas elementales, sino que se funden y combinan unas con otras formando
totalidades, pudiendo tener las totalidades nuevas propiedades. Consciente de los
23
riesgos de un asociacionismo mecánico, propuso como alternativa el "modelo químico
asociacionista", más empírico y próximo al control experimental introspeccionista, que
Wundt asumiría.
2.6. EL IDEALISMO TRANSCENDENTAL Y LA FILOSOFIA ALEMANA DEL XIX
En general, el término idealismo designa filosóficamente a todo sistema que reduce el
ser (la realidad) al pensamiento. El mismo Emmanuel Kant (1724-1804) definió el
idealismo transcendental, en su obra 'la crítica de la razón pura', como aquel que
"considera los fenómenos, en su conjunto, como simples representaciones". Este
idealismo no excluye totalmente la existencia real del objeto, ya que, para él el
conocimiento transcendental no es el que se refiere a los objetos sino, de una manera
general, a nuestros conceptos 'a priori' de los objetos, a diferencia de otras formas de
idealismo que niegan la realidad objetiva.
Kant argumentó que las percepciones no nos proporcionan nuestros conceptos, sino
que, estas percepciones nos son dadas de acuerdo con nuestros conceptos, acordes con
nuestras maneras intrínsecas e innatas de percibir el mundo. Estos 'moldes' o categorías
innatas incluyen causa y efecto, tiempo y espacio, por cuanto debido a nuestra
naturaleza fisiológica y epistemológica, percibimos el mundo en estos términos, siendo
las categorías (y no el aprendizaje) las responsables de la organización y estructura de
nuestras percepciones. Según Kant, la percepción se organiza desde el principio, y la
extracción de elementos es algo posterior y sólo posible mediante el elaborado análisis
filosófico del adulto. Esta formulación Kantiana proporcionó un nuevo enfoque al
problema de la organización o estructura perceptiva, que a principios del siglo XX, y
ligeramente modificada, fue reformulada por la Psicología de la Gestalt.
Joham F. Herbart (1776-1841), sucesor de Kant en Königbert, vinculado al idealismo de
Leibnitz y considerado el padre de la Pedagogía científica, concibe la psicología como
ciencia fundamentada en la experiencia, en la metafísica y en la matemática. Anticipa la
idea de inconsciente, basado en el concepto de inhibición, y retoma el término de
24
apercepción de Leibnitz. Se le reprochó su postura anti-experimentalista y su
anti-fisiologismo; sin embargo, es considerado por muchos como una figura puente entre
la psicología filosófica y la psicología experimental.
Hermann Lotze (1817-1881), otra figura de transición y con ciertas contradicciones, en
cuanto enfatiza la psicología fisiológica y adopta una postura metafísica, manifiesta una
tendencia idealista y propone una teoría empirista de la percepción del espacio (teoría de
los signos locales). Se observa en su obra la influencia de J.Müller y de Weber y, a su vez,
ejerció influencia sobre discípulos tan notables como F. Brentano y Stumpf.
2.7. LA FENOMENOLOGIA
El antecedente inmediato de esta corriente, sin que ello suponga ubicarlo dentro de
ella, se remite a Franz Brentano (1838-1917) rescató del olvido una antigua teoría del
aristotelismo escolástico, la intencionalidad del psiquismo humano, es decir, consideró
que los fenómenos psicológicos se refieren a un "contenido", distinto a ellos mismos, y se
dirigen a un "objeto"; sin embargo, ni ese contenido, ni ese objeto son mentales,
únicamente el acto que se dirige a un objeto tiene entidad mental. El acto y el contenido
forman una unidad inseparable y lo fundamental de los fenómenos psíquicos es la
intencionalidad, proceden de un sujeto y tienen un fin.
Entre los seguidores de Brentano destacaron algunos precursores de la psicología de la
Gestalt, tales como Meinong y Ehrenfels, también sobresalió Edmond Husserl
(1859-1938), fundador de la fenomenología (de fainomenon= lo que aparece), que
pretende derivar de las vivencias psíquicas las esencias implicadas en ellas, de un modo
directo, sin abstracción.
El análisis fenomenológico de los hechos psíquicos trata de captar la esencia universal
del fenómeno, busca el sentido primitivo de las cosas, el conocimiento puro.
Husserl puso de manifiesto el error fundamental del psicologismo, demostrando que el
objeto de la lógica no puede reducirse a la psicología. Estableció el método
fenomenológico, el cual parte de los datos empíricos, que nos proporcionan los
25
fenomenómenos de conciencia, e intenta investigarlos (fenomenología= estudio de los
fenomenómenos). Dicho método consta de tres fases:
a) Empirismo fenomenológico: atenerse únicamente a los femenómenos de conciencia
que son "vivencias intencionales".
b) Reducción eidética (eidos= esencia): mediante un análisis fenomenológico, que
prescinda de todas las particularidades y singularidades del fenómeno, hasta quedarse
sólo con su esencia, excluyendo incluso su existencia.
c) Descripción eidética del fenómeno estudiado.
El concepto central de la fenomenología de Husserl es la intencionalidad, característica
de la conciencia por la que tiende a dirigirse hacia algo, de referirse a un contenido. Este
interés por la intencionalidad fue inspirado por su maestro Brentano.
En resumen, la fenomenología Husserliana se centra en el estudio reflexivo de tres
factores básicos de la intencionalidad:
- Los noemas: entidades abstractas del acto e infinitas en el tiempo, que determinan su
objeto (si lo hay) y su clase. Son similares a las ideas platónicas, como el significado que
da unidad al acto.
- La noesis: entidades concretas y transitorias del acto, experiencias de tipo intencional,
que proporcionan la multiplicidad a nuestros actos.
- El hyle: experiencias o datos materiales que se producen al ser estimulados nuestros
sentidos.
Como se expondrá más adelante (véase cap. 5), si bien Husserl fue el sistematizador de
esta concepción, los posteriores desarrollos de la fenomenología (Merleau-Ponty,
Gurwitsch) influiran sobremanera en determinados psicólogos, llegando su influjo hasta
nuestros días, desde una perspectiva fenomenológica experimental.
26
Capítulo III: Orígenes científicos de la psicología y estudio de la percepción
"Ciertos sucesos observables son comúnmente llamados 'físicos' y otros 'mentales'; a veces los sucesos 'físicos' aparecen como causas de los 'mentales' y a veces ocurre a la inversa." (Bertand Russell, s.XX)
3.1. INTRODUCCION
En opinión del historiador de la psicología Caparrós (1976), la desvinculación gradual de
la Psicología respecto de la Filosofía y la necesaria aproximación a las ciencias empíricas
puede ser considerada desde dos perspectivas relacionadas:
a) Respecto al objeto o contenido: caracterizada por una visión naturalista de la mente
humana, de acuerdo con la tendencia materialista de la ciencia.
b) Respecto al método: caracterizada por un alejamiento de la especulación metafísica y
un acercamiento a la observación empírica, aunque con insuficientes técnicas de control.
En este proceso de emancipación de la Psicología científica, contribuyeron una
pluralidad de factores entre los que el citado autor señala:
El establecimiento de la Fisiología como ciencia independiente. Sin olvidar los
problemas fronterizos que esta disciplina compartía con la Psicología, los cuales eran
relativos a la experiencia sensorial: mecanismos del arco reflejo, relaciones mente
cuerpo, umbrales sensoriales, etc. A ello debe añadirse la formación fisilógica y médica de
los fundadores de la Psicología científica (W.Wundt, W.James, J.Müller, etc.), lo que en
algún caso pudo significar una amenaza para la autonomía de la psicología, al pretender
reducir ésta a ser una rama de la Fisiología.
Las contribuciones de la Astronomía, respecto al problema de la variabilidad de las
mediciones temporales (tiempos de reacción) en su intento por perfeccionar la exactitud
en la medida.
Los avances de la Física, en sus ramas más afines (óptica, mecánica, acústica y
electricidad), de la Anatomía (en particular de la relativa a la neurología) y también de la
Histología con el gran desarrollo experimentado por la microscopía cerebral.
Los logros de la Medicina psiquiátrica, que consiguieron desmitificar al enfermo mental
27
considerado como 'poseido' o endemoniado, y el reconocimiento de la perturbación
mental como enfermedad abordable mediante el método científico-natural.
La creciente necesidad de control científico (evaluación, clasificación y diagnóstico) de la
educación.
Es de hacer notar el lugar privilegiado que la psicología sensorial y el ámbito de los
fenómenos perceptivos desempeñaron en esta etapa, una posición de protagonismo
central, hasta el punto de solaparse la historia de la psicología con la historia de la
problemática perceptiva.
3.2. LA PSICOFISIOLOGIA DEL XIX
En este apartado recordaremos muy esquemáticamente, siguiendo a Caparros (1976),
aquellos autores y aportaciones que jugaron un papel decisivo en el proceso de
independización de la Psicología, hasta sentar las bases que le permitieron alcanzar un
estatus científico mediante la utilización de la metodología experimental. Evidentemente,
nuestro objetivo en este capítulo es, simplemente, enlazar las concepciones metafísicas y
especulativas precedentes, acerca de la percepción, con las concepciones que se
fundamentarán en bases empíricas.
->Ley de Bell-Magendie (1811): distinción anatómico-funcional de los nervios
sensoriales y motores. El descubrimiento de los nervios motores, sensoriales y mixtos,
sugirió la existencia de áreas sensoriales y motoras en el cerebro y en la médula y sirvió
de fundamento a la distinción entre funciones sensoriales y funciones motoras
(explicación del arco reflejo).
->Demostración de que los nervios transmiten impulsos bioeléctricos (Matteucci,
Bois-Reymond y J.Bernstein) y final de la interpretación espiritualista cartesiana.
->Inicio de la cronometría fisiológica: H. von Helmholtz midió la velocidad de
transmisión del impulso nervioso en la pata de una rana (tiempo de reacción), abriendo
el camino hacia la cronometría de los procesos mentales.
->Descubrimiento, por parte de M.Hall (1790-1857), de la involuntariedad e
inconsciencia de los actos reflejos (reflejo pupilar, patelar, etc.), que de forma mecánica y
28
sin intervención del cerebro cumplían una función adaptativa y según ciertos 'propósitos'.
Ya en el siglo XX, Paulov demostraría las posibilidades de estos reflejos.
->Frenología y localización de las funciones cerebrales:
* Francis J. Gall (1758-1828): las facultades están localizadas en el cerebro y todo exceso
que se dé en una de sus facultades supone una modificación en su correspondiente zona
cerebral, la cual se refleja en el cráneo (craneoscopía). Si bien, ni el método ni las
facultades que localizaban ofrecieron interés a la psicología, contribuyeron a erradicar la
la sede metafísica del alma, en favor de una sede material.
* Flourens (1794-1867): consideró la unidad de la mente, pero admitió una frenología
zonal, en lugar de puntual como Gall. Utilizó el método de extirpación precisa de partes
bien delimitadas del cerebro y posterior observación de los efectos conductuales
derivados.
* Broca, en 1961, propuso un centro del lenguaje en el cerebro y tuvo como
consecuencia el desarrollo de una "cartografía cerebral" (mapas).
->Avances en la histología neurológica, merced a la microscopía, que llevaron constatar
la red neuronal inmensa del cerebro, dando soporte fisiológico al asociacionismo
filosófico imperante.
->Ley de la especificidad de las vías nerviosas, enunciada por Johanes Müller entre
1833-1840, la cual supone que los nervios de cada modalidad sensorial tienen una
energía específica que es responsable del tipo de sensación, quedando asentada la
diferencia cualitativa de los nervios. Müller, considerado por muchos 'padre de la
Fisiología', afirmaba que el destino de la Psicología era ser absorbida por la Fisiología.
Esta ley fue crucial en la consecución de un estatus científico para la Psicología, ya que
reconoce que las sensaciones dependen del organismo (sistema nervioso), lo que implica
que el cerebro es el órgano de la mente.
3.3. LA PSICOLOGIA SENSORIAL DEL XIX
La Psicología sensorial cobró un fuerte impulso, desde la primera mitad del siglo XIX,
29
debido sobre todo a los avances de la Física y la Anatomía. Desglosaremos aquí las
aportaciones más relevantes de este período, en función de las diversas modalidades
sensoriales sobre las que se practicaron las investigaciones:
A) VISION
* Thomas Young publica en 1793 un trabajo sobre acomodación ocular y en 1801 una
interesante teoría sobre la visión del color, desarrollada posteriormente por Helmholtz y
conocida, en actualidad, como teoría de Young-Helmholtz.
* Aportación del "fenómeno de Purkinje": los colores cuya longitud de onda es más
corta, dejan de percibirse más tarde que los de larga longitud de onda, al disminuir la
intensidad luminosa.
* Planteamiento de las problemáticas en torno a la formación de la imagen retiniana,
según las leyes de la óptica (J. Müller), leyes combinatorias de los colores (disco de
Newton), adaptación a la luz y a la obscuridad, visión binocular y acomodación ocular a la
distancia.
B) AUDICION
En esta modalidad sensorial las investigaciones se limitan a describir los fenómenos
acústicos descubiertos por la Física y la Anatomía. Será preciso esperar a von Helmholtz
(véase cap. 4) para disponer de un enfoque apropiado para el estudio de los fenómenos
auditivos.
C) TACTO
En el estudio de la sensibilidad háptica merece una especial atención la obra del
fisiólogo Ernst Heinrich Weber (1795-1878), el cual, utilizando el 'test del compás'
determinaba el "umbral de impresión dual" (distancia mínima requerida entre las dos
puntas del compás para captar una doble sensación espacial sobre la piel) y constató la
variabilidad de las regiones cutáneas.
Posteriormente, se comprobó la variabilidad de los umbrales según la atención, el
entrenamiento, la fatiga, la raza, etc. También experimentó discriminaciones de peso,
llegando al concepto de "diferencia mínima perceptible" o "umbral diferencial",
30
advirtiendo de que percibimos cambios relativos y no absolutos. A partir de sus
experimentos llegó a concluir que el incremento de magnitud (ΔM) necesario para
advertir una diferencia mínima perceptible, dividida por la magnitud del estímulo (M),
era constante:
K= ΔM / M
Esta constante, en cierto sentido, funciona como un índice aproximado de la finura
discriminativa de las distintas modalidades sensoriales. En base a esta constante,
ulteriormente, elaboró Fechner (véase cap. 4 y 5) la fórmula que conocemos como ley de
Weber-Fechner.
La importancia de los métodos experimentales de la psicofísica para la psicología radica
en que permitió establecer una relación cuantitativa entre fenómenos físicos y mentales,
es decir, entre variables físicas y psicológicas, lo que daba fundamento a una Psicología
experimental.
Otra aportación interesante fue el empleo de métodos introspectivos y/o
fenomenológicos; ya que, los sujetos informaban sobre las características objetivas del
estímulo (ejem., 'parece más pesado'), pero esta información versaba sobre como los
objetos aparecían ante su conciencia (método fenomenológico).
3.4. INFLUENCIA DE LA ASTRONOMIA: LA ECUACION PERSONAL
Para resolver el problema de los tránsitos estelares, mediante telescopio y cronómetro,
tras haber constatado diferencias entre los tiempos medidos por diferentes astrónomos,
se recurrió a un método basado en el cálculo de las diferencias de las medidas
temporales de varios observadores, con el fin de corregir sus estimaciones; a este
método se le dió el nombre de "ecuación personal. Paulatinamente, el problema del TR
(tiempo de reacción) fue incorporándose a la Psicología, experimentando un notable
perfeccionamiento con la aparición de los cronoscópios y cronógrafos, que permitió
afinar las técnicas de medición. Los estudios de cronometría psicológica se centrarón,
básicamente en:
a) Detectar los factores que influían en el TR (del sujeto: en trenamiento, atención,
31
fatiga, etc.; del estímulo: intensidad, brillantez, velocidad del movimiento, etc.).
b) Determinar la duración de los procesos mentales. Aquí jugó un importante papel el
método sustractivo de Donders (1868), fundamentado en una concepción de la mente
como procesador serial, actualmente cuestionada. Sin embargo, los métodos de la
cronometría aportaron datos de interés sobre las diferencias interindividuales.
32
Capítulo IV: Nace la psicología en el terreno de lo perceptual
"existen dos fronteras entre lo mental y lo físico, a saber, la sensación y la volición. 'Sensación' puede definirse como el primer efecto mental de una causa física, y 'volición' como la última causa mental de un efecto físico" (Bertrand Russell, s. XX)
4.1. INTRODUCCION
Previamente a la adquisición de un estatus científico de la psicología, es preciso e
ineludible remontarse a las figuras de dos antecedentes inmediatos al fundador de la
Psicología como disciplina experimental independiente de la Filosofía y la Fisilogía
(W.Wundt), nos referimos a Fechner y Helmholtz. Estos precursores de la psicología
científica desarrollaron su trabajo en el campo de los fenómenos perceptivos, si bien en
áreas diferentes y utilizando técnicas distintas. Fechner estudiando las relaciones entre
los estímulos físicos y los juicios perceptivos; Helmholtz investigando aspectos relativos a
la fisiología de los sistemas sensoriales (visión y audición).
4.2. GUSTAV THEODOR FECHNER (1801-1877)
Filósofo, fisiólogo y físico que pasaría a la historia por sus contribuciones metodológicas
experimentales a la psicología. Vinculado en su formación académica a las corrientes
científico-materialistas y filósofo idealista, intento aunarlas dentro de una postura
dualista (paralelismo psicofísico) que le conduciría a un 'panpsiquismo' (identidad entre
materia y mente). Desarrolló abundantes experimentos sensoriales (tactiles: pesos;
visuales: brillantez, estimación de distancias, etc) y publicó en 1866 los "Elementos de la
psicofísica", donde considera la psicofísica como una ciencia exacta de las relaciones
funcionales o relaciones de dependencia entre cuerpo y mente. Sostiene que la
sensación, si bien no puede medirse directamente, ésta puede medirse indirectamente,
llegando así a establecer el concepto de 'umbral absoluto' o umbral de conciencia
(magnitud física del estímulo requerida para que se perciba el estímulo) y 'umbral
relativo o diferencial' (incremento necesario para que se perciba un cambio entre dos
33
magnitudes del estímulo).
Fechner asumió que todos los umbrales diferenciales eran subjetivamente equivalentes
y, en consecuencia, el incremento de la sensación (ΔS) podía calcularse a partir de la
"constante de Weber":
ΔS= K. (ΔM/M)
que denominó "ley de Weber" y en la que 'K' es una constante de proporcionalidad.
Estos incrementos mínimamente distinguibles pueden utilizarse como unidades de
medida, que nos permitan construir una escala psicológica de la sensación, al igual que
las hay en Física para medir la longitud, el peso, etc. Posteriormente, Fechner obtuvo la
función, que relaciona sensación y estímulo, al plantear una ecuación diferencial que
resuelve por integración y a la fórmula resultante se le conoce como "ley de Fechner":
S= K.loge M + C
cuyo significado explicábamos al hablar de Weber (véase cap. 3).
De especial interés es el hecho de que cuando 'M' (magnitud del estímulo) tiene el valor
del umbral absoluto, 'S' es nula (vale cero), lo cual lleva a presuponer la existencia de
sensaciones negativas, cuando el valor de la sensación (S) corresponde a valores de 'M'
menores que el umbral (subliminares).
Otra aportación de relevante interés se refiere a los tres métodos ideados por Fechner,
basados en técnicas estadístico-matemáticas, que enumeramos en el capítulo 5
(subapartado 5.4 Métodos psicofísicos clásicos). Estos métodos son susceptibles de
aplicarse a la determinación de los dos tipos de umbrales (absoluto y diferencial), como
un medio que permite corregir estadísticamente la enorme variabilidad observada en
dichos umbrales.
La psicofísica clásica de Weber y Fechner no está exenta de críticas a las insuficiencias
que se hicieron patentes con su aplicación (por ejem., Hering) y en la actualidad está
representada por S.S Stevens y G. Ekman (ya fallecido), en la que la ley de Weber y la de
Fechner quedan absorbidas como casos particulares de una ley más general:
S= K. Mn
según la cual, a medida que la intensidad del estímulo crece exponencialmente, la
sensación aumenta linealmente.
34
Otros avances metodológicos más recientes contribuyeron al desarrollo de la
psicofísica, como la TDS o Teoría de la Detección de Señales (Tanner y Swets, 1954).
No debe escapársenos, tampoco, las repercusiones a que dió lugar la psicofísica, no sólo
sobre el mismo Wundt, sino también sobre otros psicólogos posteriores, por citar
algunos: las escalas de medida tipo Thurstone (1929) [ver cap. 5], el concepto de nivel de
adaptación de H. Helson [ver cap.7], e incluso, como señala Pinillos (1975), la relación
entre estímulos condicionados y respuestas condicionadas del mismo Paulov puede
encontrar un antecedente el los trabajos de Weber y Fechner sobre la relación entre lo
físico y lo psíquico.
4.3. HERMAN N VON HELMHOLTZ (1821-1894)
Físico y fisiólogo discípulo de J. Müller fue uno de los científicos que más contribuyó,
indirectamente, al logro de un lugar entre las ciencias para la psicología de base
experimental. Sus principales aportaciones a la Psicología se inscriben en el campo
sensorial; así, en su "Optica" publicada entre 1856-1866 trata los principales aspectos de
la visión (estimulación del nervio óptico y la retina, postimágenes, movimientos oculares,
percepción de la distancia, visión monocular y binocular, etc.). Respecto al color, explicó
la visión cromática, en base a los tres colores primarios (rojo, verde y azul) y sus
correspondientes fibras nerviosas, en la conocida teoría de Young-Helmholtz.
Equiparable en importancia es su obra sobre el oido y la acústica ("Sensaciones tonales",
publicada en 1863), en la que expone su tería sobre la audición, denominada "Teoría de
la resonancia".
A pesar de su origen germano, Helmholtz fue seguidor de la tradición empirista inglesa,
en lo que a la percepción se refiere, sobre la que elaboró una teoría inspirada en el hecho
de que en el estímulo no existen, de modo inmediato, muchos datos experienciales de la
percepción, sino que proceden de experiencias pasadas y actúan mediante inferencias
inconscientes. A estas últimas les atribuye tres propiedades: 1) su irresistibilidad, 2)
producidas por la experiencia y 3) son inductivas. Por consiguiente, en la percepción,
según este autor, se conjugan aspectos sensoriales derivados del estímulo y
35
conocimientos provinientes de la experiencia pasada.
4.4. WILHELM WUNDT (1832-1920)
Unánimemente considerado como el 'fundador de la psicología científica'
(experimental), tras una formación fisiológica, trabajó en Berlín en el laboratorio de J.
Müller, después en Heidelberg como colaborador de Helmholtz (13 años),
posteriormente abdica de la docencia fisiológica para centrarse en la filosofía (psicología)
en la universidad de Zurich (1874) y un año después en Leipzig, donde llevó a cabo su
valiosa tarea de sistematizador.
Concibe a la psicología como una ciencia de la experiencia, distinta de la metafísica, que
tiene por objeto de estudio la experiencia inmediata (estado de la conciencia) y utiliza el
método introspectivo (autoobservación) apoyado en el experimento. Respecto al
problema de la relación cuerpo-mente adoptó un dualismo cercano al paralelismo
psicofísico (Leibnitz).
Para Wundt la finalidad de la psicología consistiría en analizar los procesos de
conciencia acaecidos entre la presentación de estímulos y las respuestas observables. La
tarea del psicólogo debía ser, pues, analizar la conciencia en sus últimos elementos,
después deberían buscarse las leyes que rigen la formación de totalidades. Según Wundt,
los elementos que se encuentran en la conciencia son: sensaciones, imágenes y
sentimientos. En lo que se ha denominado teoría de la actualización de la conciencia,
sostiene que la conciencia es un flujo continuo (proceso psíquico) y en su teoría de la
causalidad psíquica, afirma que los contenidos de la conciencia (sensaciones y
sentimientos) se asocian según las pasivas leyes de la asociación (similitud, contigüidad,
frecuencia, recencia, intensidad, etc.) y la activa apercepción, que organiza múltiples
datos en una totalidad. Wundt considera que lo apercibido es lo que cae bajo el foco de
la atención y aquello de lo que tenemos conciencia.
Otro concepto que, junto con el de apercepción parece alejarle del mero
asociacionismo, es el de síntesis creativa, similar al de "química mental" de J.S. Mill,
proceso mediante el cual los contenidos elementales de la conciencia son elaborados
36
hasta producir combinaciones creativas y unificantes, diferentes de las simples sumas de
los elementos componentes.
Los temas de investigación preferidos del fundador de la psicología fueron la sensación
y la percepción:
a) visual: psicofísica de la luz y del color, visión periférica, contraste visual y fenómeno
de Purkinje, visión binocular e ilusiones ópticas.
b) auditiva.
c) tactil: umbral de distancia entre dos puntos
d) gustativa.
También investigó sobre la percepción del tiempo, la atención (fluctuaciones y
acomodación), el sentimiento y algunos trabajos sobre la memoria.
En suma, de acuerdo con A. Caparrós (1977), lo que caracterizó el inicio de la Psicología
como ciencia experimental fue el elementarismo, sensacionismo, atomismo y
asociacionismo, desencadenando ulteriormente una serie de reacciones académicas que
fraguaron en otras alternativas paradigmáticas al estructuralismo wundtiano, extendido
por sus numerosos discípulos de Leipzig (Kraepelin, Külpe, G.S. Hall, J. McK. Catell, F.
Angell, Titchener, etc).
37
Segunda Parte PRIMERAS TEORIAS PSICOLOGICAS DE LA PERCEPCION
38
Capítulo V: Primeros desarrollos teórico-metodológicos: el modelo psicofísico y la fenomenología
"El mundo verdadero, tal como siempre se ha concebido hasta nosotros, ha sido siempre el mundo de las apariencias, repetido". (F. Nietzsche, s. XIX)
5.1. PSICOFISICA: CONCEPTO Y OBJETIVO
Anteriormente a la utilización de la introspección analítica y formal como método de la
psicología experimental, apareció la psicofísica con el fin de estudiar las relaciones entre
lo físico y lo psíquico, introduciéndose de este modo la medición en psicología. La
paternidad indiscutible de esta metodología corresponde a E.H. Weber (1795-1878) y a
G.T. Fechner (1801-1887) y, sin duda, la obra fundacional de la psicofísica clásica es
"Elementos de la psicofísica", publicada por Fechner en 1860.
Los antecedentes próximos se hallan en la obra de ciertos matemáticos del siglo XVIII,
tales como Kramer, quien en 1728 sostuvo que las sensaciones se hallan en relación
cuadrática con sus fuentes de estimulación.
La psicofísica ha sido definida como "una parte de la psicología experimental que
investiga las correlaciones y regularidades entre la intensidad y la calidad del estímulo,
por una parte, y la percepción y los juicios acerca de ella, por otra; es decir, investiga la
vida de relación del organismo (especialmente el humano) con su medio físico concreto y
los juicios que forma el hombre acerca de estas percepciones" (Mankeliunas, 1980).
Según el mismo autor, el problema central de la psicofísica es el de establecer las
relaciones cuantitativas existentes entre la presentación del estímulo (input sensorial) y
la magnitud de la reacción (output) por parte del organismo afectado. La investigación de
estas relaciones (input-output) hizo inevitable el desarrollo de una variada y precisa
metodología, que permitiera abordar experimentalmente los aspectos implicados en el
proceso perceptivo. Posteriormente, estos procedimientos fueron aplicados a otros
contextos de la psicología, por ejemplo, a la elaboración de escalas de actitudes, de
39
intereses, etc. En este sentido, es preciso reconocer a la psicofísica el mérito de haber
abordado científicamente algunos problemas relativos a la percepción, sustituyendo la
especulación metafísica, predominante en aquella época, por la búsqueda de relaciones
funcionales entre lo físico y lo psíquico.
Como señala Day (1969), los métodos psicofísicos representan un vehículo de
investigación, de manera precisa, que permite cuantificar cuatro tipos básicos de
comportamientos perceptivos: la detección, la discriminación, el reconocimiento y la
estimación. En la actualidad, la psicofísica tiene como objetivo estudiar los procesos que
median de lo objetivo a lo subjetivo, de lo físico a lo psíquico, en otros términos, el
estudio de los factores intervinientes en la comunicación del individuo con su medio
físico y sociocultural.
5.2. EL MODELO DE LA PSICOFISICA CLASICA
Siguiendo a Mankeliunas (1980), conviene diferenciar el modelo físico, al que recurrió
Fechner en su psicofísica, de otros modelos como el fisiológico o el cibernético.
El modelo físico expresa una relación lineal y se esquematiza del modo siguiente:
En el que A señala las relaciones funcionales directas de cuyo estudio se ocuparía la
psicofísica interna, mientras que B indica las relaciones funcionales indirectas estudiadas
por la psicofísica externa desarrollada por Fechner.
El modelo fisilógico es más completo (multidimensional), ya que en él se relacionan
todos los factores que intervienen en la percepción del estímulo. Gráficamente se
40
representa así:
En este modelo a cada relación le correspondería las siguientes disciplinas: A) Fisiología,
B) Psicofísica pura, C) Interdisciplinar.
Los modelos cibernéticos consisten en una representación formal de los factores
intervinientes entre la emisión de la información, su codificación y las respuestas
adaptativas del organismo. Un ejemplo de estos lo constituye el modelo de
Procesamiento de información, que Neisser (1967), caricaturiza de este modo:
5.3. LA MEDIDA DE LA SENSACION: LOS UMBRALES
El problema en torno a la medición del valor de la sensación no tardó en manifestarse.
En efecto, puesto que la intensidad de la sensación sólo es accesible al sujeto que la
experimenta y no puede ser observada directamente desde el exterior, se impuso la
necesidad de encontrar una unidad de medida de la sensación, que se mantuviese
41
estable en diferentes procesos sensoriales. En el intento de abordar experimentalmente
la cuantificación de la sensación se partió de la idea de 'umbral absoluto' (UA), entendido
como la mínima cantidad de estímulo requerida para que surja una sensación en el
sujeto. A pesar de promediarse las diferencias individuales provocadas por la fatiga,
atención, entrenamiento, etc, ésta unidad (UA) variaba considerablemente según el
rango de magnitud de la energía del estímulo, por lo que se propuso la obtención de una
medida que expresase la sensibililidad diferencial correspondiente a la variación de la
intensidad del estímulo dado. Así, Weber (véase también cap. 3), al no hallar una fórmula
de medida absoluta (directa) de la sensación, se orientó hacia un modo indirecto
(relativo), llegando al concepto de 'umbral diferencial' (UD), basado en la diferencia
mínima perceptible (DMP), definido como el incremento (o decremento) que ha sido
preciso añadir (o substraer) para que el sujeto informe de un cambio en la magnitud
sensorial.
Weber, a partir de sus investigaciones observó que la relación entre el incremento que
da lugar a una DMP y la magnitud de estímulo era constante: ΔM / M = K (DMP). Es decir,
que la percepción de la diferencia se relaciona directamente, no con la magnitud
absoluta del incremento en estímulo, sino con la razón entre dicho incremento y la
magnitud del estímulo de comparación (estandar). Sin embargo, en los rangos extremos
de magnitud del estímulo, esta constante no era proporcional.
El método utilizado por Weber consistía en variar sistemáticamente las propiedades
físicas manipulables del estímulo y registrar los informes que daba el sujeto sobre los
cambios de sensación experimentados a consecuencia de los cambios en el estímulo. Ello
le permitía obtener una medida cuantitativa que ponía en relación fenómenos físicos y
psíquicos. Hay que hacer constar, que para los elementaristas (Wundt, Titchener, etc.)
este tipo de informe constituía lo que denominaban 'error del estímulo', aspecto que
había que evitar entrenando a los sujetos en un tipo de introspección que debía de
describir meramente las cualidades subjetivas de la sensación.
Fechner (véase cap. 4, subapartado 4.2 Fechner) consideró subjetivamente equivalentes
todos los umbrales diferenciales y, en consecuencia, el cambio en la sensación podía
obtenerse a partir de la constante de Weber: ΔS= K . (ΔM / M), que mediante una
42
transformación logarítmica se expresa así: S= K. ln M + C, en la que C es una constante de
integración y ln M es el el logaritmo neperiano de la magnitud física del estímulo. Esta ley
de Fechner indica que la intensidad de la sensación es proporcional al logaritmo de la
intensidad del estímulo. En otros términos, predice que si la intensidad del estímulo crece
en progresión geométrica, la intensidad de la sensación crece sólo en progresión
aritmética.
En un experimento anterior a la publicación de la obra de Fechner, Plateau trató de
relacionar la luminosidad de una superficie con la función de potencia de la fuente
luminosa, lo cual sirvió de base a S.S Stevens (1957) para formular teóricamente y
verificar empíricamente su ley de potencia (The power Law), siendo este autor un ilustre
representante de la psicofísica actual o psicofísica subjetiva.
5.4. METODOS PSICOFISICOS CLASICOS
Para determinar los umbrales absoluto y diferencial, y verificar sus hipótesis, el propio
Fechner elaboró unos procedimientos experimentales conocidos con la denominación de
métodos psicofísicos clásicos, que fundamentalmente son tres:
- Método de los límites o mínimos.
- Método del error promedio o ajuste.
- Método de los estímulos constantes.
No nos detendremos en su descripción por considerar que existe abundante bibliografía
sobre estas metodologías y remitiremos al lector interesado a cualquiera de los manuales
sobre percepción escritos en castellano que se hallan disponibles en el mercado, tales
como los de Day (1969), Forgus (1972), Ardila (1980), etc. No obstante, señalaremos que
todos ellos permiten obtener una aproximación estadística tanto del umbral absoluto
como del umbral diferencial, si bien el método de los estímulos constantes ha sido el más
frecuentemente utilizado. Para la elección de uno u otro de estos métodos, el
experimentador deberá tener en consideración diversos factores entre los que
destacamos: la disponibilidad de valores continuos o discretos de los estímulos de
comparación, evitación de posibles errores de juicio (habituación, anticipación, etc.), el
tiempo disponible para la recogida de datos, etc. También, resulta preferible la utilización
43
de sujetos no entrenados cuando los resultados vayan a ser considerados representativos
de la población de estudio.
Estos métodos continúan aplicándose, principalmente para establecer la agudeza y
sensibilidad en los juicios de apreciación, de tamaño, forma, posición, intensidad,
movimiento y cualquier otra propiedad de los objetos.
5.5. LAS ESCALAS PSICOFISICAS
Los métodos de construcción de escalas psicofísicas pretenden desvelar la relación
existente entre los continuos físicos de energía del estímulo y los juicios de apreciación
del sujeto.
Fechner fue el primero en desarrollar procedimientos que permitían esclarecer la
relación existente entre la escala física y la escala de sensación. Sin embargo, no sería útil
construir una escala de valores de DMP (diferencia mínima perceptible) acumuladas, en
función de la magnitud del estímulo, y particularmente cuando las DMP se obtienen
indirectamente (como en el método de los estímulos constantes), sino que sería
conveniente disponer de una escala de medición directa, mediante la cual el sujeto
informe sobre el valor de sus sensaciones (Corso 1967, citado por Forgus, 1972).
Entre los métodos directos para la construcción de escalas psicofísicas los más
profusamente empleados son:
a) El método de juicio de categoría, en el que se proporciona al sujeto un conjunto de
categorías (Por ejem., sobre intensidad de un sonido: muy fuerte, fuerte, medio, débil,
muy débil) y debe asignar cada estímulo presentado a una de tales categorías.
b) El método de los intervalos aparentemente iguales, en el que se solicita al sujeto que
distribuya los estímulos, de modo equidistante unos de otros.
También ofrece interés las técnicas metodológicas o procedimientos experimentales
utilizados por Stevens para la construcción de escalas psicofísicas de razón, entre las que
sobresalen:
- La partición continua o equisección, que consiste en calcular el punto en el cual un
estímulo se percibe como la mitad de otro en cuanto a intensidad, frecuencia o cualquier
otro parámetro.
- La construcción de relación, consistente en modificar la magnitud de un estímulo a
44
cierta relación, mitad, cuarta parte, doble, triple, etc.
- La estimación de magnitudes, en la cual el sujeto debe adscribir cada estímulo que se
le presenta a una magnitud, de acuerdo con una secuencia previamente fijada.
5.6. DE LA PSICOFISICA CLASICA A LA CONTEMPORANEA
El principal exponente de esta nueva reconversión de la psicofísica fechneriana es S.S.
Stevens; sin embargo, los antecedentes científicos de la nueva orientación se remontan a
los numerosos trabajos e investigaciones que cuestionaban la ley de Fechner (S= K. ln M +
C). Entre estos sobresale el nuevo planteamiento metodológico esbozado por L.L.
Thurstone en 1929, para estudiar las relaciones entre el estímulo físico y la respuesta
sensorial del sujeto, que él mismo denominó 'psicofísica subjetiva' o dependiente de la
estimación del sujeto sobre una serie de estímulos. Hacia 1930, Richardson y Ross,
investigando con audiciones, observaron una relación exponencial entre las estimaciones
sonoras y la presión sonora (E= R(;I)). En 1936 Stevens se interesó por las escalas
subjetivas de sonoridad, proponiendo una unidad de medida subjetiva de la sonoridad, el
son, definido como la sonoridad percibida ante un tono de 40 dB y 1000 Hz. Demostró la
existencia de una función exponencial entre la sonoridad (S o sensación) y la intensidad
sonora (M de magnitud del estímulo), según la cual: S= K . Mn, en la cual 'n' es la
pendiente que varía según la modalidad sensorial, o expresando dicha relación en forma
logarítmica: S= n log M + log K.
Al adoptar el modelo cibernético, concibe al organismo como un sistema receptor de
información (input) y emisor de información elaborada (output). Según Stevens, el
organismo recibe estimulaciones de continuos físicos, que pueden producir:
* Cambios cuantitativos en el nivel de excitación magnitudes protéticas).
* Cambios cualitativos que implican procesos fisiológicos diferentes o alternativos
(magnitudes metatéticas).
Este autor sólo acepta la validez de las estimaciones numéricas en los juicios de
apreciación directa (construcción de escalas de sensibilidad) y propone su ley de potencia
45
(o ley de Stevens), la cual predice que los cambios en la magnitud del estímulo producen
cambios equivalentes en la sensación. Es decir, a diferencia de la ley de Fechner, ambos
(magnitud del estímulo y sensación) crecen en forma logarítmica.
La ley de potencia de Stevens es una de las que han alcanzado mayor estatus científico
en psicología; puesto que se cumple para otros sistemas sensoriales (visión, tacto),
además del auditivo, así como para otras propiedades del estímulo dentro de una misma
modalidad sensorial (intensidad, claridad, etc.).
La psicofísica subjetiva de Stevens sustituye a la psicofísica objetiva de Fechner, en la
que se relacionan sensaciones con la intensidad del estímulo; mientras que Stevens parte
de las apreciaciones subjetivas para llegar a construir escalas de estimación. La ley de
Stevens, como señala Mankeliunas (1980) fundamenta la posibilidad de medición en
psicología; este autor reconoce que el mérito principal de la psicofísica contemporánea
radica en haber permitido la posibilidad de aplicar el método científico a procesos
simples en forma cuantitativa, siendo posible su extensión a otros campos más complejos
del comportamiento de los organismos.
5.7. DE LA FENOMENOLOGIA FILOSOFICA A LA EXPERIMENTAL
Habíamos expresado al hablar de las raices filosóficas (véase cap. 2, subapartado 2.6 La
fenomenología), que en opinión de Husserl, sistematizador de la fenomenología, el
objeto sólo era accesible a la conciencia, por tanto, el único medio de acceder a las cosas
consistiría en examinar la conciencia humana. De ahí que, como expresa Caparros (1980),
la fenomenología se ocupe de realizar una exploración sistemática y plena de la
conciencia.
Husserl consideraba que el objetivo de la psicología debía ser el estudio de la estructura
significativa y de la función de la conciencia, oponiéndose así al empleo del enfoque
positivista y mecanicista, rechazando el asociacionismo.
Para comprender mejor las vinculaciones entre fenomenología y psicología, Caparrós
(1977) establece la distinción entre:
- Fenomenología filosófica, que trata de llegar a la esencia de las cosas y al
46
conocimiento de la realidad última.
- Fenomenología psicológica, consistente en aplicar el método fenomenológico a los
problemas psicológicos, para describir la conciencia en una situación determinada,
mediante la exploración de la experiecia inmediata.
- Psicología fenomenológica, que es una manera de enfocar, una perspectiva o actitud
ante el estudio del comportamiento humano, que presenta las siguientes características:
* Utiliza el método fenomenológico.
* Tiene como meta la comprensión del hombre en su totalidad.
* Se interesa, fundamentalmente, en la exploración cualitativa de la experiecia
humana.
* Rechaza el empirismo, asociacionismo y reduccionismo.
* Se opone a reducir el objeto de la psicología a la conducta.
* Propone un enfoque holista de los problemas psicológicos.
Las primeras aplicaciones de la fenomenología en psicología tuvieron lugar en el campo
de la percepción. La psicología, desde el punto de vista de la fenomenología, se centra
más en la descripción y acumulación de hechos que en la verificación de hipótesis, es
decir, tiende a adoptar un enfoque científico inductivo, preferentemente al enfoque
hipotético-deductivo.
En general, las teorías psicológicas fenomenológicas, como apuntan algunos autores
(Malapeira, Honrubia y Viader, 1990) fijan la atención en el comportamiento observable
del sistema (input-output) y no postulan hipotéticos procesos internos. En este sentido,
etiquetan a las teorías fenomenológicas con el término 'cajanegristas', en contraste con
las teorías representacionales que, al proponer la existencia de procesos internos con o
sin referente empírico inmediato, consideran como de 'caja translúcida'. Además,
históricamente hablando, las descripciones fenomenológicas cajanegristas suelen
preceder a las que postulan constructos hipotéticos y utilizan variables intermediarias
(caja translúcida).
Desde el punto de vista de la psicología, se entiende por fenómeno todo lo que se
encuentra en la experiencia inmediata, percepción, pensamiento o sentimiento en
cuanto es vivenciado.
47
Entre los psicólogos que aplicaron la perspectiva fenomenológica a los fenómenos
perceptivos podemos citar a Goethe con la publicación de su teoría de los colores en
1810, opuesta a la de Newton. También a principios del siglo XIX, el fisiólogo Purkinje que
se ocupó de la visión combinando la descripción fenomenológica y hallazgos físicos y
fisilógicos con la experimentación; aportó el fenómeno que lleva su nombre (fenómeno
de Purkinje), según el cual, los colores que tienen menor longitud de onda se perciben
durante más tiempo que los de mayor longitud de onda, cuando disminuye la
luminosidad. El mismo J. Müller y el propio Fechner realizaron abundantes descripciones
fenomenológicas.
En el último cuarto del siglo XIX, el fisiólogo Hering, autor de la "teoría de los colores
opuestos", antagónica de la expuesta por Helmholtz (teoría de los tres componentes
Young-Helmholtz), la cual se centraba más en el estímulo (mezclas de colores), que la de
Hering, centrada en la ordenación fenoménica de los colores y la experincia
fenomenológica inmediata.
El psicólogo Stumpf, quien tuvo como discípulos a los tres fundadores de la Gestalt
(Wertheimer, KÖhler y Koffka), el cual diferenciaba la psicología del contenido, como una
parte accesible mediante la fenomenología, de la psicología del acto y funciones, como
propiamente psicológica.
A finales del siglo XIX, se produce otro acercamiento a la fenomenología por parte de
Mach y Külpe, al considerar el espacio y el tiempo como datos experienciales, y no como
una serie de sensaciones puntuales, como sostenían los Wundtianos. También la escuela
de Wurzburg, y en particular Buhler, se aproximó al enfoque fenomenológico.
Especial mención, por su influencia directa sobre la Gestalt, merece la adopción de esta
perspectiva por parte de G.E. Müller y su equipo del laboratotrio de Gottingen (Jaensch,
Katz y Rubin), enfocando su atención sobre los fenómenos perceptivos. Ellos, junto con
los psicólogos de la Gestalt, iniciaron lo que se viene denominando fenomenología
experimental, la cual parte de una descripción fenomenológica de los fenómenos
perceptivos, para aplicar posteriormente las técnicas experimentales que les permitían
demostrar, mediante la experiencia inmediata de los sujetos, la existencia de tales
fenómenos (relaciones fondo-figura, leyes de la percepción, constancias perceptuales,
48
etc.).
La metodología fenomenológica alcanzó con la psicología de la Gestalt su punto
culminante, encontrándose en la actualidad numerosos autores que defienden y
propugnan este enfoque (G. Kanizssa, 1980; etc.).
49
Capítulo VI La dicotomía teórica de base dualista
"No hay concretamente Materia y Espíritu, sino que existe sólamente Materia convirtiéndose en Espíritu"(Theilhard de Chardin, 1962)
6.1. INTRODUCCION
Directamente entroncadas con las raices filosóficas, dos ramas antagónicas jalonan el
recorrido histórico de la psicología de la percepción, denominadas por Anderson y Bower
(1973): línea asociacionista y línea racionalista.
El estudio de los fenómenos perceptivos desde la perspectiva asociacionista pierde sus
remotos orígenes en el pensamiento aristotélico y enlaza con el empirismo británico de
Hobbes, Locke, Berkeley y Hume, vinculándose al asociacionismo de Hartley, James Mill y
John Stuart Mill, para desembocar en el estructuralismo de Wundt, Titchener y G.E.
Müller y el funcionalismo de Willian James. El conductismo la marginó de su campo de
estudio por ser, este campo del conocimiento, accesible mediante el método
fenomenológico y, consiguientemente, no satisfacer los requisitos del método científico
de objetividad y observación pública. Ulteriormente, la temática perceptiva fue rescatada
para la psicología científica por las corrientes neoconexionistas del procesamiento de
información.
Según Anderson y Bower (1973), las corrientes asociacionistas comparten cuatro
metapostulados, dado que vienen a utilizar una metodología común. Estos son:
* Conexionismo: los datos sensoriales se asocian conjuntamente en la mente
mediante la experiencia.
* Reduccionismo o elementarismo: supone que existen ciertos elementos a partir de
los cuales se estructuran los demás y, como consecuencia, las totalidades
pueden ser analizadas y estudiadas a través de las partes constitutivas.
* Sensismo: sostiene que todo conocimiento tiene base sensorial.
* Mecanicismo: las propiedades complejas de las configuraciones pueden describirse,
50
predecirse y explicarse a partir de reglas o principios más simples y aditivos
(ejem. el de asociación).
La línea asociacionista considera que la dirección de los procesos perceptivos,
básicamente, parte de los datos registrados por los organos sensoriales y se dirige hacia
los conocimientos almacenados en la memoria a largo plazo (MLP).
Por otro lado, la línea racionalista se remonta al idealismo platónico, reformulado en el
pensamiento cartesiano, después por Leibnitz y, de nuevo, actualizado en el idealismo
transcendental kantiano y la psicología del acto de Brentano, hasta enlazar con la
psicología de la Gestalt representada por Wertheimer, Köhler y Koffka, para encontrarlo
nuevamente en el constructivismo de Piaget, Bartlett y Neisser.
Contrariamente, la perspectiva racionalista rechaza los cuatro presupuestos básicos
asociacionistas y se fundamenta en sus opuestos:
- Innatismo: que en su concepción moderada sostiene que hay ciertos principios de
la mente disponibles desde el nacimiento, los cuales nos imponen ciertas
estructuras particulares o nos fuerzan a proyectar determinadas
suposiciones sobre la enorme variedad de experiencias sensoriales. Se
opone al conexionismo.
- Holismo: supone que de la totalidad emergen propiedades que no se pueden
deducir de las partes componentes. Se opone al reduccionismo.
- Intuicionismo: defiende que las intuiciones sobre los fenómenos mentales tienen
mayor importancia que los datos sensoriales, ya que las intuiciones
proporcionan acceso inmediato a los datos principales del aspecto
considerado, en tanto que lo sensorial está sujeto a numerosos errores, de
ahí que acepten los datos introspectivos. Se opone al sensismo.
- Vitalismo: abogan por el establecimiento de nuevas leyes que permitan describir las
fuerzas vitales que subyacen a los fenómenos perceptivos. Se opone al
mecanicismo.
La línea racionalista considera que los fenómenos perceptivos arrancan de las
estructuras del conocimiento y se dirigen hacia la verificación de su correspondencia con
los datos.
51
En los sucesivos apartados de este capítulo nos detendremos a sintetizar brevemente
algunas concepciones, hoy ya clásicas, de la percepción que se hallan enmarcadas dentro
de estas dos líneas de pensamiento psicológico.
6.2. EL ESTRUCTURALISMO
El iniciador de la psicología científica, W.Wundt, partió de la aplicación del método de
las ciencias naturales al estudio de los contenidos de la conciencia en el laboratorio de
Leipzig, como anteriormente señalabamos (véase cap. 4, subapartado 4.3). Distinguía tres
contenidos de la conciencia y de ahí el caracter analítico, elementarista y atomista de su
psicología:
* Sensaciones: fenómenos mentales resultantes de la elaboración subsecuente a la
estimulación de los órganos de los sentidos.
* Imágenes: sensaciones experimentadas sin presencia del estímulo ni estimulación
sensorial.
* Sentimientos: emociones referidas al mundo subjetivo.
Según Wundt, las sensaciones se combinan mediante las leyes de la atención y en base
a determinados principios de conexión sensorial (asociacionismo), formando agregados.
Las imágenes procedentes de experiencias previas también forman parte del agregado.
Concebía la percepción como una mera experiencia inmediata o respuesta consciente y
distinguía en la conciencia el campo y el foco, los cuales determinaban los estados de
conciencia, según los contenidos cayesen bajo el foco de la conciencia (apercepción) o
estuviesen fuera de él. Lo que es apercibido es lo que recibe atención, y la apercepción, a
diferencia de la asociación, es activa y organiza los variados datos sensoriales en
totalidades a través de una 'síntesis creativa'. Toda percepción simpre posee un
significado para el sujeto.
Según su discípulo Titchener, el significado surge del contexto formado por las
sensaciones e imágenes, algunas de las cuales forman un núcleo y otras el contexto.
Titchener considera la experiencia como un fenómeno de la conciencia, la cual es la suma
total de los procesos mentales. Para Wundt, la conciencia era un flujo permanente en
52
continua actividad y cambio.
6.3. LA PSICOLOGIA DE LA GESTALT
La Gestalt surgió en Europa como una reacción frente al elementarismo y atomismo del
estructuralismo, en el primer cuarto del siglo XX, centrándose particularmente en el
ámbito de la percepción. Concretamente, su inicio puede fecharse en 1912 con la
publicación de Marx Wertheimer de un artículo sobre el 'fenómeno phi' (movimiento
aparente).
Los antecedentes históricos de la psicología de la Gestalt se encuentran en la
fenomenología de Husserl y en la escuela austriaca de Graz (Ehrenfels y Meinong), estos
últimos añadían un nuevo elemento a las partes, la 'gestaltqualitat. Los representantes
más destacados de esta escuela fueron el antes citado M. Wertheimer, W. Köhler y K.
Koffka.
El término "Gestalt" se traduce literalmente como 'forma'; sin embargo tiene la
connotación de 'estructura configuracional' y define el enfoque adoptado por esta
escuela, que se centró en el problema de la organización perceptual, desarrollando
ingeniosos experimentos y demostraciones originales de numerosos fenómenos
perceptuales. Especialmente, destacaron los principios de organización de modelos
bidimensionales y ofrecieron su interpretación de las constancias del tamaño, forma,
brillantez y color, así como de los movimientos aparentes, partiendo de una descripción
fenomenológica (experiencia de fenómenos), para abordarlos experimentalmente
(fenomenología experimental).
El principio básico de la organización perceptual es que el todo es más que la suma de
las partes, es decir, que las propiedades de la totalidad no resultan de los elementos
constituyentes, sino que emergen de las relaciones espacio-temporales del todo. La
percepción se halla organizada y estructurada de modo innato, concibiendo un
'isomorfismo psico-neurológico' entre la forma subyacente a los procesos
neurofisiológicos y las experiencias perceptuales. Dichos procesos son entendidos como
'campos de fuerza', que interactúan y mantienen un equilibrio del que resulta una
53
totalidad o configuración; al ser un campo una unidad dinámica, el cambio de una parte
modifica a las demás. Este campo perceptivo queda determinado por una serie de leyes
(superiores a la centena) que han sido sistematizadas (Por ejem., Allport, 1955; Forgus,
1972) en un reducido número.
La ley más básica es la referida a la relación figura fondo, la cual conduce a que un
objeto (figura) se destaque sobre un fondo difuso. Además, otras tres leyes afectan a las
totalidades fenomenológicas:
1) Ley de primacía: afirma que el todo es más originario, primario y se manifiesta antes
que las partes.
2) Ley de autonomía: el todo queda determinado por por factores internos más que por
factores externos.
3) Ley de la buena figura (ley de Prägnanz): la percepción se organiza de modo que las
figuras aparezcan lo más simples y ordenadas que sea posible. Esta ley determina la
segregación de objetos o figuras del campo en formas separadas, e incluye a otras
características como la regularidad, simplicidad, simetría, contigüidad, etc.. De esta ley se
derivan otras que han sido clasificadas en dos grupos: intrínsecas y extrínsecas
a) Las intrínsecas actúan al margen de las experiencias pasadas y determinan las
configuraciones mediante los elementos del estímulo. Entre ellas las más conocidas son:
La ley de cierre.
La ley de proximidad.
La ley de semejanza.
La ley de continuidad.
La ley de inclusión, etc.
b) Las extrínsecas son las que pueden producir un percepto basándose en experiencias
previas y actúan cuando las características estructurales del estímulo no están definidas,
como por ejemplo en las manchas del test de Rorschach.
Las constancias perceptivas hacen posible las invariancias en un mundo en el que los
objetos se encuentran en variación, por lo que permiten alcanzar un conocimiento de
objetos estables, lo que otorga a esta propiedad perceptual una función transcendente
en la adaptación.
54
Respecto a la constancia perceptiva, los estructuralistas habían supuesto una
correspondencia puntual perfecta, que relacionaba una sensación con un estímulo
particular (hipótesis de la constancia) y, por consiguiente, un cambio en el estímulo daba
lugar a un cambio sensorial-experiencial. Lo percibido (experiencial) resultaba inferido a
partir del núcleo de sensaciones correspondientes a la imagen retiniana, tras repetidas
experiencias en las que tales sensaciones se asocian a otras, derivándose un aprendizaje.
La interacción inconsciente entre elementos y asociaciones de sensaciones, las cuales
poseen un contexto elaborado que le otorga significado, hacen que la percepción nos
parezca constante, idéntica a pesar de las variaciones sensoriales.
En cambio, para los Gestaltistas, la constancia es primaria, se da en la experiencia
inmediata del perceptor y, por consiguiente, no debe ser algo secundario a explicar, sino
que son los elementos o partes constituyentes los que son puras abstracciones teóricas,
en cuanto no se hallan presentes en la experiencia fenomenológica. En otros términos,
para los estructuralistas los datos primarios son los elementos y lo secundario, obtenido
por aprendizaje asociativo, es la constancia del tamaño, forma, color, etc.; mientras que,
para la psicología de la Gestalt la experiencia fenomenológica de la constancia es el dato
primario organizado y estructurado, los elementos son derivaciones secundarias
segregadas por abstracción.
Finalmente, señalaremos que la Psicología de la Gestalt rechazó el caracter analítico
artificial del introspeccionismo estructuralista; sin embargo, el mismo Köhler admitió
cierto tipo de análisis basado en la experiencia fenoménica.
6.4. OTROS ASOCIACIONISMOS
Los empiristas británicos partían de la premisa de que todo conocimiento se origina en
la experiencia; la mente del recien nacido era una 'tábula rasa', los objetos de la realidad
exterior al incidir sobre nuestros sentidos producían unos elementos básicos (ideas,
impresiones, etc.). El principio organizador de estos elementos, capaz de poner orden en
el caos sensorial era el principio de asociación.
El objetivo común de los diferentes movimientos asociacionistas (elementarismo,
55
estructuralismo, funcionalismo, conexionismo, conductismo, reflexología,
neoconductismo y conductismo mediacional) radica en el hecho de explicar de que modo
las experiencias pasadas influyen en la conducta presente.
La importancia concedida a la experiencia hacía depender la percepción del aprendizaje
(aprender a ver, a oir, a tocar, etc). La experiencia proporcionaba la estructura asociativa
que hacía posible la identificación de objetos. Ahora bien, ¿qué es lo que se debe
aprender?, según los empiristas, el significado de lo que recogen nuestros órganos
sensoriales, a lo cual se opuso la concepción naturalista, considerando que la estructura
fisilógica del ojo y del cerebro debe predeterminar de alguna manera las propiedades de
la experiencia visual. El núcleo del problema se hallaba en demostrar qué nos viene dado
al nacer (innatismo), para lo cual se desarrollaron tres procedimientos experimentales
con el fin de responder con datos empíricos: a) estudios de deprivación sensorial,
especialmente en visón (Gibson, 1969; Hubel y Wiesel, 1963), b) estudios sobre
discriminación visual temprana (Fanz, 1967; Bower, 1966, 1967, 1971), c) estudios que
utilizan técnicas de registro de la actividad de una sóla neurona (Hubel y Wiesel, 1963).
Sin embargo, mediante estos experimetos no se ha evidenciado la situación de caos
sensorial predicha por los empiristas, tampoco permiten afirmar de modo concluyente si
estas funciones son innatas o adquiridas, siendo por tanto la postura más adecuada el
interaccionismo. No obstante, alguno de los experimentos que hacían uso de
implantación de microelectrodos neuronales sugerían que la organización no es
elaborada por la experiencia, en tanto que otros (Blakemore y Cooper, 1970) apuntan,
contrariamente, hacia el papel crítico que debe jugar la experiencia, pudiendo incluso
cambiar la sensibilidad de orientación preferida (líneas en distinta orientación). Por lo
que es posible que, aunque exista cierto grado de sensibilidad a determinadas
características del medio, la especificidad de tal sensibilidad puede modificarse mediante
experiencias tempranas.
La teoría perceptiva del estructuralismo se halla implícita, de algún modo, en las teorías
del aprendizaje, representadas por el conductismo y fundamentadas en los principios de
reforzamiento, discriminación, extinción, generalización y transferencia.
Para el conductismo, la percepción o quedaba reducida al aprendizaje, entendida como
56
aprendizaje discriminativo, y por consiguiente abordable mediante el paradigma E-R, o
en cuanto a los términos mentalistas y de conciencia se refiere, el objeto de estudio
determinaba el método y este no podía ser otro que el fenomenológico. Puesto que, esta
metodología era subjetiva y privada (propia para cada individuo), la psicología no debía
ocuparse de esta temática, por lo que quedó marginado el estudio e investigación de las
experiencias perceptivas vivenciadas por los sujetos humanos. Muy acertadamente,
señala A.Caparros (1977) la paradoja que supone fundamentar el paradigma conductista
en el esquema Estímulo-Respuesta (E-R) y no ocuparse de la naturaleza de estos
términos, ni de sus relaciones con el organismo al que se le aplican.
No omitiremos hacer una breve alusión a ciértos principios conductistas en los que
basan el aprendizaje, por cuanto ha significado en nuestra centuria la hegemonía del
paradigma E-R y las reacciones teóricas que supuso la exclusión de los fenómenos
perceptivos del ruedo psicológico, las cuales trataremos en el próximo capítulo.
* La discriminación. Si disponemos de dos estímulos condicionados que provocan una
respuesta condicionada y uno de ellos es reforzado sistemáticamente, mientras el otro
no, se logrará que la respuesta condicionada se produzca sólo ante el estímulo reforzado
y no se producirá con el estímulo no reforzado. Puede conseguirse tanto la discrimación
de estímulos como la discriminación de respuestas.
* La extinción, consiste en la disminución gradual hasta la desaparición de la respuesta
condicionada, como consecuencia de presentar sólo el estímulo condicionado, sin
acompañamiento del estímulo incondicionado. La resistencia a la extinción será el
número de intentos necesarios para lograr la extinción. La recuperación consistirá en
eliminar los efectos de la extinción.
* Generalización. El efecto de las contigencias sobre la conducta puede extenderse
tanto a través de las condiciones de estimulación sobre las que tuvo lugar el
condicionamiento (generalización del estímulo) como a través de las respuestas que
estaban incluidas en la contingencia. La generalización del estímulo consiste en transferir
una determinada respuesta a distintas situaciones de las que se instauró el
condicionamiento. El grado de generalización del estímulo se establece en función de la
similitud entre el estímulo nuevo y el que fue utilizado en el entrenamiento. La
57
generalización de la respuesta se refiere a la producción de otras respuestas distintas a la
respuesta condicionada original, aunque más o menos parecidas a ésta. La generalización
es el proceso opuesto a la discriminación.
* Transferencia, consiste en la aplicación de procesos que se adquirieron en una
determinada situación a otra más o menos similar. La transferencia puede ser: positiva, si
facilita la segunda tarea, o negativa, si la dificulta. Cuando la transferencia se produce
sobre situaciones anteriormente aprendidas, se llama retroactiva y si se produce sobre
situaciones posteriormente aprendidas, es denominada proactiva.
En definitiva, las teorías del aprendizaje aportan una explicación, basada en algún tipo
de asociación, acerca de los procesos básicos del aprendizaje, que permiten comprender
como se incrementa el repertorio conductual tanto para los procesos perceptivos de una
modalidad específica (visual, auditiva, etc.) como para los procesos perceptivos
intermodales (viso-motriz, auditivo-visual, cinestésico-visual, etc.).
En la actualidad, pocas teorías de la percepción niegan la contribución de los
aprendizajes previos, experiencia, etc., en el fenómeno perceptivo. A excepción de la
teoría de la percepción directa de Gibson, todas las demás aceptan de algún modo una
interacción entre la información sensorial suministrada por los datos del estímulo y los
conocimientos y experiencias almacenados en la memoria. Sin embargo, discrepan unas
teorías de otras sobre qué es innato y qué es adquirido, así como en la importancia que
conceden a la actividad nerviosa periférica (órganos de los sentidos y vías sensoriales) y a
la actividad nerviosa central (cerebro y procesos superiores).
58
Capítulo VII Reacciones teóricas frente al conductismo
"Una vez que la dirección aparece con claridad, cuanto más largo parezca el camino antes conviene empezar a andar." (M. Morón, s. XX)
7.1. INTRODUCCION
Nadie debe sorprenderse por el hecho de que el desarrollo de la historia de la psicología
halla ido inestrincablemente ligado a las vicisitudes de las concepciones de la percepción,
no en vano es la percepción el pilar básico sobre el que se construye el edificio del
conocimiento humano.
El estructuralismo asociacionista había sido derrocado por la concepción formulada por
los psicólogos de la Gestalt y, sin embargo, una nueva escuela también de corte
asociacionista nació y se desarrolló paralelamente a la psicología de la 'forma', el
conductismo americano. Señala Caparrós (1980) que el relevo hegemónico de la
psicología europea por la psicología conductista estadounidense supuso la entrada en
crisis de la temática perceptiva. Ciértamente, las teorías del aprendizaje, cimentadas en
el esquema E-R, habían desterrado el estudio de la percepción al considerar que ésta
debía abordarse mediante el método fenomenológico que, obviamente, era la antítesis
de la objetividad y la observabilidad pública. Sería preciso aguardar hasta que el
imperialismo del paradigma E-R mostrase sus flaquezas, para que la problemática
perceptual, como el ave Fénix, resurgiese de las cenizas a las que había sido relegada. Ello
ocurriría tras la II Guerra Mundial, cuando los últimos apuntalamientos al paradigma
decadente (neoconductismo y conductismo mediacional) agotaban las posibilidades
explicativas de un paradigma que estaba ya transgrediendo sus propias y estrechas
fronteras, lo cual sólo podía desembocar en un cambio paradigmático alternativo, en el
que la percepción tuviese cabida.
Sin pretender minimizar las aportaciones científicas de los conductismos a la psicología,
es menester subrayar la incoherencia y falta de autocrítica, llevada hasta la míopia
59
mental, que como indica Caparrós (1980) supone fundamentar su programa en la
asociación de Estímulos y Respuestas, sin preocuparse por estudiar la naturaleza de tales
estímulos y las respuestas que desencadenan. Los planteamientos teóricos de numerosos
autores (Gibson, Brunswick, Ames, etc.) deben ser entendidos como una clara reacción a
tamaña despreocupación.
No obstante, la pérdida de predicamento del conductismo se manifestó ya en el mismo
planteamiento del neoconductismo y del conductismo mediacional; esta relajación de la
autoridad científica, ejercida en nombre de la elaboración de una ciencia objetiva y
reflejo de su debilidad explicativa, abonó el terreno en el que serían sembradas una
variedad de semillas teóricas que, si bien tratarían de abordar algunos aspectos parciales
de la problemática perceptual, brotarían con tal vigor que haría inadmisible el no
reconocer que la experiencia fenomenológica, en cuanto experiencia que es, debe ser
objeto de estudio de la ciencia psicológica.
En este capítulo abordaremos algunas de las perspectivas teóricas que rebrotaron de
los restos del conductismo, el cual vería así finalizado su liderazgo psicológico. No
obstante, es preciso dejar constancia aquí, de la influencia decisiva, en esta etapa
histórica, de la teoría neurofisiológica de D.O. Hebb (1949) [que será expuesta en el
capítulo 9, relativo a las neurociencias cognitivas]; ya que, la obra de Hebb contribuyó en
gran medida a la aceptación del estudio de la percepción en la ciencia psicológica, al
delimitar las escasas estructuras nerviosas innatas que permiten extraer información del
medio y la importante complementación del aprendizaje en la adquisición del
conocimiento.
7.2. TEORIA DEL CAMPO SENSORIO-TONICO
Esta teoría fue desarrollada por Werner y Wapner (1952) en un intento de integrar, en
las reacciones del organismo frente al medio, determinados aspectos sensoriales y
motóricos. En esta concepción, el término 'sensorial' alude a las propiedades de los
objetos del mundo exterior que son registradas por los sentidos exteroceptivos; mientras
que, el término 'tónico' se refiere a las sensaciones desencadenadas en el interior del
60
organismo y captadas por los receptores interoceptivos. Pretende estudiar la interacción
entre la información proviniente de los estímulos ambientales (exteroceptiva) y la que
procede del interior del organismo percipiente (interoceptiva). Ambos factores deben ser
considerados simultáneamente y no pueden ser analizados separadamente sus
componentes ya que ambos contribuyen a un proceso dinámico total; esta postura
holista los aproxima a la Gestalt. Además, suponen que el organismo tiende a mantener
un equilibrio estable entre la información externa y la interna, de modo que si la
información exterior (del medio) provoca un desequilibrio, o no es coherente con la
información interior, se producirá una alteración en la situación percibida o cambiará la
orientación corporal, o ambas cosas. La teoría del campo sensorio-tónico demuestra su
plausibilidad en el paradigma experimental de percepción de la vertical, experimentos en
los que un sujeto en un cuarto obscuro y un asiento móvil (con posible inclinación) debe
decidir si una varilla fosforescente se halla vertical, o colocarla según su criterio de
verticalidad. Así, puede obtenerse una medida del estado de equilibrio mediante la
diferencia entre la verticalidad estimada y la verdadera vertical. Los experimentos de este
tipo gozan de alto valor ecológico en el entrenamiento de pilotos de aviación o de vuelo
espacial.
Los autores argumentan que la estimulación actúa asimétricamente sobre el organismo,
provocando una desigualdad en el tono muscular de cada hemicuerpo; dicha asimetría
origina una tendencia a percibir la verticalidad de modo diferente, influyendo sobre la
experiencia visual.
Es de destacar que, partiendo de esta teoría, H.A. Witkin y colaboradores (Witkin, 1950,
1962 y 1977) desarrollaron una serie de pruebas correlacionadas con la percepción de la
verticalidad, que aplicaron en amplios grupos de sujetos desde una perspectiva
diferencialista. Inicialmente, Witkin y Asch (1948), idearon una serie de pruebas de
medida: BAT (Body Ajustament Test), RRT (Rotating Room Test) y RFT (Rod and Frame
Test), para comprobar la contribución de los factores posturales (indicadores
gravitacionales) y visuales a dicha percepción. Los datos evidenciaron que cierto grupo de
sujetos (que denominaron Dependientes de campo) hacían uso preferente de los
indicadores visuales, mientras que otro grupo de personas (Independientes de campo)
61
tendían a ejecutar la tarea utilizando referentes posturales o gravitacionales
(kinestésicos), comenzando de este modo la investigación sobre el "estilo cognitivo
Dependencia Independencia de campo", que acabaría por generalizar estas diferencias
individuales, respecto a la percepción de la verticalidad, a otros dominios, primero
perceptivos (Ejem. Embedded Figures Test, discriminación de figuras simples
enmascaradas en figuras complejas), después relacionados con la habilidad en la
resolución de problemas, e incluso con relaciones interpersonales, mecanismos de
defensa preferentemente utilizados, morbidez psicopatológica, etc.
7.3. TEORIA DEL NIVEL DE ADAPTACION
Fue formulada por H.Helson (1959, 1964) y comprende un modelo matemático que
permite determinar si una dimensión o magnitud percibida resulta superior, igual o
inferior al nivel de adaptación del perceptor. El objetivo inicial de esta teoría fue el de
proponer una explicación sobre la percepción del color en distintas condiciones de
iluminación (constancia), incluída la iluminación deficiente.
Esta altenativa teórica parte de la supuesta existencia de una concordancia entre las
propiedades del estímulo y el nivel de adaptación del organismo, que fundamenta la
percepción. Su campo de aplicación preeminente es el de la percepción de magnitudes
físicas del estímulo (tamaño, distancia, intensidad, etc.) y dimensiones cualitativas del
mismo (belleza, etc.). Por ejemplo, cuando pasamos de un lugar muy iluminado a una
sala semiobscura, percibimos esta última sala de modo diferente que si hubiésemos
pasado de un lugar completamente obscuro a ella. La intensidad luminosa de la sala
semiobscurecida es la misma, sin embargo, nuestra percepción inicial es diferente, ya que
depende del cambio de nivel de adaptación. Según esta teoría, el nivel adaptativo se ve
influído tanto por la estimulación inmediata del ambiente como por las experiencias
previas. Así el organismo, en su experiencia pasada, establece una escala que contiene
una zona neutra, la cual cumple la función de "marco de referencia" y, cuando el sujeto
realiza una estimación o evaluación de un estímulo en un contexto, tiene en
consideración, de modo consciente, no sólo los factores fisiológicos (información del
estímulo registrada por los receptores), sino también los psicológicos (marco de
62
referencia según experiencias anteriores).
La teoría de Helson, en cuanto considera la situación molarmente, se aproxima a la
teoría de la Gestalt; sin embargo, diverge de ella en cuanto considera la contribución de
los elementos componentes y se basa en la experiencia (empirismo).
7.4. TEORIA DEL FUNCIONALISMO PROBABILISTICO
Elaborada por Brunswick (1955) e inspirada, por una parte, en el concepto de
incertidumbre estadística, por otra, en el funcionalismo, considerando también que el
organismo realiza una serie de procesos que le permiten adaptarse éxitosamente al
medio. Entiende Brunswick que la percepción consiste en una serie de inferencias
fundamentadas en las pistas que proporciona el medio. Su autor denomina a esta teoría
"funcionalismo probabilístico" porque el percepto viene a ser una aproximación al objeto
percibido, con cierta probabilidad de exactitud, pero nunca con certeza absoluta, como si
de leyes de la física se tratase.
Brunswick justifica el probabilismo de la percepción en su concepción constructivista de
estos fenómenos, basada en las claves informativas que nos llegan del exterior por las
vías sensoriales. El hecho de que se produzcan cambios de orientación y posición, tanto
en los objetos del medio como en el organismo observador, motiva que la reconstrucción
no sea perfecta, por lo que el sujeto percipiente tratrá de aproximarse lo más posible al
objeto, en base a las pistas informacionales.
Esta teoría pusó el énfasis investigador en el fenómeno de las constancias perceptivas,
del tamaño, forma, color, etc.; su autor sostenía que los experimentos de laboratorio
eliminaban el aspecto probabilístico de la información que ocurre en la vida real (validez
ecológica).
Brunswick establece una distinción conceptual entre diversos aspectos relacionados con
el estímulo, de manera que entiende por 'estímulo periférico' el patrón de excitación
fisiológico, denomina 'estímulo proximal' a su correspondiente energía física (luminosa,
acústica, etc.) y 'estímulo distal' al evento a identificar a partir de estas señales. Considera
también una "región central", referida al conocimiento o actividad del perceptor
mediante la cual puede predecir un estímulo distal, basándose en sus representantes
proximales o periféricos y destacó la existencia de diversas fuentes de información
63
válidas, disponibles para inferir los estímulos distales. Este autor concibe un medio
susceptible de influir de diversas maneras sobre el perceptor, según los propósitos de
éste. Contrariamente, el transaccionalismo sugiere que es el perceptor quien externaliza
o proyecta un mundo al que consideramos realidad.
En resumen, Brunswick considera que el mundo exterior nos envía diversas señales
ambiguas, las cuales podemos combinar para anticipar un estímulo distal. Su trabajo se
centraba, primero en hallar el grado de validez objetiva entre estímulos proximales y
distales, eligiendo muestras representativas del medio ambiente natural y, después,
determinaba el grado de eficiencia con que el perceptor utilizaba las señales ambiguas
disponibles.
Las ideas ecologistas del funcionalismo probabilístico fueron asumidas por ciertos
enfoques de la percepción vigentes en nuestros días (Ejem. Gibson, Neisser, etc.).
7.5. TEORIA TRANSACCIONALISTA
Esta teoría está representada por A.Ames, Ittelson y Kilpatrick, concede un valor capital
a la intencionalidad y propositividad del sujeto percipiente y otorga a la percepción una
función directriz de las acciones, de modo que éstas son consecuencia de los propósitos
del perceptor.
El transaccionalismo se inspira en la filosofía de John Dewey y Arthur Bentley, quienes
acuñaron el término "transacción", el cual pretende subrayar que el perceptor y el
mundo son parte de un único proceso circular, en el que los dos interactúan como en una
transacción. Según esta teoría, el organismo identifica los objetos del ambiente mediante
inferencias inconscientes (similar a Helmholtz) en base a los patrones de excitación que
se registran en los órganos sensoriales. En el contenido del transaccionalismo quedan
reflejadas las influencias de la óptica fisiológica, en cuanto se admite que diversos objetos
físicos pueden dar lugar a la misma imagen retiniana, también puede apreciarse el influjo
del funcionalismo de Dewey.
El punto de partida del transaccionalismo, al igual que del funcionalismo probabilístico
de Brunswick, es el hecho de que la información registrada por los órganos sensoriales no
64
se corresponde exacta e inequívocamente con los objetos del mundo, sino que establece
un vínculo ambiguo con diversas configuraciones externas posibles de los objetos. Estos
dos enfoques (transaccionalismo y funcionalismo probabilístico) muestran muchos
puntos en común, a pesar de sus diferencias; así, los dos se centraron especialmente en
las constancias espaciales, señalaron la importancia de los procesos de inferencia,
concedieron un papel relevante a la percepción interpersonal y ambos coinciden en
subrayar los problemas conceptuales contenidos en los términos de estímulo y
respuesta, así como en conceder importancia a las relaciones organismo-medio desde
una postura ecologista.
Según Dewey y Bentley, la percepción y el conocimiento son procesos y, por
consiguiente, tienen duración. Percibir es una forma de acción, en la que los datos
sensoriales son consecuencia de una transacción, son parte del conocimiento humano
del mundo. Para ellos, la transacción es una forma de considerar las cosas dentro de un
contexto.
A. Ames (1955) se ocupó, principalmente, de ofrecer pruebas demostrativas de que la
percepción es un proceso de transacción, es decir, dejar patente que los contenidos del
ínput sensorial, por sí mismos no son informativos, sino que la percepción se basa en la
utilización de tales señales junto con las suposiciones y estimaciones (inferencias) del
perceptor; por consiguiente y de modo contrario a Brunswick, que consideraba la
percepción orientada objetivamente, acentuaba los aspectos subjetivos de la misma,
sosteniendo que creamos nuestro propio mundo. Dichas demostraciones consistían en
establecer una situación, en la que era posible determinar como reacciona y se adapta el
perceptor cuando no se verifican su presuposiciones, lo cual implica mantener constantes
algunas variables situacionales y modificar otras. Así llega a la conclusión de que en las
constancias perceptivas, en efecto algún aspecto permanece invariable, pero otro u otros
siempre varían. Por ejemplo, la percepción del color blanco es constante en diferentes
condiciones de iluminación, sin embargo, varía la luminosidad. La percepción es
entendida como un compromiso, una transacción entre el perceptor y su medio, de ahí
que lo percibido ni se basa exclusivamente en la imagen retiniana ni es totalmente
constante. Y las ilusiones perceptivas vienen a ser el coste a pagar por las constancias.
65
7.6. TEORIA DEL ESTADO DIRECTIVO Y LAS EXPECTATIVAS
Durante la década de los años 50, los psicólogos de la denominada "New look",
representados por J. Bruner y L. Postman, hicieron recaer el énfasis en el estudio de los
fenómenos perceptivos, no sobre los aspectos relativos al estímulo (como lo habían
hecho los antecesores: psicofísica, estructuralismo, Gestalt, etc.), sino sobre ciertas
variables que determinan la personalidad del organismo, a saber: experiencias previas,
necesidades, intereses, motivaciones, sistema de valores, prejuicios, tendencias,
actitudes, etc. Fue F.H. Allport (1955) quién bautizó este enfoque como teoría del estado
directivo, en cuanto que las variables de personalidad expresadas dirigían las
experiencias perceptivas. Al considerar que la interacción del organismo con su medio
social era la responsable de tales experiencias perceptivas, reaccionaban frente a la
concepción pasiva de la percepción implícita en el asociacionismo y gestaltismo,
atribuyendo un papel más activo al sujeto perceptor.
Según Bruner y Postman (1949), la percepción se fundamenta en dos factores
diferenciados que interactúan:
i) Los estructurales o autóctonos, que vienen establecidos por los estímulos, siendo
consecuencia de la impresión de dichos estímulos sobre los receptores y órganos
sensoriales. Estos factores son innatos en el individuo, resultan inmodificables y son los
que con mayor profusión habían investigado las anteriores concepciones de la
percepción.
ii) Los conductuales, que tienen su origen en los procesos superiores y determinan otros
aspectos no cognitivos englobados bajo el término de personalidad, como los motivos,
actitudes, necesidades, etc. Estos factores son los que dirigen la percepción selectiva, de
modo que el resultado no es atribuible, exclusivamente, a las propiedades del estímulo,
sino que el individuo considerado como una totalidad está implicado en cada acto
perceptivo.
Bruner y colaboradores (1956) llegaron a considerar la percepción como un proceso de
categorización, de asignación de objetos a clases, si bien la disposición del individuo
66
genera unas expectativas o hipótesis y, posteriormente, las contrasta con la realidad, de
manera que alguna de ellas resulta confirmada y otras son rechazadas. Su teoría afirma
que cuanto más fuerza cobra una hipótesis, mayor será la probabilidad de que sea
activada en una situación determinada y menor será la cantidad de información acerca
del estímulo que se requiere para activarla.
Esta teoría tiene el mérito de haber puesto de relieve la importancia de los factores
sociales y motivacionales en los fenómenos perceptivos y viene a cubrir una de las
lagunas existentes en las teorías de la percepción, concretamente, la consideración
conjunta de factores estimulares, cognitivos y de personalidad, objetivo final que debería
cubrir una teoría de la percepción completa.
67
Tercera parte ALTERNATIVAS TEORICAS ACTUALES EN LA PERCEPCION
68
Capítulo VIII Procesamiento de información
"No pensemos que estamos reduciendo al hombre a la categoría de máquina. Admitamos más bien que estamos elevando a las máquinas al nivel del hombre". (Michael A. Arbid, 1964)
8.1. INTRODUCCION
Por ser la percepción una función que transcurre en el tiempo, es decir, que tiene
duración, puede considerársela un proceso. Es por ello que ciertos autores (Forgus, 1972)
han definido la percepción como "un proceso mediante el cual un organismo recibe o
extrae cierta información acerca del medio" (pag.11, trad. cast.)
Neisser (1976), tras desechar la concepción del "homúnculo" que interpreta la imagen
retiniana, describe en términos generales los modelos propuestos desde la perspectiva
del procesamiento de información (que no comparte) indicando que los procesos, que
conducen al procesamiento de la imagen, se inician en determinadas estructuras del
sistema visual denominados frecuentemente "detectores", los cuales desencadenan
mensajes neurales (bioeléctricos) como respuesta a las características específicas de la
imagen, transmitiéndose así hasta los centros superiores, en los que la información,
sometida a nuevos procesos, será comparada y combinada con otra información
anteriormente almacenada, dando lugar a la experiencia perceptiva. Estos modelos de
procesamiento de información, que en su opinión presentan insuficiencias,
especialmente derivadas de la concepción lineal que subyace) los esquematiza del
siguiente modo:
69
Por otra parte R.G.Crowder (1982) postula una serie de estadios de procesamiento de
información, que deben intervenir necesariamente para hacer posible el reconocimiento
de patrones. Estos, representados esquemáticamente son:
Keating y Bobbitt (1978) intentaron mostrar la validez de constructo de las operaciones
componentes (procesos), que supuestamente subyacían en las diversas tareas de
procesamiento de la información. Para ello, propusieron una secuencia de procesos
componentes básicos de cuatro etapas: a) codificación, b) operación, c) decisión binaria,
y d) ejecución de la respuesta. Asignaron distintos parámetros de las tareas de
procesamiento de la información a una o más de las cuatro etapas secuenciales y luego
correlacionaron, a través de distintas tareas, los valores de esos parámentros obtenidos
por cada uno de los sujetos. Su hipótesis consistía en que las variables que
presumiblemente implicaban etapas comunes de procesamiento mostrarían
correlaciones más elevadas que otras que no tuvieran ninguna etapa en común. Los
resultados confirmaron sus predicciones obteniendo unas correlaciones intervariables de
.66 y .30 respectivamente. Concluyen que estos hallazgos revelan la existencia de
operaciones básicas de procesamiento de información que son cubiertas por diferentes
70
tareas, pero que además existe un factor general de velocidad que se reflejaba en las
correlaciones significativas, entre variables sin etapas comunes.
8.2. MODELOS DE PROCESAMIENTO SERIAL
S. Sternberg (1966, 67, 69 y 75) elaboró un modelo lineal concibiendo la mente como
un procesador serial y discreto. Según este modelo serial, el acceso a los ítems de
memoria supone una búsqueda entre varias localizaciones de almacenamiento, hasta
que se obtenga un emparejamiento entre el ítem almacenado y el ítem de prueba. Estos
procesos de recuperación los considera secuenciales, produciéndose resultados según la
ley de todo o nada, a partir de los cuales el proceso de decisión podrá emitir una
respuesta binaria (si/no). Por consiguiente, según este modelo la variabilidad de las
latencias, en función de las condiciones experimentales, se determina en los procesos de
recuperación-comparación, ya que cuanto más al final de la serie de memoria se halle el
ítem crítico, mayor número de operaciones de búsqueda y comparación se requieren.
El método utilizado por S.Sternberg (1969) ha servido para evaluar la facilidad con la
cual los sujetos pueden realizar una búsqueda en la MCP, utilizando un paradigma
experimental de "búsqueda en MCP". En éste, los sujetos memorizan una serie formada
por un número x de ítems, y luego se les presenta un ítem simple de prueba, debiendo
indicar el sujeto si éste último formaba parte o no de la serie anteriormente memorizada.
La variable dependiente principal es el TR. Sternberg encontró que el TR era una función
lineal creciente del tamaño de la serie de aprendizaje (38 msg. aumentaba el TR por cada
ítem añadido). Como consecuencia, concluyó que la "búsqueda y recuperación en MCP
era serial.
Los dos parámetros asociados a la ecuación de la recta que relaciona el número de
ítems memorizados (x) con el TR, ésto es, la pendiente de la recta y su punto de
intersección con la ordenada, sirven de valor estimado de varios procesos componentes.
a) La pendiente es considerada como medida de la velocidad con la cual pueden
buscarse y recuperarse contenidos en la memoria.
b) La ordenada en el origén refleja la duración combinada de otros procesos
71
componentes (identificación, decisión, respuesta, etc.).
Sternberg concluyó que la recuperación de información en MCP era secuencial y
exhaustiva, es decir, que el sujeto compara todos los ítems de MCP de uno en uno. Si
bien el modelo de S. Sternberg (1969) tuvo una gran vigencia en la década anterior, no se
tardó mucho en demostrar las insuficiencias que presentaba esta concepción de la mente
como un sistema de procesamiento discreto y lineal, por lo que fue altamente
cuestionado. Así, a) se le reprocha haber empleado las medias de los TRs, cuando se ha
demostrado la variabilidad de éstos incluso en idénticas situaciones estimulares; b) no se
verifican las predicciones temporales para los procesos de búsqueda y comparación, en
situaciones de sobrecarga de la MCP; c) no permite interpretar el efecto de la similitud
entre el ítem de prueba y los ítems de memoria; d) no advierte la existencia de una
relación inversa entre precisión y velocidad de la respuesta; e) se contradice con las
investigaciones que demuestran la relación entre confianza (seguridad en la respuesta) y
TR; f) no considera la influencia de la posición serial de los ítems de prueba.
El primer análisis cronométrico de los niveles de procesamiento fue realizado por
Posner (1969). La tarea orientadora consistía en presentar al sujeto, visualmente, dos
72
letras; y éste debía responder si eran iguales o diferentes, registrándose el tiempo de
respuesta. Los juicios de similitud podían presentar tres modalidades:
Igualdad física (Ej.: AA ó aa)
Idéntico nombre (Ej.: Aa ó Bb)
Igualdad semántica (Ej.: dos letras consonantes)
Los resultados obtenidos evidenciaron unas diferencias del orden de 70-100 msg., entre
dos modalidades consecutivas, a medida que nos alejamos de la igualdad física. Y fueron
interpretados desde el punto de vista de los niveles de procesamiento, distinguiendo tres
niveles, que de menor a mayor cantidad de tiempo de procesaminto requerido son:
codificación de rasgos físicos, codificación fonética y codificación semántica.
Este segundo paradigma experimental permitió obtener una evaluación bastante
directa de la cantidad de tiempo requerido para recuperar el nombre de un ítem familiar
de la MLP. Se considera que la diferencia entre el TR de emparejamientos con "identidad
nominal" (IN) y el TR de emparejamientos con "identidad física" (IF), indica el tiempo
requerido para recuperar el nombre (o nombres) de las letras de MLP.
En la línea de los molelos seriales, es preciso hacer mención del modelo final de
Sperling, dejando constancia de que, si bien ha sufrido últeriores modificaciones 'ad hoc',
en lo fundamental sigue siendo un válido exponente de los modelos de procesamiento
visual verbal que denominaremos 'letra a letra'.
Dentro del campo de la memoria y situándonos en el clásico paradigna experimental 'de
informe parcial', empleado por Sperling (1960, 1963), resumiremos el funcionamiento del
modelo que esquemáticamente exponemos aquí.
73
La información expuesta al sujeto en el taquistoscopio es registrada en el almacén
icónico, el cual posee gran capacidad de recuerdo, pero una duración muy breve (250
mls. aprox.). Sobre el icón tiene lugar un rapidísimo proceso de exploración que culmina
al relacionar esta huella con las categorías anteriormente almacedas en el 'Reten de
reconocimiento'. La información se 'refresca' (reactiva), ordinariamente, mediante un
proceso de repetición subvocálica, codificándose esta en base a sus características
fonéticas. El bucle de exploración puede tener lugar mientras dura el icón, sin embargo,
el bucle de repetición puede prolongarse si el sujeto se lo propone. Pensemos, por
ejemplo, en el número telefónico visualizado rápidamente y repetido sin cesar, hasta que
efectuámos el marcado.
Por último, Forgus (1972) entiende que la percepción implica una serie de etapas
ordenadas crecientemente según el grado de complejidad. Este autor se muestra de
acuerdo con el modelo serieal de Sternberg (1969) que propone, para el reconocimiento
de la identidad del estímulo, la existencia de "una progresión temporal de etapas durante
las cuales se logra la transformación sucesiva de la estimulación proximal sobre el
receptor sensorial". Tampoco excluye, de modo acorde con Neisser (1967), que estas
74
sucesivas transformaciones de la información tengan como consecuencia,
frecuentemente, una construcción activa de la información del estímulo, en lugar de una
decodificación pasiva de la información del medio.
El modelo que propone Forgus lo representa en el siguiente diagrama de flujo:
Como puede observarse, para Forgus (1972), el proceso perceptivo comienza con el
proceso de "transducción sensorial", mediante el cual ciertos mecanismos del sistema
nervioso traducen la información física del medio en mensajes informativos inteligibles
para los centros superiores cerebrales. Esta etapa impone una selectividad de la
información atribuible a la sensibilidad de los receptores sensoriales, para captar
preferentemente determinado conjunto de energía física. A continuación, tiene lugar el
registro de la información sensorial, durante un lapso en torno a los 250 msg., en el
almacen sensorial (Sperling, 1960) o memoria icónica (Neisser, 1967). Dada la corta
duración de esta memoria retiniana, parte de la información será tranformada y
transferida a la MCP (memoria a corto plazo). Dicha memoria tiene también algunas
limitaciones en cuanto a la amplitud de capacidad (7 ± 2, según Miller, 1956) y a la
duración (alrededor de 30 seg.); sin embargo, mediante repetición voluntaria puede
prolongarse la activación de dicha información. También puede producirse una
recodificación en "chunks" (trozos o unidades de almacenamiento; Miller, 1956), que
pueden abarcar unidades más amplias (por ejem, recodificar letras en sílabas, o sílabas
en palabras, etc). Posteriormente, la información es transferida al almacen a largo plazo
75
(MLP), en la que resulta integrda según una peculiar organización que permite la rápida
recuperación de la misma. El proceso culmina cuando el sujeto emite una respuesta
motriz, por ejemplo, pronunciar el nombre del objeto reconocido.
Destaca Forgus la bidireccionalidad del flujo de información, representada en el
esquema expuesto, mediante flechas que señalan en ambas direcciones. Como vemos,
este modelo se fundamenta en la teoría multialmacen de la memoria y en una
concepción secuencial del procesamiento.
8.3. DISTINCIONES CONCEPTUALES EN MODELOS DE PROCESAMIENTO
Los numerosos modelos de procesamiento de información que, a lo largo de la joven
historia de esta perspectiva, se han ido proponiendo para explicar el sistema cognitivo
humano, se derivan de diferentes modos de concebir las propiedades y características de
éste, las cuales han planteado abundantes discusiones en torno a varias importantes
distinciones. Entre las que resaltamos por su influencia teórico-metodológica éstas tres:
I) La distinción autoterminada versus exhaustiva para el proceso de decisión.
Ordinariamente, se han considerado dos procedimientos o maneras de llevar a cabo la
decisión:
- Autoterminada. En los ensayos positivos, se detiene el procesamiento cuando se ha
alcanzado evidencia suficiente, durante el proceso de comparación de un ítem,
generándose la respuesta "si". En los ensayos negativos, se genera la respuesta "no",
cuando todos los procesos de comparación se han agotado y no se ha encontrado
evidencia suficiente en ningún ítem.
- Exhaustiva. Cuando el sujeto compara todos los ítems de la serie de memoria antes de
emitir una respuesta afirmativa o negativa.
Desde una concepción de la mente como un procesador discreto y lineal (modelo
lineal), se han utilizado dos técnicas para evidenciar empíricamente si la decisión binaria
de la respuesta se ejecuta de forma exhaustiva o autoconclusiva (S.Sternberg, 1969).
* Si se obtienen diferencias significativas entre los TRs de los ensayos positivos y
76
negativos, para una determinada serie de reconocimiento, siendo mayor la latencia en
los negativos que en los positivos, se concluye que la decisión es autoterminada. Si no
hay diferencias significativas, se considera que es exhaustiva. La lógica del procedimiento
reside en el hecho de que en los ensayos negativos, el sujeto debe explorar
secuencialmente todos los estímulos almacenados en MCP, en tanto que en los ensayos
positivos sólo se exploran parte de ellos, hasta que se descubre el estímulo crítico,
finalizando en este momento el procesamiento.
* Si, al modificarse la posición serial del estímulo crítico, se obtienen diferencias
significativas en los TRs de diversos ensayos de una serie de reconocimiento compuesta
por un número fijo de ítems, en el sentido de que es mayor la latencia cuando el ítem
crítico está hacia el final de la serie, entonces la decisión se considerará autoterminada.
Por el contrario, la decisión será exhaustiva cuando los TRs son constantes,
independientemente del lugar que ocupen.
Desde una concepción de la mente como un procesador continuo y probabilístico
(modelo en paralelo), Ratcliff (1978) considera que la latencia de la respuesta depende
del solapamiento de atributos entre el ítem de prueba y el ítem de memoria. Según su
modelo, comienzan a la vez tantos procesos de comparación como estímulos haya en la
serie. Cada coincidencia (solapamiento) suma una unidad en un marcador y las no
coincidencias restan otra. Finaliza este proceso de difusión cuando se alcanza un umbral
A (de más "x" puntos), que corresponde al número de características coincidentes entre
el ítem de prueba y el de la serie de memoria (ensayos positivos), o bien un umbral B (de
menos "y" puntos), cuando se alcanza una determinada cifra de características no
coincidentes (ensayo negativo). Concluye éste autor que en los ensayos positivos la
decisión es autoterminada, en tanto que en los negativos es exhaustiva.
II) La distinción serial versus paralelo, respecto al tipo de procesamiento que tiene lugar
en el sistema cognitivo humano. Según los modelos seriales, los procesos que intervienen
en la ejecución de una tarea cognitiva (por ej., reconocimiento verbal visual), tiene lugar
de modo estrictamente secuencial, ejecutándose un sólo proceso en un determinado
tiempo. Desde los modelos de procesamiento en paralelo, se asume que operan
simultáneamente múltiples procesos, siendo posible (aunque no necesariamente)
77
ejecutar procesos hacia atrás o hacia adelante, sin ningún orden de precedencia.
Esta distinción es fundamental a la hora de interpretar los TRs (Pachella, 1974); ya que,
si varios procesos tienen lugar a la vez, el significado del TR no puede indicar la duración
de un proceso determinado.
III) La distinción discreto versus continuo, se refiere a la naturaleza de la información
acumulada y transmitida mediante procesos mentales. Algunos modelos suponen que el
procesamiento progresa a través de un número finito de estados discretos internos, los
cuales representan crecientes grados de especificidad. Cuando se alcanza el último de
tales estados, los procesos pueden producir un output, consistente en un simple paquete
de información (a modo de 'quantos'), o incluso varios paquetes intermedios en el curso
del procesamiento, cuya transmisión se realiza separadamente unos de otros. Este modo
de transmisión de información sigue un modelo discreto. Por el contrario, otros modelos
suponen que el procesamiento progresa a través de rangos continuos de estados
internos, los cuales corresponden a una gradual acumulación de información o de
activación en el tiempo. En este caso, el output puede consistir, bien en un continuo flujo
de información (modelo continuo), o bien en un simple output discreto tras alcanzar
cierto umbral.
Esta distinción, obviamente, también repercute directamente sobre la interpretación
del TR.
La combinación de las modalidades de procesamiento "serial" o "paralelo", junto con
los tipos de transmisión "discreto" o "continuo", permite establecer una taxonomía que
facilitará el estudio y la comprensión de una variedad de modelos de procesamiento de
información, tales como: el modelo serial-discreto de Sternberg (1969), el modelo de
procesamiento en paralelo y discreto de J.Miller (1982), el modelo paralelo-continuo o de
"procesamiento en cascada" de McClelland (1979), el modelo de "difusión estocástica"
de Ratcliff (1978, 1988). En el punto siguiente nos haremos eco, sucintamente, de
algunos de éstos modelos.
78
8.4. MODELOS DE PROCESAMIENTO EN PARALELO
A consecuencia de las numerosas críticas surgidas, a finales de los años 70 y durante la
década de los 80, en torno al modelo serial, han ido apareciendo en escena diversos
modelos alternativos que dan por supuesto el procesamiento en paralelo. Destacarémos
aquí las aportaciones de Ratcliff (1978 y 1988), quien presentó un modelo probabilístico
que considera la mente como un procesador simultáneo, elaborando una versión
continua de procesamiento de información (Stochastic Diffusion Model), el cual permite
una explicación más plausible del balance rapidez-precisión que el modelo serial-discreto
de Sternberg. Ratcliff, desarrolló matemáticamente su modelo y ofreció una explicación
intuitiva de los procesos de comparación, basada en la metáfora del "diapasón". Para
comprender esta metáfora ha de tenerse en cuenta que un diapasón produce mayor o
menor resonancia sobre los otros diapasones según el grado de semejanza, en cuanto a
tono.
Para Ratcliff, las latencias de respuesta dependen del solapamiento de atributos entre
el estímulo de prueba y los estímulos de memoria. Según su modelo, al presentarle al
Sujeto el estímulo de prueba comienzan, a la vez, tantos procesos de comparación como
estímulos haya en la serie recien aprendida. Cada coincidencia (solapamiento) suma una
unidad en un marcador y las no-coincidencias restan otra, produciéndose un proceso de
difusión que su autor representa como una gráfica de "recorrido al azar". El proceso de
difusión finaliza, si el ensayo es positivo, cuando se alcanza un umbral superior de cierto
número de puntos (correspondientes al número de coincidencias entre el ítem de prueba
y el de la serie de memoria). O bien, si el ensayo es negativo, cuando se alcanza un
umbral inferior, que expresa una determinada cifra de no-coincidencias. En resumen,
aquí el proceso de búsqueda-comparación se realiza en paralelo, es decir, de manera
simultánea en todos los ítems de la serie. Ello implica, que los TR's de las distintas
posiciones seriales ocupadas por el ítem crítico deberían ajustarse a una función
constante (horizontal al eje de abscisas) específica para los diferentes tamaños de la serie
de memoria. El modelo estocástico de difusión explica la compensación rapidez-precisión
como un ajuste al nivel base inicial de fuerza de la respuesta y a la separación entre los
umbrales de respuesta (emparejamiento, no-emparejamiento).
79
En el siguiente gráfico puede observarse la relación entre la velocidad y el número de
coincidencias (solapamiento) en la difusión del procesamiento.
Al comparar Sternberg las latencias entre ensayos positivos y negativos, observó que
eran similares, por cuanto interpretó que, en ambos casos, se exploraban todos los
estímulos de la serie antes de emitir la respuesta (decisión exhaustiva). Es decir, que el
sujeto compara todos los estímulos de MCP de uno en uno.
Sin embargo, para Ratcliff (1978) si en uno de los procesos de comparación, que tienen
lugar a la vez, se alcanza el umbral superior (suficiente número de coincidencias),
finalizan las comparaciones de los restantes estímulos y se genera la respuesta
afirmativa. Mientras que, en los ensayos negativos, la respuesta "no" es generada cuando
no se ha obtenido suficiente evidencia (se alcanza el umbral de no-coincidencias) tras la
comparación de todos los estímulos. Concluye, por consiguiente, que en los ensayos
positivos la decisión es autoterminada, en tanto que en los negativos es exhaustiva. Y
basa la explicación de la no existencia de diferencias significativas entre las latencias de
ensayos positivos y negativos en términos de posición del criterio en el proceso de
decisión, ésto es, en el hecho de que se requiere reunir más evidencias (coincidencias)
para alcanzar el el límite superior que para el límite inferior (no-coincidencias) (Ratcliff,
1985).
En resumen, Ratcliff (1978) elaboró un modelo de recuperación de información en MCP,
que supera las deficiencias del modelo de Sternberg, fundamentándose en una
80
concepción totalmente opuesta a la anterior, puesto que considera que la búsqueda en
MCP es un proceso realizado en paralelo y es autoterminada. Donde el proceso de
comparación se realiza en paralelo, es decir, de manera simultánea en todos los
estímulos de la serie de memoria.
Rumelhart y Siple, en 1974, aportaron un modelo de reconocimiento de patrones, que
el propio Rumelhart (1977) describe así:
"Cuando una señal compleja queda registrada en el icono un banco de analizadores
de rasgos comienza a procesar la imagen. Los rasgos extraídos de la imagen son la
entrada al sintetizador de modelos. El cual también recibe como entradas las
expectativas del sistema, al mismo tiempo que la entrada de los rasgos. Luego produce
como salida alguna representación reconstruída de la meta de entrada que luego se
pasa a la memoria. El sistema de memoria, a su vez, utiliza tanto la entrada inmediata
como el conocimiento permanente almacenado para determinar un nuevo conjunto de
expectativas" (pag. 89, trad. cast.).
Estos autores suponen que el sintetizador de modelos (mecanismo) opera combinando
la información de rasgos con las expectativas previas.
Según el modelo de "procesamiento en cascada" de McClelland (1979), varios procesos
pueden iniciarse simultáneamente, transmitiéndose un flujo continuo de información, en
forma de una creciente "propagación de la activación". Cuando se presenta al sujeto un
estímulo, el nivel de activación se va incrementando, a través del sistema global, hasta
alcanzar un umbral, que genera una respuesta disponible para ser emitida por el sujeto.
Este modelo lo representa McClelland como sigue:
81
Este modelo supone la invalidación del método sustractivo de Donders, según el cual la
diferencia entre los TRs de dos tareas, que sólo difieren en el requerimiento de un
proceso adicional, constituye una medida de la duración del proceso crítico. En efecto,
según el modelo de cascada, el TR no equivale a la suma de las duraciones de todos los
procesos, porque dichos procesos no son estrictamente sucesivos. Sin embargo, los
efectos aditivos de varios factores sobre el TR pueden ser interpretados todavía; puesto
que, la aditividad surgiría cuando dos o más factores influyan selectivamente sobre la
razón entre parámentros de diferentes procesos, a pesar de su solapamiento temporal.
8.5. MODELOS DE PROCESAMIENTO EN LECTURA
Si bien se acepta, generalmente, que en la lectura intervienen múltiples niveles de
procesamiento, las diferencias se ponen de manifiesto en cuanto a las relaciones
funcionales que se establecen entre ellos.
En este campo, se distinguen dos grupos de modelos:
82
A) Modelos de procesamiento en serie. Los cuales proponen una jerarquía de niveles
que suele comenzar con el análisis de los rasgos perceptivos (ángulos, inclinaciones,
intersecciones, perpendicualares, horizontales, etc.) y en base a ellos tiene lugar el
reconocimiento de letras. Estas, a su vez, constituyen los datos de entrada para el
reconocimiento de sílabas, las cuales sirven de fundamento al reconocimiento de
palabras. De nuevo, las palabras intervienen para el reconocimiento de las frases y la
integración de todas ellas da lugar al procesamiento semántico del texto. Por
consiguiente, estos modelos siguen una jerarquía secuencial de niveles en dirección
abajo-arriba o 'guíadas por los datos' exclusivamente.
B) Modelos de procesamiento con interacción de niveles. Estos tienen en cuenta, tanto
los procesos abajo-arriba (data driven processing) como los procesos arriba-abajo
(conceptually driven processing), en una relación bidireccional.
Consideran que, además de existir los grupos de analizadores específicos (de rasgos,
letras, palabras, etc.) las letras se reconocen antes si están insertadas en palabras
significativas que si lo están en una serie de caracteres alfabéticos sin significado
conocido. Y las palabras se reconocen más fácilmente si están incluidas en frases
comprensibles.
Nosotros destacaremos el modelo interactivo de lectura propuesto por Rumelhart y
McClelland (1981). La colaboración de ambos condujo a la elaboración de un modelo
restringido a sólo tres niveles de procesamiento: reconocimiento de rasgos,
reconocimiento de letras y reconocimiento de palabras.
83
En dicho modelo, estos niveles integran la información, bidireccionalmente, mediante el
mecanismo de `propagación de la activación', pudiendo propagarse, bien mensajes
excitatorios o bien mensajes inhibitorios.
Veamos el funcionamiento del modelo mediante un ejemplo para el reconocimiento de
la palabra SON, presentándosela al sujeto con la letra 'O' parcialmente borrada.
El modelo reduce la incertidumbre al avanzar el procesamiento y decide como
respuesta la palabra con mayor probabilidad: SON.
Las flechas indican el sentido de la activación (arriba-abajo o abajo-arriba), resaltándose
las letras que reciben mayor activación con doble recuadro.
8.6. EL MODELO DEL LOGOGEN: MODELO DE INTEGRACION DE INFORMACION
SENSORIO-COGNITIVA
De sobras es conocido que, al igual que las letras, también las palabras se reconocen
84
más facilmente en un contexto significativo, como por ejemplo la frase, que en el 'vacío
semántico'. Ello, probablemente es debido a que tiene lugar una integración de la
información procedente del estímulo, o procesos de abajo-arriba, con la información
disponible en la memoria o procesos de arriba-abajo, llamados así porque proviene de los
procesos cognitivos superiores. Para expresarlo de un modo sencillo, los primeros
supondrían identificar el estímulo, en tanto que los segundos tendrían como objetivo
anticipar qué es.
Durante la década de los 70, J. Morton elaboró, aportó pruebas experimentales y
depuró sucesivamente el "modelo del LOGOGEN" (logos= palabra; gen= origen). Este
modelo trata de explicar la disponibilidad de las palabras en el procesamiento de
información.
A cada palabra o letra le correspondería un logogen específico, que básicamente
constaría de una lista de rasgos provenientes de tres canales diferenciados: visual,
auditivo y contextual.
Adolece, este modelo, de concebir al sistema logogen' de modo pasivo, ya que cada
unidad logogen acumula la frecuencia de activación de cualquier canal, o combinación de
canales, hasta que se alcanza un determinado umbral, que la hace entrar en acción. Sin
embargo, considera la interacción de procesos guiados por los datos' y guiados
conceptualmente'.
Lo representaremos, de modo sencillo, de la siguiente manera:
85
En cuanto al funcionamiento del modelo, Morton admitió algunos supuestos `a priori'
que resultan de alto interés:
Concedió una mayor prioridad e importancia a los rasgos semánticos en la organización
de las 'unidades logogen'.
Otorgó un papel decisorio al contexto. Puede ocurrir que distintos logogenes contengan
listas de rasgos idénticas o muy similares, en relación con el canal de ingreso (visual o
auditivo). Por ejemplo, palabras de igual pronunciación y distinto significado (WRITE,
RIGTH), o de igual escritura y desigual significado [TOMAS (nombre) y TOMAS (verbo)], las
cuales diferenciamos por el contexto.
El valor del umbral no es constante, sino que una vez activado, recupera lentamente su
valor inicial.
En las palabras frecuentes (familiares) el umbral es más bajo que en las poco usuales.
8.7. PROCESAMIENTO DE INFORMACION: METODOS DE REGISTRO DE DATOS
86
Dentro de los enfoques cognitivistas, señala Haber (1974) comenzó a emerger en los
años 50 la perspectiva del procesamiento de información, cuyas raíces se pierden en el
asociacionismo-funcionalismo, como una promisoria alternativa para el estudio de los
procesos cognitivos (percepción, memoria, razonamiento, etc), que las corrientes
inspiradas en el paradigma E-R, incluyendo el conductismo mediacional, habían
marginado del campo de estudio de la psicología. Como consecuencia de las
insuficiencias mostradas por el agotamiento de éste planteamiento, la psicología se vio
abocada a lo que en términos Kuhnianos se designa con el calificativo de crisis
paradigmática.
Desde el enfoque de la corriente del procesamiento de información se recurrió a la
medición de dos aspectos característicos de la conducta observable y complementarios
entre sí. Uno de ellos era la rapidez del procesamiento o "Tiempo de reacción" (TR), que
permitía inferir la complejidad de los procesos, ya desde una concepción lineal
(procesamiento serial; por ej. Stenberg, 1969), ya desde una concepción simultánea, en la
que varios procesos se ejecutan a la vez (procesamiento en paralelo continuo o discreto;
por ej., Ratcliff, 1978; McClelland, 1979). Sin embargo, las críticas derivadas del abuso de
la concepción serial, que al parecer no se adecúan al procesador humano y la variabilidad
de los TR, los cuales fluctuaban aún manteniendo la misma situación experimental y los
mismos sujetos (motivo por el que Amón [1978] propuso acertadamente la utilización de
las medianas de dichos TRs, en lugar de las medias), se imponía una creciente necesidad
de buscar nuevos indicadores que informasen de los procesos subyacentes al
funcionamiento del sistema nervioso. El otro aspecto medible del comportamiento
observable, hace referencia a la precisión o exactitud de las respuestas, determinada
generalmente mediante el número de aciertos o errores, y que permitía inferir la
sofisticación de los procesos subyacentes y su dificultad, pudiendo proponerse modelos
que se ajustasen a los datos empíricos. No obstante, tampoco esta VD (variable
dependiente) permitía obtener un grado de certeza aceptable, para esclarecer el
funcionamiento cerebral dentro de la analogía computacional.
En efecto, numerosos autores (Pachella, 1974; Wickelgren, 1977, etc.) evidenciaron una
relación inversa o ajuste entre la velocidad y la precisión de las respuestas, ya que es
87
posible ejecutar muy rápidamente una tarea cometiendo muchos errores o lograr un
elevado número de aciertos empleando un tiempo inusualmente largo. Mediante
sofisticados diseños cobraban significado teórico tanto las latencias como la precisión.
En la actualidad han sido diseñados nuevos procedimientos experimentales que
posibilitan obviar el problema del ajuste rapidez-precisión, bien forzando la respuesta en
un intervalo crítico (Wickelgren, 1977), bien extrayendo los TRs que se adecúan a un
determinado criterio de exactitud de la respuesta, sobre la base de emitir los sujetos un
valor subjetivo de certeza o grado de seguridad con el que creen haber respondido
(Ratcliff y Murdock, 1976); Lecocq y Tiberghien, 1981), e incluso obteniendo un índice
que exprese la relación entre ambos aspectos característicos de la respuesta, que
denomino "eficacia" (Aznar, 1989) y defino operacionalmente como la razón entre la tasa
de aciertos y el promedio de las medianas de los TRs.
Otra alternativa metodológica (Miller, 1982; Meyer, Irwin, Osman y Kounios, 1988),
denominada "procedimiento de anticipación de la respuesta" (Response-Priming
Procedure), consiste en medir el TR tras adelantar al sujeto información parcial sobre la
respuesta requerida, antes de que emita su respuesta. Al observar como la información
parcial mejora la ejecución, en comparación con otra condición de no-información
parcial, pueden extraerse conclusiones acerca de las características de los dinámicos
procesos a que sometemos la información.
88
Capítulo IX Psicología cognitiva y ciencia cognitiva
"Ninguna frontera natural parece resistir a los esfuerzos del hombre;y a los ojos de éste, lo que todavía no se ha hecho es, simplemente, lo que no se ha intentado."(Alexis de Tocqueville s.XIX)
9.1. INTRODUCCION
La denominación de "Ciencia Cognitiva" comienza a instaurarse en la psicología a
comienzos de los años 70, desde entonces numerosos autores (Miller, 1979; Collins,
1977; Norman, 1980; Mandler, 1981; Rumelhart, 1982; Bruner, 1983; etc.) intentaron
definir la naturaleza y alcance de la nueva ciencia, inspirada en la metáfora
computacional, aunque tales definiciones no coincidían de manera unívoca. Por esta
razón, De Vega (1984) señala la conveniencia de establecer una distinción entre dos
concepciones derivadas de la analogía funcional mente-ordenador, que sirvió de
fundamento a la nueva manera de entender el estudio de los comportamientos
inteligentes. Para de Vega, la versión débil de la analogía se corresponde con la
denominada Psicología Cognitiva y se centra en el estudio directo del comportamiento
inteligente de los seres humanos, si bien establece una semejanza funcional entre mente
y ordenador, que permite el uso instrumental de la terminología del procesamiento de
información. La versión fuerte, es la que ha evolucionado hacia lo que propiamente se
denomina Ciencia Cognitiva, cuyo interés no se circunscribe al comportamiento humano,
exclusivamente, sino que lo hacen extensible hasta el comportamiento de máquinas
computacionales o programas de ordenador capaces de realizar comportamientos
inteligentes. Esta concepción lleva la analogía hasta el extremo de pretender elaborar
una teoría unificada del procesamiento que incluya todos los sistemas de tratamiento de
la información existentes. El interés actual de sus partidarios se ha circunscrito más hacia
la elaboración de programas I.A. (de Inteligencia Artificial) y de simulación computacional
de procesos, modelos y teorías, que hacia el estudio del comportamiento humano,
plasmando sus resultados en detallados diagramas de flujo, algoritmos, etc.
89
Para Norman (1981), el objetivo final de la ciencia cognitiva es el de conocer "cómo" se
adquiere el conocimiento, independientemente de "quién" es el sujeto del conocimiento
(hombre o máquina). No obstante, algunos psicólogos actuales (Gardner, 1985),
caracterizan a la Ciencia Cognitiva fundamentándose en otros criterios, así la define
"como un empeño contemporáneo de base empírica por responder a interrogantes
epistemológicos de antigua data, en particular los vinculados a la naturaleza del
conocimiento, sus elementos componentes, sus fuentes, evolución, y difusión" (trad.
cast. pag. 21). Destaca cinco rasgos cuya presencia nos permitiría clasificar una
determinada obra dentro de la Ciencia Cognitiva; los dos primeros constituyen
asunciones teóricas básicas, en tanto que las otras se refieren a rasgos metodológicos o
estratégicos. Estas son:
a) Aceptación del postulado representacional, como un nivel de análisis independiente
de otros niveles (biológico, neurológico, sociológico, cultural, etc.). El nivel
representacional puede referirse a símbolos, imágenes, reglas, acciones y, en definitiva,
comportamientos humanos; en otras palabras, la ciencia cognitiva se apoya en la premisa
de que la actividad cognitiva humana debe describirse en determinadas formas de
representación mental. Las discrepancias entre diferentes científicos cognitivos se hallan
en el desacuerdo existente en torno a la estructura, procesos y modalidades de
representación (imágenes, proposiciones, listas de rasgos, etc.) que tienen lugar en el
nivel de la representación mental.
b) Aceptación de la creencia de que el modelo computacional (hardware y software) es
el modelo más viable del funcionamiento de la mente humana. La aceptación de los
ordenadores, como modelo del pensamiento humano, sirve incluso para indicar el grado
de proximidad entre una disciplina y la ciencia cognitiva. Sin embargo, entre los
científicos cognitivos la actitud hacia la computadora fluctúa desde el entusiasmo
frenético hasta el escepticismo exacerbado.
c) Simplificación del modelo o atenuación de la importancia atribuida a los afectos,
contexto, la cultura y la historia, considerando que, aunque estos factores puedan ser
relevantes para el funcionamiento cognitivo, complicarían innecesariamente las
investigaciones. También en éste punto, los científicos cognitivos difieren en cuanto a la
90
posibilidad de incorporarlos a los programas, de manera aceptable científicamente.
d) Necesidad de estudios interdisciplinarios, con el ánimo de que, en un futuro, surja
una ciencia cognitiva unificada. Consideran que el trabajo conjunto, desde disciplinas
afines, puede ser complementario y enriquecedor de la comprensión de los problemas,
propugnando una estrecha cooperación, sin que esto suponga una fusión total. En la
práctica, existen unas disciplinas a las que Gardner (1985) denomina Ciencias Cognitivas,
que contribuyen con sus aportaciones a la solución de los problemas planteados.
Fundamentalmente, son estas seis disciplinas: filosofía de la ciencia, psicología, I.A.,
lingüística, antropología y neurociencia; albergándose la esperanza de que las fronteras
entre ellas se difuminen algún día en pro de una ciencia cognitiva unificada.
e) Asumción de los problemas epistemológicos propios de la tradición filosófica
occidental, los cuales pueden servir como punto de partida para ser reformulados de
manera más acorde con los conocimientos y tecnología disponible en la actualidad.
Las investigaciones en Ciencia Cognitiva se han ocupado de diferentes problemas
relativos a áreas tan distantes como la representación del conocimiento mediante
imágenes (Kosslyn, 1978) o en formato proposicional (por ejem., Johnsosn-Laird, 1982), la
comprensión de lenguajes naturales (Winogrand, 1972) el razonamiento humano
(Tversky, 1983) la categorización del mundo (Rosch, 1973) y, el que ahora nos atañe aquí
de un modo más directo, el problema de explicar como las personas perciben los objetos,
en el cual debe destacarse la labor pionera de D.Mar (1982) y colaboradores (Nishihara,
Ullman, etc.). Los sistemas de procesamiento masivo distribuido en paralelo (Rumelhart y
McClelland, 1986); sin olvidar las aportaciones del enfoque teórico-experimental de
M.Minsky (1975) sobre marcos y análisis de escenas que abordaremos en la parte cuarta
de este texto.
9.2. DE LA CIBERNETICA A LA INTELIGENCIA ARTIFICIAL
La historia se inicia hacia 1948, cuando Norbert Wiener concibió una ciencia que bautizó
con el nombre de "Cibernética". Esta nueva disciplina la definió como "la ciencia de la
comunicación y control en el animal y la máquina", en la que el concepto de
91
"retroalimentación" (feedback) sería el eje central. Esta propiedad de la
retroalimentación debería poseerla todo sistema capaz de producir un comportamiento
intencional y adaptable, que pueda ajustar su conducta a la realización de determinadas
actividades dentro de su radio de acción (autorregulación y control).
El entusiasmo inicial despertado por la cibernética duró poco tiempo, ya que en 1955 al
analizar Kleen, desde el punto de vista lógico las capacidades intelectuales del 'cerebro'
humano propuestas por la cibernética, concluyó que las cosas no eran tan simples y que
desde el lenguaje de esta ciencia no podrían explicarse los comportamientos inteligentes.
Esta crítica demoledora, junto al desencanto tras la euforia inicial, derribaron las
expectativas depositadas en la cibernética y comenzó la búsqueda de nuevas soluciones,
abriéndose una etapa conocida hoy bajo el pretencioso nombre de "Inteligencia
Artificial" (IA).
La iniciativa surgió del encuentro en Dartmounth (New Hampshire) de un grupo de
matemáticos estadounidenses en 1956, entre los que se hallaban John McCarthy (quien
otorgó el nombre de IA), Marvin Minsky y Herb Simon. El objetivo del grupo era elaborar
programas o dispositivos capaces de ejecutar tareas consideradas inteligentes, tales
como jugar al ajedrez, comprender preguntas acerca de figuras geométricas (bloques),
demostrar razonadamente teoremas matemáticos, reconocer dibujos, etc; también
acordaron reunirse periódicamente cada dos o tres años para evaluar los programas,
algoritmos, lenguajes y métodos de programación. En los 34 años que abarca la etapa de
la IA, fueron descubiertas numerosas técnicas y sus desarrollos han versado sobre cuatro
aspectos principales. Estos son:
- Percepción, y en particular visión computacional.
- Comunicación: comprensión del lenguaje natural, etc.
- Razonamiento simbólico: resolución de problemas.
- Ingeniería y representación del conocimiento: sistemas expertos
Para nuestros objetivos, nos centraremos en los modelos de reconocimiento de pautas
y no estableceremos separación entre los programas de simulación y los de IA. Sin
embargo, debe quedar claro que los primeros pretenden realizar modelos en software
que sean equivalentes funcionalmente a lo postulado por alguna teoría psicológica;
92
mientras que, los programas IA, como expresa Donald Michie (1974) tratan acerca del
"desarrollo de una teoría sistemática de los procesos intelectuales, donde quiera que se
los encuentre" (máquinas, humanos, animales, etc.).
Entre estos programas citaremos por su relevancia el modelo de pandemonio de
Selfridge (1959). En realidad se trata de un modelo de simulación en I.A. que fue aplicado
al reconocimiento del Morse y también de letras manuscritas, mostrando ciertas
analogías con los procesos humanos en este terreno del reconocimiento. El modelo está
organizado jerárquicamente en una serie de analizadores independientes (demonios)
que van desde la retina, pasando por los analizadores de imagen, "demonios
computacionales" y "demonios cognoscitivos", hasta llegar al nivel superior que
denomina "demonio de decisión". Este es el encargado de recoger las evidencias
proporcionadas por los niveles inferiores (demonios especializados). Los demonios son
los encargados de extraer los rasgos relevantes de la configuración del estímulo. Selfidge
propone un tipo de procesamiento en paralelo que potencia la eficiencia de los demonios
específicos y donde el centro encargado de coordinar todas las informaciones es el
"demonio de decisión".
El modelo del percepción propuesto por F. Rosenblatt en 1958, puede ubicarse dentro
del grupo de teorías de la red nerviosa, inspiradas en la teoría neurofisiológica propuesta
por D.O. Hebb en 1949 con su obra "La organización de la conducta".
El perceptrón es una maquina electrónica capaz de identificar modelos visuales simples.
La estructura de su organización consta de tres capas denominadas unidades lógicas
umbrales, semejantes a las redes neurales. Estas, suman los 'pesos' de las señales de
entrada y se excitan sólo si la suma de los pesos excede los valores umbrales prescritos.
Los logros de los perceptrones, vistos con la perspectiva del tiempo actual, no han
pasado de realizar categorizaciones triviales.
Otro modelo de análisis alternativo, pero en este caso secuencial, viene representado
por el programa de ordenador EPAM (Perceptor y Memorizador Elemental), elaborado
por Feigenbaum en 1963. Este programa, efectúa el reconocimiento desarrollando un
"árbol de decisión" que su autor denomina "red de discriminaciones". No nos
detendremos en él por considerar inadecuado para estos procesos de reconocimiento el
93
tipo de procesamiento secuencial que, exclusivamente, utiliza.
L.G. Roberts en 1965 (citado por Bodem, 1977, pag. 239) elaboró un programa
(Machine Perceptron of Three Dimensinal Solids) que incorporaba conocimientos acerca
de geometría proyectiva, de modo que podía interpretar imágenes 2D como si fueran 3D,
dando además las dimensiones exactas y siendo capaz de mostrar diferentes
perspectivas del objeto tridimensional.
El programa de D.L. Waltz (Understanding Line Drawing of Scenes with Shadows) era
capaz de realizar una descripción en 3D de objetos dibujados en escenas sombreadas, e
incluso percibía las semejanzas entre dos escenas a pesar de las diferencias en
sombreado.
No obstante, la complejidad para tratar con imágenes del mundo real se hacía patente,
por lo que, ante la dificultad de abordarlo, se desarrollaron programas que operaban
sobre 'micromundos artificiales', como por ejemplo el desarrollado por Terry Winogrand
(1972), denominado SHRDLU, el cual comprende preguntas y maneja una serie de
bloques geométricos dibujados linealmente, teniendo en cuenta conocimientos
almacenados por el programador sobre estas formas, pero sin considerar todo el bagaje
de conocimientos que utilizamos en la vida real. Esta línea de trabajos derivó en lo que se
conoce con el sobrenombre de "Análisis de Escenas", procedimientos que
desarrollaremos más adelante (véase cap. 15).
Más recientemente y en la línea analítica, otro modelo general del reconocimiento de
Patrones fue propuesto por D. Rumelhart (1977), quien resume sus propios puntos de
vista en los siguientes términos:
"el estímulo físico choca contra los receptores y modifica sus patrones de descarga.
Luego, este modelo se registra en una memoria sensorial transitoria (memoria icónica
o ecóica) en donde pueden almacenarse brevemente para un ulterior procesamiento.
En este punto del análisis se lleva a cabo la extracción de los rasgos críticos. Las salidas
de los analizadores de rasgos se alinean hacia un sintetizador de patrones. Este
mecanismo hace uso de las restricciones que imponen los rasgos extraídos, la
información contextual (semántica, sintáctica y de otro tipo), así como la información
de la memoria para reconstruir una imagen abstraída de la entrada sensorial. Luego,
94
esta representación abstracta se almacena en la memoria con un rótulo que indique
que acaba de ocurrir. Todo este procesos requiere recursos (atencionales)…" (pag.
108, trad. cast.).
Por último, una teoría del reconocimiento de caracteres descrita anteriormente (véase
cap. 8, subapartado 8.4) se debe a McClelland (1979), quien propuso una serie de
estadios de procesamiento que funcionan "en cascada". Es decir, cada estadio suministra
gradualmente información al siguiente estadio, el cual lleva a cabo unas clasificaciones
previas, que se apoyan en la información anterior.
A mediados de los 80 la IA encontró dos obstáculos difíciles de superar a través de sus
propios métodos y que han puesto de relieve sus límites; por una lado, la complejidad
creciente de los programas y, por otro, no dan la impresión de ser realmente inteligentes,
a lo sumo reflejan la astucia del programador para dar con métodos que le dan la
apariencia inteligente. Por esta razón, hay quienes creen necesario un cambio de
planteamiento o giro copernicano que permita superar las dificultades, como el
planteamiento del neoconexionismo de las redes neurales o sistemas de procesamiento
paralelo masivo distribuido, que después tratemos, no sin antes sumergirnos en la figura
del que fue máximo exponente (junto con D.A. Norman) de la ciencia cognitiva de
nuestros días.
9.3. TEORIA DE LA VISION DE D. MARR
La obra y programa de investigación desarrollada entre 1973-80 por el neurofisiólogo D.
Marr puede considerarse prototípica de la investigación en Ciencia Cognitiva por varias
razones, entre las que destacamos:
a) Asume la metáfora computacional (mente-ordenador) hasta el extremo de diseñar
un modelo informático de visión artificial que opere según los procedimientos utilizados
por el sistema visual humano.
b) Acepta el nivel explicativo representacional, en cuanto recurre a descripciones
simbólicas de los objetos que componen las escenas.
c) Concibe un abordaje de los problemas relativos a la percepción desde una
95
perspectiva interdisciplinaria, que considera tanto las aportaciones de la neurofisiología y
psicología como los algoritmos computacionales, integrando sus hallazgos en un modelo
de la percepción visual.
La corta existencia, aunque productiva, de David Marr cambió el enfoque y orientación
de los trabajos sobre percepción visual, planteando las cuestiones que debían ser
investigadas antes de plasmarlas en un programa de ordenador y, al mismo tiempo,
descubriendo las restricciones que impone un sistema computacional de tratamiento del
conocimiento.
Marr se formó como neurofisiólogo en Cambridge (Inglaterra), terreno en el que
publicó un trabajo sobre el funcionamiento del cerebelo en 1969. No tardó mucho
tiempo en reconocer que con el enfoque parcial de la neurofisiología no podían
explicarse los procesos básicos del comportamiento humano, por lo que en 1973 inició
sus investigaciones en el laboratorio de IA del M.I.T. ininterrumpidamente durante los
siete años que precedieron a su temprano fallecimiento por leucemia en 1980.
La necesidad de un enfoque multidisciplinar, así como el enfoque adoptado y las metas
que pretende nos la explica Marr (1975) en los siguientes términos:
"La situación de la neurofisiología moderna es que la gente está intentando entender
cómo un mecanismo particular ejecuta una computación que ni siquiera son capaces
de formular, mucho menos de suministrar, un conciso resumen de las maneras de
hacerla. Para rectificar la situación, necesitamos invertir un esfuerzo considerable en el
estudio del fondo computacional para las cuestiones que pueden ser abordadas en los
experimentos neurofisiológicos. Por consiguiente, aunque [mi obra] se origina en un
profundo compromiso con los fines de la neurofisiología, la obra no versa directamente
sobre la neurofisiología, ni sobre la simulación de mecanismos neurofisiológicos: versa
sobre el estudio de la visión. Equivale a una serie de experimentos computacionales,
inspirados en algunos hallazgos de la neurofisiología visual. La necesidad de ellos surge
de que, hasta que no intentamos procesar una imagen o hacer que un brazo artificial
enhebre una aguja, tenemos poca idea de los problemas que realmente se originan al
intentar estas cosas. Los experimentos computacionales nos permiten estudiar con
detalle qué combinación de factores causa que un método, o un grupo de métodos,
96
tenga éxito o fracase en una variedad de circunstancias particulares que originan los
datos del mundo real. La fuerza de este enfoque es que el conocimiento obtenido se
refiere a hechos que son inherentes a la tarea, no a los detalles estructurales del
mecanismo que la realiza".
En la concepción de la visión se muestra partidario de un análisis de las imágenes que,
en las primeras fases del procesamiento avanza de lo particular a lo general, existiendo
una gran cantidad de procesamiento y numerosas representaciones simbólicas; sin
embargo, en las etapas finales el análisis va de lo general (conocimientos almacenados) a
lo particular (datos informacionales).
Los fundamentos de la teoría de la visión de Marr (1982) parten de la necesidad de
abordar la comprensión sobre los requerimientos de la descripción de escenas. Consideró
ineludibles tres planos de análisis:
1) Computacional. Una teoría computacional de la visión que pretenda extraer las
propiedades de los objetos a partir de las imágenes debe de clarificar "qué hace", qué es
lo que computa (imagen, descripción, etc.), y "por qué" razón lo hace. Es decir, dada una
información contenida en una imagen bidimensional, que propiedades permiten
interpretarla como si fuera una imagen tridimensional.
2) Algorítmico. Debe establecer "cómo" realizará las operaciones, esto es, que formato
representacional utilizará cada una de las entidades significativas.
3) Instrumental. Especificar en qué dispositivo tendrá lugar el proceso: máquina
mecánica, ordenador, o cerebro.
Marr se hallaba interesado en la realización de programas de ordenador que fueran
capaces de analizar escenas de modo eficaz, haciendo uso de los procedimientos que se
supone utiliza el sistema visual humano. La teoría de la visión que postula tiene como
meta explicar mediante un modelo computacional de análisis de escenas qué etapas
tienen lugar para lograr reconocer una imagen o interpretar una escena. Supuso que
sucedían tres fases, en las que sólo en la última intervienen los sistemas del
conocimiento:
I) Formación de un bosquejo primario (sketches) o descripción en base a un amplio
número de características (líneas, bordes, manchas) tal como harían los analizadores
97
descubiertos por Hubel y Wiesel (1959).
II) Bosquejo 2D, obtenido mediante análisis del bosquejo primario, capaces de agrupar
los elementos de este (líneas, puntos, bordes, manchas) a fin de descubrir las
propiedades de las superficies que forman la imagen o escena.
III) Representación 3D, que transforma el bosquejo 2D en una representación
identificable del objeto y sus partes constitutivas.
Veamos, a continuación, como sintetiza Marr el proceso de análisis de escenas en sus
propias palabras:
"En un principio, el sujeto selecciona elementos más o menos similares [de la
imagen] y los agrupa y reúne formando líneas, curvas, manchas mayores, grupos y
pequeños fragmentos, en la medida en que lo permite la estructura inherente de la
imagen. Repitiendo esto una y otra vez, se van creando indicadores o elementos
primitivos en cada una de las escalas, que captan la estructura espacial de esa escala.
Así, si la imagen es la de un gato en primer plano, el bosquejo primario en bruto dará
fundamentalmente descripciones en la escala de los pelos del gato. En el nivel
siguiente podrán aparecer las marcas de su pelaje -que también pueden ser detectadas
en forma directa por los cambios de intensidad-, y en un nivel todavía superior,
aparecerá la estructura en forma de franjas paralelas de dichas marcas (…) En cada
etapa, los elementos primitivos utilizados son símbolos cualitativamente similares
-bordes, trazos, manchas, terminaciones o discontinuidades-, pero todos ellos se
refieren a propiedades cada vez más abstractas de la imagen" (1982, pag.91).
Mediante su enfoque del estudio de los fenómenos perceptivos estableció los
fundamentos de una metodología de trabajo, cimentada en el pluralismo teórico
integrado, sentando las bases para orientar futuras investigaciones, o incluso, desplegar
el esfuerzo investigador para someter a prueba sus presupuestos teóricos, especialmente
el que sostiene que en las etapas tempranas del procesamiento no intervienen los
conocimientos de alto nivel. En otros términos, el modelo teórico propuesto por Marr,
para el análisis de escenas parece partir de un procesamiento guiado por los datos
(bottom-up) en sus fases iniciales, para finalmente admitir el procesamiento guiado
conceptualmente (top-down), premisa que 'a priori' no parece universal a numerosos
98
autores.
9.4. SISTEMAS DE PROCESAMIENTO PARALELO MASIVO DISTRIBUIDO (PDP)
La joven historia de la IA parece hallarse en una situación de crisis desde 1986, tras el
período de crecimiento (1956-76) y auge (1976-86) especialmente de los Sistemas
Expertos (Ingeniería del conocimiento y representación del conocimiento), lo que ha
conducido a la búsqueda de alternativas renovadoras, que permitan salir de las
limitaciones con que se tropieza.
Un reducido número de investigadores de la IA (Hinton y Anderson, 1981; Rumelhart y
McClelland, 1982, 1986; Waldrop, 1984), insatisfechos con la actual situación, decidieron
experimentar otros planteamientos, cuyo enfoque ha sido denominado con diferentes
términos: neoconexionismo, redes neurales, neuroinformática, o IA subsimbólica. Parten
de admitir las insuficiencias de la IA y aportan una nueva forma de trabajar; así, si el
cerebro humano tarda alrededor de 100 msg. en el reconocimiento de un rostro humano
y al emular esta tarea, aparentemente sencilla, las modernas computadoras tardan
mucho más y cometen abundantes errores, implica que los métodos empleados no
tienen plausibilidad psicológica, es decir, no deben ser los mismos que emplea nuestro
sistema visual y, por consiguiente hay que emplear otras estrategias.
De manera análoga al cerebro, se establecen unas unidades (procesadores
independientes) llamadas "neuronas" y se interconectan de modo masivo formando algo
así como "redes neuronales" artificiales. Los diferentes estados de las redes neurales
determinan el conocimiento del sistema. En lugar de que un programa actúe serialmente
(máquinas Von Newman) sobre símbolos, como sucede en la IA clásica, las redes actúan
sobre estados globales de energía; en otros términos, además de que diferentes módulos
ejecuten separadamente ciertos análisis, se añade ahora el intercambio de información
entre unidades, de modo similar a las columnas de neuronas de descarga simultánea.
Estos sistemas procesan la información mediante interacciones excitatorias o inhibitorias
entre redes de unidades simples, que cooperan o rivalizan entre ellas, activándose unas y
99
desactivándose otras, estableciendo el estado de dicho sistema. Otra característica
importante de estos modelos es el procesamiento distribuido, que tiene lugar en los
fenómenos perceptivos y mnemónicos; ello consiste en que no existe un único centro de
control de transmisión de información entre módulos, sino que ciertas unidades operan a
la vez (en paralelo) y alcanzan sus efectos estadísticamente. Tales multiconexiones hacen
posible la utilización de una gran proporción del conocimiento total del sistema para el
reconocimiento o la resolución de problemas.
Otra ventaja que se deriva de la representación distribuida del saber consiste en que,
como la información no reside en un lugar específico, aunque se deterioren algunas
unidades (o 'neuronas') perdurará el concepto o imagen global, e incluso el sistema
puede tomar decisiones a partir de información incompleta, aproximada o con
interferencias, lo cual parece muy aceptable psicológicamente.
También es peculiar de este enfoque la posibilidad de prescindir completamente del
procesamiento simbólico, quedando sustituido por las conexiones entre neuronas que
realizan funciones específicas, por cuanto no existe un 'locus' para el conocimiento, para
la inteligencia, sino que éstos son intrínsecos a la adecuación y fuerza de las conexiones
entre procesos simples, de modo consistente con los datos conocidos sobre la neurología
de los primates.
Las simulaciones computacionales de percepción visual mediante estos sistemas han
alcanzado éxitos que hacen recobrar ilusiones en torno a la génesis de una teoría
psicológica de la percepción coherente con la neurología. No obstante, quedan por
explicar numerosos problemas sobre la naturaleza de la percepción desde este enfoque y
a ello hay que añadir que, en estos sistemas, todavía existen puntos cruciales por
resolver, relativos a la coordinación de procesos independientes.
9.5. VISION ELECTRONICA VERSUS VISION HUMANA
La capacidad visual implementada en los programas de visión computacional, por el
momento, está muy lejos de alcanzar el nivel de rendimiento humano, e incluso de
numerosas especies animales. Sin embargo, no se pueden negar las contribuciones que
100
las investigaciones sobre la visión artificial han aportado en la comprensión del fenómeno
visual humano.
Así, numerosos autores, (R.L. Gregory, 1966 y G.Kanizssa, 1974) han puesto de
manifiesto que resultan insuficientes los criterios geométricos utilizados de modo
exclusivo, imponiéndose la necesidad de combinarse éstos con conocimientos
semánticos, contextuales, funcionales, socioculturales, etc.
La psicología cognitiva ha realizado numerosas contribuciones al campo de la visión
artificial, destacando la importancia del razonamiento, la memoria, la atención y el
aprendizaje en la percepción visual, ya sea de enfoque constructivista o desde la
corriente del procesamiento de información (serial o paralelo). Ejemplos de ello serían las
"inferencias inconscientes" de Helmholtz, las leyes de la organización holística de la
psicología de la Gestalt, los esquemas de Bartlett, la "New Look" de la percepción de J.
Bruner con la influencia de la expectativas y la verificación de hipótesis de R.L. Gregory.
Los programas computacinales de visión artificial, si bien se han centrado en
reconocimiento de objetos dentro de un reducido micromundo, apoyan y complementan
este marco teórico general, poniendo de manifiesto de qué modo "el todo" depende de
sus "partes" constitutivas y como dichas partes dependen de la totalidad; es decir, han
evidenciado como el conocimiento puede influir en la construcción fenomenológica. Los
programas de reconocimiento visual, por tanto, pueden considerarse un modo de
verificación y validación de estos postulados al ser implementados en el programa que
emula o simula el comportamiento visual humano.
Además, la visión computacional ha proporcionado una base conceptual y una
terminología que permite plantear los problemas relevantes de modo concreto y preciso,
dejando al descubierto la escasez o insuficiencia de los conocimientos que actualmente
poseemos sobre la visión 3D (tridimensional), qué 'pistas' contenidas en la estimulación
sensorial nos permiten interpretar determinados aspectos o relaciones entre los objetos,
etc.
En este sentido, han aparecido enfoques que se han centrado en el estudio de la
variedad de 'claves' que interpretamos en nuestra percepción. En uno de ellos (que
revisaremos en el cap. 11), J.J. Gibson (1966) pone el énfasis en el "gradiente de textura"
101
como elemento determinante de la visión de la profundidad y en la detección de bordes
y contornos de los objetos. En la actualidad, existen programas de visión computacional
(Bajcsy, R., citado por Bodem, 1977), que han logrado analizar una escena natural
(paisaje) segmentándola en regiones que presentan árboles, agua, hierba, etc.,
basándose en 'pistas' de textura.
Como se ha expuesto anteriormente, durante los años 70 y principios de los 80, D. Marr
(1975, 1982) expuso una exhaustiva teoría computacional de la visión capaz de
discriminar una gran variedad de texturas visuales, a fin de conseguir una segregación
entre fondo y figura. Marr puso a prueba la discriminación visual en una amplia
diversidad de escenas reales, mediante discriminaciones de textura, obteniendo
resultados que apoyan su teoría.
Los programas de visión computacional también deben tener en consideración otro tipo
de pistas, tales como la distancia y los contornos, obtenidas mediante la esteroscopía, el
movimiento del objeto y el paralaje, así como determinados conocimientos almacenados
en memoria (procesos Top-down) que permiten inferir diversos aspectos de la escena, a
saber, caras ocultas de una figura, vértices eclipsados por la opacidad del objeto y otros
elementos ocultos, por ejemplo en los perfiles (ojo, oreja, brazo, pierna, etc.). Sin
embargo, otros muchos aspectos considerados en la percepción humana quedan por
incorporar en estos programas visuales. Uno de ellos es el relativo a las pistas
proporcionadas por las sombras de los objetos, aspecto que en el reconocimiento de las
imágenes digitalizadas parece ser más un obstáculo que una facilitación. Otro, es la
detección del movimiento y la capacidad de discernir si se mueve el objeto o el ojo
electrónico, para lo cual debería poseer un conocimiento básico, cual es que cuando se
mueve el observador se produce un cambio uniforme en toda la imagen (retínica o
fotográfica), en tanto que cuando se mueve el objeto, los cambios sólo atañen a
determinadas localizaciones de la imagen. También los movimientos corporales,
movimientos de la cabeza o movimientos oculares intervienen en un fenómeno bien
conocido, como es las constancias perceptuales, por lo que el programa computacional
de reconocimiento visual debería incorporar esta información permitiendo una movilidad
y giro de la cámara (ojo electrónico). Finalmente, debería incluir la percepción del color y,
102
por consiguiente, conocimientos acerca de las contribuciones de las pistas de
luminosidad a la visión. Por supuesto que, integrando las informaciones proporcionadas
por las pistas enumeradas, se pondrán de manifiesto nuevas insuficiencias que
orientarán la búsqueda de otras pistas.
En resumen, la IA paulatinamente ha ido avanzando desde el procesamiento de listas
de propiedades (LISP) hasta la construcción de esquemas estructurales (marcos, guiones,
scripts, etc.) y desde sistemas organizados jerárquicamente, inspirados en las teorías
neurofisiológicas, hasta los de funcionamiento heterárquico, que resultan más
apropiados para tratar con la ambigüedad. Y si bien es cierto que los logros de la visión
artificial, en comparación con la visión humana, son pura anécdota, esta visión
computacional ha servido y sirve para plantear los verdaderos problemas experimentales
en términos precisos y ha iluminado los largos senderos que los futuros programas de
investigación deberán atravesar para alcanzar una 'visión panorámica' que nos lleve a
comprender el fenómeno de la visión.
Quizá ya es hora de plantearnos las cuestiones de fondo y dejar reposar discusiones
estériles y, a veces, triviales; seguramente la pregunta más relevante no sea la de si ¿los
ordenadores piensan? o ¿ven?, basta con que se muestren eficaces en estos tipos de
tareas. Al igual que, irónicamente, responde a dichas preguntas el informático holandés
Dijkstra (mi relación con esta fuente es periodística) con otra pregunta: ¿y los submarinos
nadan? Debemos preguntarnos qué hacen las máquinas electrónicas, cómo lo hacen y
para qué o para quienes lo hacen, sin que importen demasiado similitudes o diferencias
intranscendentes, puesto que en el fondo, tampoco los aviones tienen plumas y, sin
embargo,… ¿vuelan?
103
Capítulo X Neurociencia cognitiva
"Si no somos capaces de comprender el cerebro humano, ¿cómo vamos a implantarlo en un conjunto de cables y circuitos?(M. Ballestero, s. 1990)
10.1. INTRODUCCION
La neurociencia es una disciplina relativamente joven, que ha experimentado en la
pasada década (años 80) un notable desarrollo y caracterizada por su adhesión al modelo
biológico o neurofisiológico, por consiguiente reduccionista. En efecto, su meta es
explicar el comportamiento en base a lo que ocurre en el plano neuronal, si bien, por el
momento ha de conformarse con hacerlo a nivel neural molar, por ejemplo, describiendo
lo que observa en una columna celular, o en un lóbulo cerebral, o en un área cerebral, o
incluso en un hemisferio cerebral. Sin embargo, desde el punto de vista de la ciencia
cognitiva, resulta dudoso que sea posible explicar un determinado fenómeno sin la
colaboración interdisciplinar, sea de una teoría psicológica, de la lingüística, etc.
Resultan de sumo interés las contribuciones metodológicas para el estudio de los
procesos neurológicos centrales o periféricos, entre los que destacan las técnicas de
registro electrofisiológico y, más concretamente, los componentes endógenos de los
potenciales evocados relacionados con eventos, que han permitido establecer una
cartografía de la actividad eléctrica cerebral. También merece mención aparte la técnica
de registro de los movimientos oculares, además de otra gran variedad de técnicas, ya
sean metabólicas incruentas, como el registro del flujo sanguíneo cerebral local tras la
inyección o inhalación, en una arteria cerebral, de un radioisótopo; ya sean bioquímicas,
como los registros de consumo de oxígeno o de glucosa.
10.2. ANTECEDENTES HISTORICOS
A pesar de la juventud de la neurociencia, puede considerársela, en cierto sentido
heredera de una antigua polémica entre dos concepciones diferentes (aunque, como se
104
verá no irreconciliables) de la dinámica cerebral, nos referiremos a ella con la dicotomía
especificidad-equipotencialidad, si bien, ha aparecido frecuentemente el término
especificidad con la denominación de localizacionismo de las funciones cerebrales y el de
equipotencialidad de la mente como plasticidad cerebral, lo cual también puede ser
expresado (Gardner 1975, 1985) como la ya clásica rivalidad elementarismo (atomista)
versus holismo (molar).
Los orígenes de esta problemática se remontan a Descartes, quien sostenía que
diferentes partes del cerebro controlan determinadas funciones del cuerpo, situando en
la glándula pineal el lugar de conexión entre el cuerpo y la mente. Juan Huarte, coetáneo
de Descates, sugirió en cambio que el cerebro actuaba de modo unitario, iniciándose las
primeras discrepancias en torno a la representación neural, entre una descripción
holística frente a otra localizacionista.
En los siglos XVIII y XIX, una serie de descubrimientos inclinaron la balanza a favor de un
mayor apoyo de las tesis localizacionistas. Entre ellos, cabe señalar la demostración de
Luigi Galvani de que al actuar una carga eléctrica sobre un músculo, provocaba su
contracción. De modo independiente, Charles Bell y Franíois Magendie evidenciaron la
separación anatómica de las funciones sensoriales y motoras en la médula espinal.
Posteriormente, Johanes Müller establecía la ley de las energías específicas. En este
ambiente de ideas, Francis J. Gall proponía su teoría localizacionista, en la que establecía
una frenología (cartografía cerebral) puntual, que llegó a creer que era posible
determinar el perfil intelectual de una persona mediante el examen de la forma peculiar
de su cráneo. El principal crítico de Gall fue Jean Marie Flourens, quien admitía cierta
frenología zonal, pero resaltaba el funcionamiento unitario del cerebro.
En la segunda mitad del siglo XIX, surgían nuevos argumentos a favor del
localizacionismo, resaltando los estudios de Paul Broca con pacientes afásicos y las
conclusiones de Karl Wernicke, quien atribuía las dificultades en la comprensión del
lenguaje a una lesión en el lóbulo temporal izquierdo.
Ya en el siglo XX, como contrapeso, las críticas de Jean Marie y sus seguidores (holistas:
Goldstein, Head, etc.) al localizacionismo avalaban una concepción del cerebro como
órgano integrado y unitario, capaz de un alto grado de plasticidad, en cuanto sostenían
105
que las áreas cerebrales no lesionadas y que la pérdida de pensamiento abstracto u otras
funciones era una consecuencia del tamaño de la lesión (masa cerebral afectada) y no del
lugar de la lesión. H. Jackson, en 1932, afirmó que el hecho de localizar los síntomas no
implicaba la localización de la función.
Las repercusiones del contrapunto holístico al atomismo localizacionista reavivaron
nuevamente la polémica teórica entre partidarios de especificidad-plasticidad. Durante la
primera mitad del siglo XX, el prestigioso neuropsicólogo norteamericano Karl Lashley,
utilizando la técnica neurocirujana de ablación (destrucción de zonas específicas de la
corteza cerebral) investigó en animales, largo tiempo, las bases neurales específicas de
determinadas conductas y sus conclusiones le condujeron a poner en tela de juicio la
creencia de que determinadas conductas poseen una ubicación cerebral. A partir de
entonces, dedicó sus esfuerzos en la elaboración de una alternativa teórica a la teoría
localizacionista, acorde con los hallazgos neurofisiológicos. Aceptó los principios de la
psicología de la Gestalt, respecto a la organización perceptual en totalidades y desarrolló
determinados conceptos como el de "equipotencialidad" (capacidad de cualquier parte
de una zona funcional para realizar una determinada conducta), fundamentada en la "ley
de acción masiva" (la eficiencia de una función es inversamente proporcional a la
magnitud de la lesión); también postuló la propiedad de la "plasticidad" (potencial de las
restantes zonas del sistema nervioso para asumir las funciones de las zonas lesionadas).
Tras mucho tiempo de adhesión incondicional, desechó el modelo imperante del "arco
reflejo" (relación de desencadenamiento entre un estímulo específico y su respuesta) o
paradigma E-R. En definitiva, Lashley contribuyó en gran parte a la crisis del paradigma
conductista y, junto a D.O. Hebb que a continuación veremos, preparó el terreno para el
advenimiento del paradigma cognitivista, en el que se enclavan tanto la Psicología
cognitiva y Ciencia cognitiva como la Neurociencia cognitiva.
10.3. LA SINTESIS INTEGRADORA DE D.O. HEBB: UNA TEORIA NEUROFISIOLOGICA DE
LA PERCEPCION
106
En su libro monográfico "The Organization of Behavior", Donald O. Hebb (1949)
combinó con bastante acierto la concepción atomista-localizacionista y la holista; quizá,
desfavoreciendo más a la perspectiva Gestáltica.
A pesar de haber elaborado una teoría neurofisiológica de la percepción, Hebb acentuó
el aspecto psicológico e intentó distinguir lo que es innato (racionalismo) de lo aprendido
(asociacionismo). Partió de considerar las cualidades perceptuales disponibles en una
persona adulta a quien se le dotara de visión por vez primera. Hebb concebía esta
primera experiencia visual como un caos sensorial, que denomina "unidad primitiva",
solamente capaz de discriminar las figuras sobre un fondo, ésta sería la única capacidad
perceptiva innata. A través de repetidas experiencias visuales, paulatinamente, iría
adquiriendo el sujeto dos nuevas cualidades perceptuales: la "unidad no sensorial"
(aspecto no aprendidos de la percepción y no propios del estímulo) y la "identidad
objetual" (capacidad de reconocer que un objeto ha sido experimentado anteriormente).
La explicación de Hebb acerca de la estructura y funcionamiento neurofisiológico
subyacente a los fenómenos perceptivos se fundamenta en una descripción plausible del
desarrollo y de los cambios sinápticos interneuronales. La unidad primitiva se basa, según
Hebb, en una descarga sináptica determinada exclusivamente por la naturaleza del
estímulo y la estructura innata del sistema nervioso. Mediante experiencias sucesivas los
cambios tendrían lugar en los umbrales sinápticos, perdiéndose algunas unidades
originales y adquiriéndose otras nuevas hasta formar una nueva organización neuronal
denominada "asamblea celular". Si los objetos, situaciones o acontecimientos se
presentan consistentemente en la misma sucesión en repetidas ocasiones, la activación
secuencial de las correspondientes asambleas de células se conectarían en una
organización de orden superior a la que llama "secuencia de fase". Esta es la que
permitiría el reconocimiento y la identificación de objetos, hallándose menos localizadas
que las asambleas neuronales y siendo posible, en estas secuencias de fase, cierto grado
de equipotencialidad (vías alternativas).
En sus incursiones en el terreno del desarrollo perceptual, Hebb consideró que en los
primeros años de vida el aprendizaje es más flexible y está dotado de mayor plasticidad
que en el estado adulto..
107
Esta teoría de la percepción de base neurofisiológica, si bien implica cierto
reduccionismo, ha estimulado numerosos programas de investigación en neurofisiología
y en Ciencia cognitiva (simulación). De acuerdo con lo postulado con Hebb, estos
modelos avanzarían desde un holismo inicial hacia una localización definida.
10.4. ANALIZADORES DE CARACTERISTICAS
El pionero en la utilización del término `analizador de características' fue N.S.
Sutherland en 1957, partió del supuesto de que si un animal es capaz de discriminar
entre dos estímulos, es porque debe poseer algún mecanismo que reaccione
diferencialmente a ambos; en consecuencia, propone una teoría de análisis de
características. Según esta, el aprendizaje discriminativo consiste en asociar respuestas
adecuadas a los productos de los analizadores correctos. Realizó sus investigaciones
trabajando con pulpos sobre la discriminación de la horizontalidad y la verticalidad,
comprobó que los octópodos no discernían los trazos inclinados, infiriendo que carecen
de los analizadores apropiados.
Desde finales de los años 50 y durante las dos décadas siguientes, dos jóvenes
neurofisiólogos estadounidenses, David Hubel y Torsten Wiesel, utilizando la técnica de
implantación de microelectrodos en determinadas neuronas aisladas del cortex cerebral
del gato y otros animales, registraron los impulsos nerviosos generados.
Las contribuciones teórico-prácticas de la obra investigadora de estos autores, primera
en su género, les valió la consecución del Premio Nobel de Medicina en 1981, compartido
con Sperry (autor que estudiaremos en el subapartado siguiente).
Este grupo de investigación (Hubel y Wiesel, 1959,1962 y 1979) aportó claridad sobre la
organización de la corteza cerebral visual. Esta se halla constituida por células simples
(que responden a propiedades tales como presencia-ausencia de iluminación,
orientación, etc.), células complejas (que responden a la orientación óptima de líneas o
de bandas luminosas, otras son neuronas binoculares) y células hipercomplejas (que
detectan ángulos, esquinas, etc.). También pusieron de manifiesto la transcendencia de
las experiencias tempranas en el desarrollo del sistema nervioso. En resumen,
demostraron que existen algunas preconexiones que permiten cierta capacidad
perceptual (innatismo), pero otras muchas resultan modificadas por el aprendizaje y la
108
experiencia, sugiriendo la existencia de una organización columnar.
En un artículo de título tan provocador como "What de Frog's Eye Tells the Frog's
Brain?" (¿Que le cuenta el ojo de la rana al cerebro de la rana?) Lettvin, Maturana,
McCulloch y Pitts (1959) y, poco después, Maturana (1960),evidenciaron también que los
receptores del ojo de la rana muestran una elevada especificidad. Unos responden al
movimiento de pequeños estímulos redondeados (detectores de insectos), otras
neuronas son detectores de límites o bordes, algunas detectan una disminución en la
iluminación y, finalmente, hay también detectores que actúan en condiciones de
obscuridad.
Todas estas líneas de investigación constituyeron un irrefutable apoyo para las tesis
localizacionistas y de la especificidad del sistema nervioso.
10.5. DIFERENCIAS INTERHEMISFERICAS
Desde una perspectiva algo más molar, la antigua polémica localizacionismo-holismo
fue de nuevo integrada de modo reconciliable, demostrándose una vez más que ambas
posturas contienen parte de razón y no son excluyentes.
A principios de los años 60, un grupo de investigadores del Instituto de Tecnología de
California encabezados por Roger Sperry (Sperry, 1974, Gazzaniga, 1981, 1983)
practicaron una comisurotomía (sección del Cuerpo Calloso) a pacientes afectos de
epilepsia grave, esta operación irreversible dejaba los dos hemisferios cerebrales
desconectados. Sperry y sus colaboradores diseñaron numerosas pruebas con
presentación separada para cada hemisferio y observaron el comportamiento de los
sujetos con el objetivo de determinar las diferencias interhemisféricas. El resultado de las
cuales indicaba que el hemisferio izquierdo se halla especializado en aspectos
relacionados con el lenguaje y la capacidad conceptual-clasificatoria, operando de modo
analítico ; mientras que, el hemisferio derecho se halla especializado en aspectos
espaciales, posee mayor habilidad visual y musical, operando de manera más holística o
globalista. En relación con el desarrollo, también observaron que, a menor edad,
correspondía un grado mayor de equipotencialidad de las funciones de sendos
109
hemisferios (más plasticidad) y, a mayor edad, correspondía un mayor nivel de
lateralización funcional. Resultaban de especial interés para la Neurociencia cognitiva,
tanto las pruebas de especialización interhemisférica como la metodología de trabajo y,
en particular, las técnicas de registro y análisis de datos.
También en la URSS se ha mantenido una tradición neurofisiológica importantísima,
cuyas aportaciones contribuyen a dilucidar lo que parece más evidente, cuanto más se
investiga, esto es, que en el cerebro existe cierto grado de especialización
topográficamente determinada; no obstante, disponemos de abundantes argumentos
que avalan la plasticidad del sistema nervioso y, de manera particular, en las fases
tempranas del desarrollo.
La labor investigadora de Alexander Luria (1966) y colaboradores puso de manifiesto
que en un determinado comportamiento intervienen varias áreas anatomofisilógicas,
haciendo cada una de éstas una peculiar aportación insustituible. Sin embargo, resulta
una simplificación excesiva de la realidad el sostener, en la actualidad, que cada
hemisferio se ha especializado en determinadas funciones, cediendo el paso a una
concepción más elaborada, la cual entiende que cada hemisferio o área hemisférica
aporta un modo de procesamiento característico para la ejecución de una determinada
tarea, de modo que, sin duda, debe existir una interacción dinámica entre áreas y
hemisferios.
10.6. LA ANALOGIA DEL HOLOGRAMA DE PRIBRAM
Aunque a partir de las técnicas precisas y eficaces que permitieron las demostraciones
de Hubel y Wiesel, mediante la implantación de microelectrodos, parecía más defendible
la concepción localizacionista que la holística, el debate continúa abierto. La atractiva
hipótesis de la codificación holográfica formulada por Pribram (1971) representa un claro
exponente de la fuerza actual de la concepción holista.
Una holografía puede considerarse como una fotografía tridimensional, que proyecta la
imagen contenida en un holograma (placa o película) en el espacio. El holograma permite
almacenar gran cantidad de información en poco espacio, ya que las ondas luminosas
110
procedentes de todas las partes de la imagen primitiva quedan registradas en él. Por
consiguiente, cada porción del holograma permite reproducir la imagen total.
Según la concepción holográfica de la mente de Pribram, todas las áreas cerebrales
pueden intervenir en cualquier representación, si bien algunas áreas dominan mejor
determinadas funciones. Entre las propiedades que posee el holograma y por analogía,
en esta hipótesis, el cerebro, destaca la posibilidad de superponer un cúmulo de
hologramas y reproducirlas una a una, sin que se interfieran.
El objetivo de Pribram era mostrar que el sistema nervioso no es un mero conjunto de
modalidades específicas de procesamiento, sino que existe la posibilidad de que ciertas
formas valiosas de conocimiento se hallen extensamente difundidas por el cerebro.
10.7. METODOS DE REGISTRO ELECTROFISIOLOGICO
Desde finales de los 70 y durante los años 80, se fue consolidando una nueva alternativa
metodológica, cuya meta final consiste en describir, explicar y comprender los procesos
cognitivos que tienen lugar en el cerebro, autodenominándose Neurociencia Cognitiva.
La metodología más ampliamente utilizada por este enfoque, se fundamenta en registrar
y analizar la actividad electrocortical que tiene lugar durante la ejecución de
determinadas tareas cognitivas, como un medio que permite acceder internamente a los
procesos que subyacen a dicha actividad.
Ciertamente, algunos investigadores observaron la presencia de unos pequeños
potenciales eléctricos cerebrales en el cuero cabelludo, los cuales, señalan Hillyard y
Kutas, (1983), se elicitaban al intervenir sistemas sensoriales (tareas perceptivas), de
almacenamiento de información (tareas mnemónicas), de actividad muscular (tareas
motrices), etc. Estos indicadores psicofisiológicos recibieron el nombre de "potenciales
relacionados con eventos" (Event Related Potentials) y son conocidos frecuentemente
con la designación de PEs (Potenciales Evocados). A partir de estas observaciones la
investigación se dirigió a identificar ciertos componentes en las ondas cerebrales que
reflejasen las etapas del flujo del procesamiento de información, a saber, codificación,
recuperación, decisión, ejecución motriz, etc., recurriendo a los paradigmas
111
experimentales ampliamente difundidos desde la psicología cognitivista. El creciente
interés que surgió por estas medidas electrofisiológicas de la actividad cerebral, se
concretó en el estudio de las relaciones entre los componentes endógenos de los PEs y
los procesos que subyacen a la ejecución de tareas cognitivas (Galambos, R. y Hillyard,
S.A, 1981; Donchin, E., 1982).
Los PEs han sido descritos (Hillyard y Kutas, 1983) como "patrones de actividad
neuronal asociados con determinadas transacciones de información que tienen lugar en
el cerebro". También, como una serie de componentes de polaridad positiva o negativa
que tienen lugar durante determinados momentos temporales y cuya duración puede
oscilar en un rango inferior a centenares de msg. (milisegundos).
La clasificación de los PEs se ha establecido en función de la modalidad sensorial que los
elicita, sobresaliendo tres tipos principales de PEs: visuales, auditivos y
somatosensoriales. En la práctica se hace uso del término "componente" de un particular
PE para referirse a un subsegmento de éste que se pone de manifiesto, a modo de
fluctuaciones de la actividad eléctrica cerebral. Así Donchin et al. (1978) lo definen como
un subsegmento del PE cuya actividad representa un agregado neuronal funcionalmente
distinto.
Entre las numerosas clasificaciones existentes de los componentes, la que goza de una
más amplia aceptación es la propuesta por Sutton et al. (1965), la cual subdivide en dos
tipos a los componentes, de modo práctico para la investigación:
a) Componentes exógenos: reflejan la actividad de los surcos periféricos sensoriales y
hacen su aparición en torno a los 80 msg. tras la exposición del estímulo. La principal
propiedad que manifiestan es su invariancia ante las modificaciones de las demandas de
la tarea; sin embargo, varían cuando se produce algún cambio en alguna magnitud del
estímulo (naturaleza física del estímulo). Por consiguiente, resultan elicitados por eventos
extrínsecos al sistema nervioso.
Merced a su invariancia, han sido frecuentemente utilizados como instrumento
diagnóstico, que permite detectar patologías neurológicas cuando se hallan ausentes o
distorsionados, puesto que se ha comprobado su presencia incluso cuando las personas
están dormidas.
112
b) Componentes endógenos: contrariamente a los anteriores, su variabilidad en cuanto
a latencias, amplitud de la onda y distribución en el cuero cabelludo, apenas depende de
la naturaleza física del estímulo, pudiendo a veces presentarse incluso sin la presencia del
estímulo. Sin embargo, la variabilidad de estos componentes parece motivada por las
demandas de la tarea (eventos intrínsecos al sistema nervioso), por lo que se vinculan
con los procesos cognitivos que desencadenan.
Numerosos investigaciones han mostrado evidencias a favor de la conexión de los
componentes endógenos con factores tales como experiencia anterior, intencionalidad,
criterio de decisión, etc.
Debido a su sensibilidad a las demandas de la tarea, permiten verificar si un grupo de
tareas comparten, o no, unos mismos procesos subyacentes a su ejecución.
La nomenclatura habitual, propuesta para designar los diferentes componentes
endógenos o exógenos que se han detectado hasta la fecha, consiste en denominar el
componente mediante una letra (P ó N, según la polaridad sea positiva o negativa),
seguida de un número que expresa la latencia típica del componente en msg. Así, son
ejemplos de componentes que han alcanzado cierta importancia: N100, N200, N400,
P200, P300, etc. No obstante, algunos componentes relevantes han conservado la
denominación original dada por sus descubridores, por ejemplo: SW (Slow Wave u onda
lenta), RP (Readiness Potential) y la VCN (Variación Contingente Negativa).
Desde el punto de vista de la neurociencia cognitiva, los esfuerzos investigadores se han
diversificado en dos direcciones:
1) Identificar los componentes endógenos de los PEs asociados a un determinado
proceso cognitivo, independientemente de la modalidad sensorial que requiere la tarea.
2) Determinar las características de los componentes endógenos de los PEs, que se
relacionan con los diversos procesos cognitivos.
Si bien en la actualidad han sido identificados numerosos componentes endógenos, los
programas de investigación ofrecen un abundante número de ellos, que deberían ser
caracterizados en futuros experimentos. Debido a la gran cantidad de componentes
endógenos descubiertos hasta la fecha, a continuación, describiremos brevemente los
mas relevantes, desde el punto de vista de la percepción.
113
* La variación contingente negativa (VCN), se caracteriza por un cambio lento del
potencial negativo que tiene lugar al asociarse (contingencia) dos estímulos sucesivos.
Aparece, aproximadamente, en torno a los 400 msg. de la presentación del estímulo de
prueba o demandante de la respuesta. La amplitud de la onda tiene un valor típico de 17
µV (microvoltios). Su distribución topográfica en el cuero cabelludo es, generalmente,
frontal si el estímulo se presenta auditivamente y más pariental y pariento-ocipital en
presentación visual (Simson et al. 1977).
Los paradigmas experimentales que elicitan la VCN son los que presentan un primer
estímulo anticipatorio, seguido de un estímulo de de prueba, con el que se solicita al
sujeto que emita, lo más rápidamente que sea capaz, una respuesta motriz (por ejem., un
juicio de comparación perceptiva), registrándose el TR (tiempo de reacción) del sujeto o
latencia de respuesta. Las V.I. (variables independientes) manipuladas por el
experimentador suelen ser las relacionadas con la complejidad de la tarea, habiéndose
observado que las tareas complejas dan lugar a VCNs inferiores que las tareas sencillas
(Curry, 1980). La relación, puesta de manifiesto en las investigaciones, entre la amplitud
de la VCN y la dificultad de la tarea ha sido interpretada por Näätänen et al. (1977) como
un reflejo de la intervención de un relevante proceso cognitivo, la atención selectiva,
cuyo nivel de activación fluctúa ante distintas tareas.
* El componente endógeno P300, detectado por Sutton y colaboradores en 1965, se
caracteriza por ser un potencial positivo con una latencia cuyo valor típico es de 300
msg., una amplitud de onda media de 7 µV y una localización preferente en las zonas
parientales.
Los paradigmas experimentales que elicitan la aparición de la P300 son aquellos que
manipulan el tipo de tarea (relevante e irrelevante) y en los que el sujeto no puede
anticipar la aparición del estímulo relevante (ausencia de expectativas o sorpresividad).
Los procesos cognitivos vinculados a la aparición del P300, propuestos por Johnson
(1986) en su "Modelo Triárquico" de la amplitud del P300, son: la probabilidad subjetiva
de aparición del estímulo, el significado del estímulo en su contexto y la eficacia lograda
en la transmisión de la información del estímulo.
* El componente N100, considerado fronterizo entre los componentes endógenos y
114
exógenos, característica que lo hace sensible a los cambios en las propiedades físicas de
los estímulos, particularmente, en la modalidad visual o auditiva.
Los paradigmas experimentales que lo elicitan son los que utilizan tareas atencionales y
entre las variables manipuladas destaca el incremento-decremento de la intensidad
fótica, que al parecer influye en la amplitud de la N100.
* El componente endógeno N200, se desencadena, bien mediante la presentación
periódica de un estímulo, o bien cuando el estímulo es omitido periódicamente. La
localización topográfica en el cuero cabelludo varía según la modalidad sensorial sea
visual o auditiva. Algunas investigaciones han sugerido que la N200 es provocada por
procesos de discriminación perceptual que demandan recursos atencionales.
115
Capítulo XI La perspectiva ecológica en percepción
"La observación es mil veces más difícil; el error es, quizá, condición de la observación en general".(F. Nietzsche, s. XIX)
11.1. INTRODUCCION
La psicología cognitiva cuenta con una corta aunque intensa historia, no exenta de crisis
en cuanto a algunas concepciones se refiere, las cuales no afectaron al paradigma básico
(E-O-R). Así, a partir de los años 70 hay un progresivo abandono de la concepción serial
del procesamiento, habiendo sido propuestas soluciones altenativas tales como la
concepción constructivista, en la que interactúan funcionalmente los datos
informacionales externos con los internos que posee el propio sistema, por ejemplo,
Neisser (1976). También han sido propuestos sistemas de procesamiento paralelo
masivo, en el que las funciones se ejecutan de manera distribuida, por ejemplo,
Rumelhart y McClelland (1986).
Una de estas crisis hace referencia al caótico panorama teórico, disgregado y confuso,
en el que diferentes concepciones permiten explicar los distintos fenómenos, fruto de
haber generado modelos explicativos derivados del análisis de la ejecución de tareas en
términos de procesamiento de información. Ello tuvo como consecuencia un paulatino
alejamiento de la investigación de los contextos naturales, cediendo el paso a unas tareas
bien controladas en el laboratorio, pero distantes de las situaciones de la vida diaria.
Como contrapartida, en el propio seno de la psicología cognitiva surgió un movimiento de
reacción que proponía un retorno al estudio de los ambientes cotidianos, que pretendía
esclarecer cómo se comportan las personas en ellos, en vez de las artificiosas (aunque
bien controladas) tareas realizadas por los sujetos en el laboratorio. Progresivamente, fue
adquiriendo valor el concepto de "validez ecológica", que propone el retorno al estudio
del comportamiento en situaciones naturales, a través de una metodología
116
observacional.
Este enfoque ecologista supuso para la psicología ciertos cambios en las condiciones
experimentales; así, en el campo de la memoria se abandonaba el recuerdo de listas o
pares asociados para ocuparse de la memoria de prosa, anticipada por Bartlett (1932). En
el terreno de la percepción, se enfatizaba la información ambiental susceptible de ser
registrada por los órganos sensoriales; la utilización de estímulos más cercanos a la
realidad social o ambiental (escena, fotografías, dibujos, etc.), en vez de estímulos
geométricos; etc.
En este marco conceptual, revisaremos la obra de dos relevantes autores que, en
diferente modo y con diferente énfasis, adoptaron la alternativa naturalista que
denominaremos perspectiva ecológica de la percepción. Se trata de J.J. Gibson (1950,
1966, y 1967) y U. Neisser (1967, 1976, 1982 y 1984), los cuales han tratado de investigar
la percepción del 'mundo real' desde diferentes concepciones teóricas, pero con el
denominador común de apartarse de las artificiales condiciones del laboratorio.
11.2. OPTICA ECOLOGICA: TEORIA DE LA PERCEPCION DIRECTA
J.J. Gibson denomina a su enfoque "óptica ecológica", diferenciándolo de otras ramas
existentes para el estudio de la visión, tales como la óptica física, la óptica geométrica y la
óptica fisiológica. La óptica ecológica de Gibson considera que la luz contiene información
relevante para el ojo y que la información lumínica es independiente del ojo percipiente,
en cuanto considera la luz como "un fluyente mar de energía" (Gibson, 1959).
Posteriormente, en su obra "The senses Considered as Perceptual Systems" (1966),
sustituyó esta expresión por la de "un denso sistema de rayos interrelacionados",
recurriendo al concepto poco realista de 'rayo', término que debería aludir, en sentido
estricto, a los 'haces fotónicos'. Señala Gibson que el problema fundamental al que se
enfrenta el sistema visual es el de poder extraer información con sentido de la compleja
distribución de la luz, a la que designa con el término de 'orden óptico', cuestión a la que
responde que este orden óptico contiene ya la información ambiental necesaria para la
117
visión en un punto de convergencia estacionario:
"Sostengo que la percepción visual no se basa en tener sensaciones, sino en la
atención a la información de la luz. La esencia de la óptica ecológica es la
demostración de que hay información en la luz ambiental" (Gibson, 1974, pag. 335).
Desde el punto de vista del desarrollo perceptivo, Gibson admite que, por parte del
organismo, existen límites en cuanto a la cantidad de información que puede registrar,
restricciones que pueden venir dadas por las características peculiares de la atención y/o
por el nivel de maduración y experiencias previas. Las capacidades perceptivas
evolucionan a través de un "aprendizaje perceptual" desde la indiferenciación objetual
hasta una elevada precisión en la diferenciación, aprendiéndose la detección de
propiedades, patrones y detalles distintivos. Considera que, en este aprendizaje,
intervienen tres mecanismos básicos que operan conjuntamente y de forma
interactuante, que se encargan de:
a) Abstraer las propiedades diferenciales del estímulo.
b) Filtrar las propiedades no pertinentes del estímulo, y
c) Atender selectivamente a las propiedades del estímulo, en función de la actividad
exploratoria de los órganos sensoriales.
Según Gibson (1967), los órganos sensoriales han sido específicamente diseñados para
captar la información ambiental, resultando innecesario postular ningún otro mecanismo
ni proceso, tal como las 'inferencias inconscientes' de Helmholtz, esquemas de
conocimiento, etc. Así, registramos la profundidad (tridimensionalidad) directamente en
la mirada, sin inferir distancias, sin correlacionar datos sensoriales oculo-manuales,
incluso sin claves binoculares, como se demuestra en los experimentos que hacen uso del
'abismo visual' (Gibson y Walk, 1960).
Esta teoría radical de la percepción directa parece, a primera vista, próxima a la
concepción filosófica del realismo ingenuo; sin embargo, Gibson demostró
experimentalmente que para la discriminación de la profundidad es suficiente con la
información óptica que nos proporcionan determinadas claves del estímulo. En este
sentido, se ocupó en determinar estas 'pistas' ambientales, evidenciando que, una de las
más importantes es el "gradiente de la densidad de textura", el cual nos revela la
118
información relativa a la tercera dimensión. En la figura 1 puede observarse cómo las
líneas que están próximas sugieren lejanía, en tanto que, las más separadas parecen
estar más cerca del observador.
En la figura 2 puede apreciarse como el grosor (o la intensidad de las líneas) también
nos permite estimar la profundidad, ya que, los trazos más gruesos parecen hallarse más
cercanos que los trazos más finos.
También la nitidez de los contornos o el hecho de hallarse más desdibujados nos
proporciona claves para interpretar la distancia de los objetos.
Además, Gibson puso de relieve la importante contribución de los movimientos
corporales y movimientos oculares a la percepción de la profundidad, es decir, este autor
fundamenta la visión de la tridimensionalidad en los mismos recursos que se utilizan para
la visión de dibujos bidimensionales en el plano, señalando la existencia de relaciones
ordenadas entre la proyección de la imagen retiniana y la orientación del dibujo, respecto
119
al punto de vista del observador. De manera que, si el sujeto observa el estímulo (escena,
fotografía, dibujo, etc.) situado perpendicularmente a él, se proyectan en la retina
texturas uniformes; mientras que, cuando se sitúa en un plano oblicuo respecto al
estímulo, se forman imágenes que presentan texturas de diferente grado de densidad,
siendo el gradiente de densidad de textura el correlato de la perspectiva tridimensional.
Según este concepto del gradiente de textura, percibimos constelaciones de superficies
y bordes, éstos últimos quedan determinados por cambios bruscos de los gradientes de
textura y los ángulos o esquinas por 'remolinos' en los que se extienden los gradientes.
Para Gibson, las percepciones no son copias o réplicas de los objetos del mundo exterior,
sino patrones de variación que se hallan correlacionados con el mundo externo.
Al realizar un detallado análisis del medio ambiente, introdujo un concepto nuclear en
su obra, el de "facilitadores", esto es, potencialidades para la acción, que se hallan
presentes en un objeto o escena (por ejemplo, las personas cogen objetos que facilitan
su asimiento, o ingieren objetos que facilitan el comerlos, etc.). Este concepto de
facilitación permite evaluar la eficacia de un organismo en su entorno y determina el
significado de los objetos, entendiendo el significado en términos de las facilitaciones que
ofrece al organismo.
A pesar de parecer esta teoría una concepción simplista de la percepción, señala
Gardner (1985) que hay, como mínimo, tres poderosas razones para tomarla en serio:
1) Contribuyó a esclarecer numerosos fenómenos perceptivos y puso de relieve la gran
cantidad de información que se halla disponible en el estímulo.
2) La coherente interrelación conceptual que desarrolla.
3) La simplicidad (principio de parsimonia) de la teoría, la cual permite prescindir de
mecanismos y representaciones en el cerebro, apelando a una descripción realista
directa, según la cual, simplemente, el ambiente contiene toda la información necesaria.
Como respuesta a esta concepción radical de la percepción, los psicólogos cognitivistas
de casi todas las tendencias descargaron sus críticas contra ella, especialmente, las
fundamentadas en la tesis de que la existencia de una abundante y variada información
en el medio, no excluye la influencia de los conocimientos del individuo en la percepción.
Según Marr (1982), la teoría de Gibson minimizó la dificultad de la detección de los
120
elementos invariantes del ambiente, los cuales deben ser abordados mediante
procesamiento de información; ya que, quedaba sin explicar como tiene lugar la
captación directa de información.
Algunos autores (Fodor, 1980; Fodor y Pylyshyn, 1981), dirigieron sus críticas hacia el
blanco de los "facilitadores", en este sentido sostienen que no basta con percibir
directamente que una propiedad del objeto facilita una utilización del mismo, sino que es
preciso demostrar si es posible captar esa propiedad sin inferencias. Los seguidores de la
escuela ecológica de Gibson se defendieron argumentando que el objetivo de la óptica
ecológica es el descubrimiento de las leyes que regulan la relación organismo-medio y, de
ningún modo, la búsqueda de leyes cognitivas que determinan los procesos realizados
con las representaciones mentales.
11.3. LA TEORIA CONSTRUCTIVISTA DE U. NEISSER
Los desarrollos teóricos de Ulric Neisser (1967, 1976, 1982, 1984) son consecuencia de
una evolución conceptual-metodológica que discurre paralela a la historia de la psicología
cognitiva en general y, en particular, al campo de los fenómenos perceptivos, en los que
confluyen aspectos cognitivos y realidad.
Neisser obtuvo su doctorado en la Universidad de Harvard en 1956, en la que comenzó
su carrera docente e investigadora, al poco tiempo, se inscribió en el proyecto MAC
(Machine Aided Cognition) del M.I.T., publicando sus primeros trabajos en el campo de la
IA (Neisser, 1960, 1963) y desarrollando el paradigma experimental de 'búsqueda visual'
(visual scanning task). Allá por 1965 comienza a escribir lo que sería una obra
programática y en la que da unidad a las variadas investigaciones realizadas desde el
cognitivismo, contribuyendo a la consolidación del paradigma cognitivista. Esta obra de
síntesis sería publicada en 1967 con el título de 'Cognitive Psychology', otorgándole un
estatuto de autonomía a la joven disciplina y centrándose en los fenómenos de
percepción, atención, lenguaje y memoria. Progresivamente, Neisser fue
decepcionándose de los derroteros por los que avanzaba la psicología cognitiva desde el
procesamiento de información y fruto de tal desencanto es un ensayo que aparecerá en
121
1976: 'Cognition and Reality: Principles and Implications of Cognitive Psychology'. En este
periodo, que conduce a Neisser a una concepción pesimista de la psicología cognitiva,
influyó sus años de colaboración con Gibson, los cuales le permitieron aproximarse a la
perspectiva ecologista, denunciando los riesgos de un abuso de artificialidad en el
laboratorio de investigaciones, si bien la postura de Neisser es más moderada en relación
con el radicalismo de Gibson.
Por consiguiente, en la trayectoria personal d U.Neisser se diferencian tres etapas
claras: 1) Entusiasta de la IA, 2) Optimismo por la psicología cognitiva, y 3) Desencanto de
los logros de la investigación cognitiva y necesidad de nuevos planteamientos
alternativos.
En su etapa de sistematización de las dispersas investigaciones en el campo de los
fenómenos perceptivos, fue el primer autor en denominar a la memoria visual
transitoria, puesta de manifiesto por Sperling (1960) y corroborada por Averbach y Coriell
(1961), con el término de "memoria icónica" y reservando el de "memoria ecóica" a su
homóloga del sistema auditivo. Sin embargo, en etapas posteriores, el propio Neisser
cuestionará la validez ecológica de los experimentos sobre memoria icónica y ecóica, por
hallarse alejados de la aplicabilidad en la vida ordinaria y, por tanto, trivial para los
participantes en el experimento y de escasa relevancia para explicar la opinión cotidiana.
Respecto al enmascaramiento icónico, evidenciado por Averbach y Sperling (1961), que
puede ser provocado, por ejemplo, por una luz muy intensa que sigue o precede a la
presentación del estímulo (enmascaramiento retroactivo o proactivo, respectivamente),
Neisser (1967) ofreció una interpretación en términos de procesamiento de información,
según la cual, al ser expuestos estímulo y centelleo luminoso en rápida sucesión, se
produce una integración, en la que el estímulo resulta enmascarado (difuminado) debido
al bajo nivel de resolución temporal del procesador humano.
En el terreno del reconocimiento de pautas (formas o patrones visuales), postula la
existencia de alguna jerarquía de analizadores de características, que implica un
procesamiento en paralelo, distinguiendo en el procesamiento perceptivo dos fases
complementarias (Neisser, 1967). En primer lugar opera una fase analítica que
corresponde a dicha codificación simultánea de los rasgos o dimensiones básicas del
122
input sensorial y que tiene lugar automáticamente. Estos análisis preatencionales,
globales y totalistas, sirven posteriormente para guiar o dirigir la atención hacia los
productos resultantes de esta fase preliminar, al tiempo que controlan los movimientos
corporales y oculares. Después de esta fase, supone un segundo nivel de análisis que
opera sobre los objetos segregados por la primera fase (segmentación) y que tienen lugar
según un procesamiento secuencial (uno tras otro), a la que denomina fase sintética. El
fenómeno perceptivo finaliza cuando se integran los rasgos básicos produciendo una
configuración significativa asimilable a los 'objetos', lo cual requiere atención controlada.
Para explicar su concepción del enfoque atencional, recurre a la metáfora del
'paleontólogo', quien a partir de escasos restos (huesos) examinándolos minuciosamente
es capaz de reconstruir el 'dinosaurio'. Define la atención focal como la localización de los
recursos cognitivos en una parte del campo visual, aumentando así la claridad y precisión
para efectuar actos constructivos. Señala que, una vez sabemos como construir una
figura particular, podemos reconstruirla con, prácticamente, 'cualquier clase' de material,
o incluso sin ninguno, como en la imaginación.
La teoría de la percepción, de la visón y del lenguaje, propuesta en esta etapa de
Neisser (Neisser, 1967), fundamentada en el modelo de "análisis por síntesis", el cual
utiliza tanto los datos sensoriales de experiencias pasadas para generar las actuales,
como el contexto y las expectativas. Principalmente, se basa en el principio de
'verificación sucesiva de hipótesis' generadas internamente, pero guiadas por los datos y,
de acuerdo con Bruner (1957), las expectativas, la familiaridad y, tal vez, las preferencias
pueden servir para realizar la identificación mediante verificaciones confirmatorias.
Una década más tarde (Neisser, 1976) y decepcionado por la situación de confusión en
que se hallaba la psicología cognitiva, se propone tratar algunos aspectos anteriormente
abordados y que habían cobrado creciente interés. En esta etapa critica el haberse
circunscrito la investigación al laboratorio, ignorando las situaciones ordinarias de la vida
real y propone un retorno a situaciones naturales (perspectiva ecológica), además
considera necesario suponer que la percepción se halla dirigida por estructuras de
conocimientos pasados denominados esquemas. También, aporta su última y actual
concepción sobre la atención y la conciencia.
123
Aquí, Neisser considera a la percepción la actividad cognitiva básica de la que deben
emerger todas las demás, es la zona de intersección entre cognición y realidad. Tampoco
requiere recuerdo, ya que en la percepción se actualizan el pasado inmediato y el pasado
remoto. Para él, los esquemas anticipatorios son los elementos esenciales para la visión,
los cuales hacen que algunos tipos de información encajen mejor que otros,
determinando, junto con la información exterior pertinente, lo percibido. Concibe la
percepción como un proceso de construcción de anticipaciones que sean susceptibles de
adecuarse a los datos informativos accesibles. Por consiguiente, la exploración visual es
dirigida por los esquemas anticipatorios y la información extraída del medio, como
consecuencia de tales exploraciones, se integra en dicho esquema modificándolo. A este
conjunto de relaciones lo denomina ciclo perceptivo, el cual le permite explicar la
percepción del significado, la posición espacial y la forma.
En palabras de Neisser "el esquema es precisamente una fase de una actividad continua
que relaciona al perceptor con su ambiente. El término percepción se aplica propiamente
al ciclo completo y no a cualquier parte separada de él" (Neisser, 1976, pag. 42, trad.
124
cast.). El esquema puede contener información multimodal (visual, auditiva, háptica, etc.)
y coordina la actividad de varios sistemas sensoriales simultáneamente. Atribuye a los
esquemas una función determinante en la percepción, al sostener que "la percepción es
el resultado de la interacción del esquema y la información accesible. Más aún, es esa
interacción" (pag. 70), concretando más adelante que "la percepción es siempre una
interacción entre un objeto o evento particular y un esquema más general" (pag. 77). Y
en relación con el desarrollo perceptivo, afirma que la génesis del esquema tiene lugar de
lo general a lo particular, de la indiferenciación a la precisión.
Como apuntábamos antes, este autor está de acuerdo con la concepción de Bruner
(1951) y Gregory (1970, 1973), pero matizando que la percepción es, en sentido general,
un fenómeno de verificación de hipótesis. Sin embargo, a diferencia de Bruner, entiende
que la percepción no es simplemente la asignación de objetos a categorías, sino que
supone que el perceptor selecciona algunas de las múltiples propiedades del estímulo y
algún uso o significado potencial, según se adecúen específicamente ambas en el
esquema. Respecto a la atención, también niega la existencia de ningún mecanismo
particular, considerando que la atención es simplemente la percepción, al afirmar "
seleccionamos lo que deseamos ver anticipando la información estructurada que
proporciona" (pag. 96). Respecto a la consciencia, considera que es un aspecto de la
actividad mental y no una etapa del procesamiento que ejecuta un mecanismo
determinado.
125
Capítulo XII: Taxonomía de las teorías de la percepción
"Admitiremos que la sensación o la percepción operan siempre en los estadios elementales de formación de los conocimientos; pero nunca operan solas y lo que se les añade resulta por lo menos tan importante como ellas en la elaboración citada"(J.Piaget, s. XX)
12.1. INTRODUCCION
Previo a cualquier intento categorizador es preciso conocer las características
inherentes al objeto a clasificar, ¿cuales de éstas son definitorias, prototípicas o más
relevantes y cuales secundarias, accesorias o marginales? Por ello, siguiendo a Irvin Rock
(1983), trataremos de resumir los aspectos generales que parecen caracterizar a la
percepción de objetos y eventos, esto es, naturaleza de los estímulos, carácter
fenomenológico del fenómeno, etc. Ulteriormente, agruparemos las teorías formuladas
sobre la temática perceptiva y que han aportado su propio punto de vista sobre estos
aspectos básicos, según hayan enfatizado en diverso grado las variables intervinientes en
los procesos perceptuales, es decir el medio estimular, el organismo y sus sistemas
perceptivos, o la interacción de ambos. De este modo resulta posible establecer una
taxonomía de tales teorías en dos grandes grupos:
-> Aquellas que consideran suficiente el especificar los atributos de los estímulos
relacionados con los diferentes aspectos de la percepción, las cuales pueden etiquetarse
como "teorías de estímulos".
-> Aquellas que consideran necesario postular procesos constructivos en el organismo
interactuante sobre los estímulos, a las que podemos designar como "teorías
constructivas". Ahora bien, dichas construcciones internas pueden ser de dos clases:
* Las que se fundamentan en las interacciones entre representaciones de estímulos, a
las que Rock (1983) denomina "teorías de la interacción espontánea".
* Las que se basan en la inferencia u otro proceso cognitivo similar, conocidas por el
epígrafe de "teorías cognitivas".
En este capítulo no se trataran otras aproximaciones teóricas de la percepción, tales
126
como las "teorías neurofisiológicas", que postulan mecanismos detectores de rasgos, ni
las de procesamiento de información, ya que, en sentido estricto, no puede considerarse
una teoría de la percepción, sino más bien un procedimiento de investigación que
permite analizar los estadios de procesamiento de información que tienen lugar desde la
estimulación hasta que se produce la última cognición, decisión o acción. Por
consiguiente, este enfoque parece neutral desde el punto de vista teórico, sólo que
según el estadio analizado puede enfatizarse algún aspecto de las tres teorías básicas (el
estímulo, la interacción o la interpretación de las representaciones).
12.2. ASPECTOS QUE CARACTERIZAN LA PERCEPCION HUMANA
Todas las teorías perceptivas han pretendido validar su concepción apoyándose en
demostraciones de algunos aspectos propios de la percepción, desde un particular
enfoque. Como resultado de ello sucede que algunas teorías ofrecen explicaciones que
muestran mayor plausibilidad que sus rivales en la interpretación del fenómeno bajo
estudio. Sin embargo, es legítimo preguntarse qué aspectos han sido cruciales en la
elucidación de uno u otro punto de vista teórico. Nosotros, de acuerdo con Rock (1983),
seleccionaremos los siete aspectos que a continuación exponemos.
12.2.1. PREFERENCIA ANTE LA AMBIGÜEDAD
En cuanto a la ambigüedad se refiere, es preciso distinguir dos tipos diferenciados:
a) La que podríamos llamar ambigüedad dimensional, queriendo significar con ello que
el valor específico, a lo largo de una dimensión, no se puede determinar de manera
lógica, basándose únicamente en los rasgos del estímulo local, como ocurre cuando
diferentes objetos proyectan una misma imagen retiniana y tendemos a percibirlos con
un tamaño y forma definida para cada uno de estos objetos.
b) La que bien pudiera designarse como ambigüedad cualitativa, por referirse al
carácter cualitativo del precepto. En efecto, un mismo estímulo proximal puede
representar diferentes figuras, como por ejemplo ocurre en la figura ambigua de Rubin
127
(copa o dos perfiles), el cubo de Necker, la escalera normal o invertida, el dibujo de
"viuda o soltera", calvo con gafas o rata, etc.[véase estas figuras en Ardila (1980)
pag.325]; sin embargo, de los dos o más posibles perceptos cualitativamente diferentes
que puedan surgir del estímulo, los observadores tienden a ver preferentemente uno de
ellos. El núcleo de la cuestión estriba en establecer las bases de tal preferencia, ya que,
incluso para un mismo observador, la figura fluctúa en un sentido o en otro
sucesivamente. En este caso decimos que la figura es reversible, aún cuando a veces se
trata de preferencias individuales o poblacionales.
Así pues, hay importantes factores a considerar acerca de la ambigüedad, entre los que
sobresalen:
- Que son posibles diferentes percepciones del mismo estímulo, pero, normalmente,
estas no ocurren (ambigüedad dimensional).
- Que sobre un mismo estímulo caben diferentes percepciones, pero una de ellas
tiende a ser la preferida (ambigüedad cualitativa)
Finalmente, que las percepciones de un observador pueden cambiar en el tiempo
(reversibilidad). La reversión, incluso puede ocurrir cuando la imagen es estable, como en
el caso de una postimagen, de modo que cambios sutiles de estimulación (por ejemplo,
cambio de la posición retinal), no son responsables del cambio perceptual.
12.2.2. CONSTANCIA Y VERACIDAD PERCEPTUAL
Otro aspecto bien establecido respecto a la percepción se refiere a la fuerte inclinación,
que muestran los observadores, hacia la constancia de propiedades del objeto, a pesar
de las variaciones o diferencias entre el estímulo proximal. Dicha variación de
estimulación puede atribuirse a varias causas:
- Al hecho de que, en la visión, la distancia y la orientación en la tercera dimensión
influya sobre la formación de la imagen, según los principios de la óptica.
- O bien, a que nuestro propio movimiento influya sobre la localización retiniana de
la imagen y su estabilidad.
- O, incluso, a que los cambios de iluminación modifiquen la brillantez de la superficie
128
que incide sobre el ojo.
Si la percepción permanece constante y no refleja las variaciones del estímulo proximal
(imagen retiniana), puede suponerse que el estímulo distal correlaciona con el objeto
externo.
La constancia se relaciona estrechamente con la ambigüedad dimensional del estímulo,
ya que la ambigüedad implica que del mismo estímulo local pueden surgir varias
percepciones diferentes, mientras que la constancia se refiere al logro de la misma
percepción desde varios estímulos locales.
12.2.3. EFECTOS DEL CONTEXTO EN LA PERCEPCION
Numerosos ejemplos pueden ilustrar que la percepción es, en gran parte, una función
del contexto, del efecto de vecindad espacio-temporal del estímulo. Por ejemplo, en
exploración visual de escenas obtenidas mediante dibujos geométricos, un triángulo
equilátero puede ser interpretado como una 'montaña' en el contexto de un paisaje
terrestre, mientras que en el contexto de un paisaje marino puede significar la 'vela' de
un barco. También, las ilusiones geométricas demuestran este hecho.
12.2.4. ORGANIZACION O ESTRUCTURA PERCEPTIVA
El mundo perceptual, generalmente, se halla organizado, es decir tendemos a formar
figuras, unidades y agrupamientos. Sin embargo, el concepto 'organización' también
puede aludir a otro significado. Ciertamente, si una determinada forma o melodía es
concebida en términos de las partes que la componen, la organización de estas partes
originan una 'estructura' con propiedades emergentes. Así, la figura percibida, o la
melodía, es una cualidad que existe psicológicamente sólo en virtud de las relaciones
entre las partes, debiendo quedar claro que, en percepción, el todo es diferente de la
suma de las partes constitutivas.
129
12.2.5. INTERACCION SENSORIO-COGNITIVA
Un punto objeto de abundantes discusiones en la psicología contemporánea hace
referencia al hecho innegable de que lo que percibimos, en ciertos aspectos, resulta
enriquecido por los contenidos mentales no presentes en el estímulo, sino que se hallan
almacenados en MLP y proceden de experiencias previas. Por ejemplo, la experiencia
fenoménica de familiaridad en el reconocimiento y la identificación (significatividad) es
una consecuencia de los anteriores encuentros con el estímulo.
Otra característica, relacionada con el enriquecimiento, pero que no se basa,
necesariamente, en la experiencia pasada es designada como "complección". En algunos
casos existe más información en el percepto que la que puede predecirse a partir del
estímulo, esto puede ser debido a que rellenamos la información ausente,
completándola. Ejemplos ilustrativos de dicha complección son las figuras de contornos
ilusorios (Kanizsa, 1974) o la percepción del movimiento aparente puesta de manifiesto
por Wertheimer en 1912.
12.2.6. PERCEPCION DEMORADA
En ocasiones transcurre un tiempo considerable antes de que emerja un percepto,
decimos que éste ha sido retardado o demorado. Por ejemplo, antes de que
concluyamos la reorganización de "figuras fragmentadas" (caras, objetos,etc.) y logremos
identificarlas, a menudo, tardamos cierto lapso temporal.
12.2.7. INTERDEPENDENCIAS PERCEPTUALES
A veces, el único modo de comprender un resultado perceptual tiene lugar mediante la
emergencia previa de otra percepción, no siendo el estímulo el factor causal inmediato.
Por ejemplo, el efecto ilusorio de movimiento de un objeto cuando, mediante un
estereoscopio, el estímulo es percibido primero como tridimensional, si previamente no
se ha experimentado esta percepción, no ocurre dicha ilusión paradójica.
130
12.3. CLASIFICACION DE LAS TEORIAS DE LA PERCEPCION
Al establecer la distinción entre la percepción y otras formas de cognición, tales como la
imaginación, ensoñación o pensamiento, en base al hecho de que la percepción es la
representación mental de objetos externos y eventos, correspondientes de alguna
manera a la estimulación que incide sobre nuestros órganos sensoriales, considera I. Rock
(1983) que sólo un limitado número de teorías (tres) pueden explicar la percepción,
clasificando éstas en dos grupos diferentes:
a) Teorías del estímulo.
b) Teorías constructivistas:
b.1) Teorías de la interacción espontánea.
b.2) Teorías cognitivas.
12.3.1. TEORIAS DEL ESTIMULO
Estas teorías parten de la idea básica de que para cada clase distinta de propiedad
perceptual (color, tamaño, profundidad, movimiento, etc.) hay un único estímulo (o tipo
de información del estímulo ) que incide sobre uno o varios órganos sensoriales.
Desde este punto de vista, la explicación consiste en determinar la correlación entre el
estímulo y el percepto, o incluso describir los procesos sensoriales que traducen el
estímulo físico, el cual es codificado neuralmente y transmitido hasta las profundidades
del cerebro. Por esta razón, resulta apropiado subsumir las explicaciones dadas en esta
línea bajo la categoría de "teorías del estímulo".
Esta concepción supone que la percepción es una función directa de la información
sensorial proporcionada por el estímulo; así, por ejemplo, para explicar la percepción,
únicamente considera necesario el aislamiento del estímulo relevante o la representación
neural de éste en el órgano sensorial o en el cerebro. Sin embargo, es evidente que, para
dar cuenta de los aspectos característicos de la percepción anteriormente expuestos, no
es suficiente la información estimular. En otras palabras, si en las teorías del estímulo, el
término estímulo se define localmente, de acuerdo con las características que presenta la
131
percepción humana, obviamente, estas teorías resultan inadecuadas. Recordemos que el
estímulo local no permite predecir lo que va a ser percibido, precisamente por la
ambigüedad que representa, ya que un mismo objeto exterior está sujeto a la
variabilidad, en cuanto que depende del contexto y no sólo de sus particulares
propiedades. Por tanto, estas teorías no tienen en cuenta los fenómenos de
organización, enriquecimiento y complección, retardo o demora del percepto, e
interdependencia de una percepción sobre otra.
No obstante, cabe la posibilidad de redefinir el estímulo, ya que resulta ingenuo creer
que, para percibir el objeto, basta simplemente con el aspecto local del estímulo. El
estímulo entrante debe entenderse, mejor, en un orden superior y basado en un análisis
más abstracto. En la obra de J.J.Gibson (1950, 1966 y 1979) se configura una
reformulación de la teoría del estímulo como la aquí señalada, resaltando los aspectos de
alto orden del estímulo. Sin embargo, no está exenta de críticas, por lo que
enumeraremos resumidamente algunas de las dificultades que muestra esta concepción:
a) Incapacidad para abordar el fenómeno de la organización perceptual, en cuanto
considera que la estructura, simplemente, viene dada por el estímulo.
b) No resulta fácil tratar con los aspectos de la reorganización perceptual de los
patrones estimulares, sobre las bases de representaciones almacenadas en MLP, ni con el
enriquecimiento definido en términos de experiencia pasada, como ocurre en el
reconocimiento y la identificación.
c) También muestra sus insuficiencias en lo relativo a la ambigüedad cualitativa, que
tiene lugar en aquellas situaciones en las que el estímulo representa a más de un objeto y
en los que hay una manifiesta preferencia a percibir uno determinado, o en los casos
donde un mismo estímulo provoca diferentes perceptos en diferentes tiempos (figuras
reversibles).
Obviamente, la versión simplista de las teorías del estímulo resulta a todas luces
inadecuada, en cuanto se demuestra una falta de correlación uniunívoca entre el
estímulo local y el percepto. Como se ha visto, un mismo estímulo, dependiendo de las
condiciones, puede producir diferentes perceptos (Ejemplos, la ambigüedad dimensional
y cualitativa), e inversamente, variaciones estimulares pueden producir un mismo
132
percepto (Ejem., la constancia perceptiva). Además, otro estímulo, o incluso otro proceso
central de otra clase, puede afectar a lo percibido a partir de un determinado estímulo.
En consecuencia se impone la necesidad de realizar una modificación de las teorías del
estímulo que permitan dar respuesta a estas cuestiones.
12.3.2. TEORIAS CONSTRUCTIVISTAS
Otra explicación alternativa que pretende superar las dificultades e insuficiencias de las
teorías del estímulo consiste en describir ciertos tipos de procesamiento que tienen lugar
dentro del organismo. El denominador común de estas teorías es que parten del
supuesto de que, entre la entrada sensorial del estímulo y el percepto, median algunos
procesos constructivos internos. Dichas teorías se pueden agrupar en dos subclases
diferenciadas.
12.3.2.1. TEORIAS DE LA INTERACCION ESPONTANEA
Una manera de resolver el dilema de la correspondencia uniunívoca entre el estímulo
local y el percepto se basa en suponer que, no es el estímulo quien determina la
percepción, sino las interacciones espontáneas que ocurren entre las representaciones
de varios estímulos, o entre los estímulos y otras representaciones centrales. Estas
interacciones pueden adoptar diversas formas de manera coherente con los principios
neurofisiológicos. La esencia de esta clase de teorías radica en que el correlato de un
percepto no es simplemente la representación del estímulo en cuestión, sino más bien
las complejas interacciones de eventos que son consecuencia de la estimulación y que
pueden permitir efectos tales como los de contexto, constancias, contraste, cambios
perceptuales sin cambios en el estímulo, ilusiones e, incluso, establecer relaciones de
semejanza. Sin embargo, en sentido estricto, estas no son propiamente teorías
cognitivas, puesto que no requieren necesariamente hacer referencias a procesos tales
como: la inferencia, descripción, seguimiento de reglas, o resolución de problemas.
133
12.3.2.2. TEORIAS COGNITIVAS
Otra manera de superar las limitaciones de la teorías del estímulo consiste en admitir
que el estímulo 'per se' no es el correlato de la percepción, sino aquellas interpretaciones
o inferencias realizadas a partir de él y relativas a lo que es el objeto dentro del mundo
que lo produce.
De igual modo que en la teoría de la interacción espontánea, aquí también puede ser
relevante cierta información sensorial, pero además intervienen en él otros contenidos
centrales (memorias, esquemas, asunciones, decisiones, reglas, hipótesis, construcciones,
etc.).
Es preciso dejar constancia de que no forman parte de estas teorías cognitivas aquellas
que Koffka (1935) denomina "teorías sensación-interpretación", como las formuladas por
Berkeley en 1709, o Titchener en 1926, según las cuales, el significado que la experiencia
sensorial (sensación) poseía, correlacionaba perfectamente con el estímulo. Para éstas, la
interpretación no era totalmente perceptual, sino un juicio mental. Sin embargo, en las
teorías cognitivas el término "interpretación" se refiere a las interpretaciones realizadas a
partir del estímulo y de manera inconsciente (no a través de juicios conscientes), como
Helmholtz proponía, las cuales guían la percepción.
Los psicólogos de la Gestalt elaboraron y desarrollaron la teoría de la interacción
espontánea. Ellos postulaban una interacción neural subyacente a la percepción, bien
entre la representación neural de uno o más estímulos, bien entre los estímulos y algunas
representaciones neurales de la memoria, de manera que si estas interacciones ocurrían
en un medio neural, tenían que verse influidas por dicho medio. Debido a los limitados
conocimientos que había alcanzado la neurofisiología, no les era posible a los gestaltistas
descifrar con precisión el tipo de interacción neural que, presumiblemente, subyacía a
varios tipos de percepciones. Simplemente asumían que ese evento neural era el
correlato de los efectos psicológicos que dependían, claramente, de las relaciones entre
estímulos o interacciones.
No obstante, al objeto de considerar esta teoría de la interacción en su forma más
134
general, conviene no equipararla con la interacción neural, ya que ello implicaría su
pertenencia a las teorías neurofisiológicas, desvinculándose por consiguiente de las
teorías cognitivas y las del estímulo (teorías psicológicas).
En general, lo que diferencia a las teorías de la interacción de las otras dos (del estímulo
y cognitiva) no son los sustratos neurofisiológicos, sino la clase de procesos que postulan.
Por otra parte, las teorías cognitivas presentan dificultades para explicar dos
características de la percepción, la organización perceptual y los efectos contextuales. En
efecto, en esencia, las teorías cognitivas parecen incorporar una concepción de
homúnculo, si bien algunos autores que investigaron en el campo de la IA (Inteligencia
Artificial), ocasionalmente han recurrido a una función ejecutiva (Por ejem., Neisser,
1967).
12.3.3. COMPARACION DE LAS DOS TEORIAS CONSTRUCTIVAS
La diferencia fundamental entre estas dos teorías, según I.Rock (1983) se manifiesta en
lo siguiente:
Según la teoría de la interacción, dicha interacción es concebida como un proceso que
subyace a las propiedades emergentes del todo, y en la que el estímulo o su
representación interna interactúa, influyendo o modificando a otras representaciones o
estímulos. Así, por ejemplo, el agrupamiento resulta del efecto de unas unidades sobre
otras; el fenómeno del color, las constancias en general y los fenómenos contextuales
son consecuencia de los efectos de una región del estímulo sobre otra, o de su acción
recíproca y el enriquecimiento de la influencia de una huella de memoria sobre el
estímulo registrado.
Según la teoría cognitiva, el input estimular no es transformado mediante la interacción
espontánea, sino que es interpretado por un agente cognitivo superior, externo al
dominio del estímulo. Esta interpretación, que no difiere demasiado de las características
de la imagen retinal, es realizada a partir del estado proximal del estímulo. Así, el
agrupamiento, a veces, es impuesto por un agente cognitivo que actúa sobre el originario
orden proximal, la percepción de la brillantez del color resulta de una interpretación del
135
grado de luminosidad alcanzado a nivel retinal y el enriquecimiento es consecuencia de la
imposición de una descripción del estímulo, organizada en términos de las propiedades
conocidas del objeto.
136
Cuarta parte: ANALISIS DE ESCENAS
137
CAPITULO XIII La atención en el procesamiento perceptivo
"Conocer es siempre referirse a algo pretérito; es fundamentalmente un 'regressus in infinitum' ".(F. Nietzsche, s. XIX)
13.1. Introducción
El significado de la función atencional no es unívoco para los psicólogos de diferentes
enfoques, sino que ha sido entendida de diferentes modos (filtro, selección, esfuerzo,
foco, recursos, alerta, activación, control, etc.), hasta el extremo de que Meldman (1970,
citado por Pinillos, 1975) ha inventariado hasta 26 definiciones de atención. La acepción
más común de la atención, posiblemente, sea la de "esfuerzo" mental o psicológico
(Johonston y Heinz, 1978; Kahneman, 1973; Posner y Boies, 1971). Esta concepción de la
atención, como esfuerzo mental o psicológico, se deriva de la suposición de que la
capacidad de procesamiento, de un hipotético mecanismo central, es limitada. Dicho
mecanismo se asocia con el procesamiento controlado y con los procesos conscientes; su
capacidad se refiere a la medida en que diferentes fuentes de información pueden
procesarse simultáneamente.
Para De Vega (1984) la atención se puede concebir como "un sistema de capacidad
limitada, que realiza operaciones de selección de información y cuya disponibilidad o
estado de alerta fluctúa considerablemente".
La existencia de un mecanismo central de capacidad limitada dista mucho de tener
aceptación unánime. Frente a esta visión, se ha postulado que el sistema de
procesamiento humano está integrado por diversos mecanismos, cada uno con su propia
capacidad, la cual también suponen que es limitada (Navon y Gopher, 1979; Wickens,
1980).
La diferencia entre ambos tipos de sistemas de procesamiento es obvia. Un sistema con
un único mecanismo central se caracteriza por poseer recursos de procesamiento
comunes que, en situaciones de actividad concurrente, deben distribuirse; la
interferencia en la realización de una y/u otra actividad vendrá determinada por la
competencia respecto al "esfuerzo" de procesamiento o por la competencia estructural
138
de los procesos y mecanismos implicados en las tareas (Kahneman, 1973). Un sistema
integrado por distintos mecanismos o subsistemas de procesamiento se caracteriza, a su
vez, por la existencia de múltiples recursos de modo que la interferencia entre
actividades concurrentes dependerá de la medida en que los procesos implicados en la
realización de cada una de ellas utilice un subsistema de procesamiento común
(superposición de demandas) (Navon y Gopher, 1979; Norman y Bobrow, 1975; Wickens,
1980) o bien del grado en que el resultado del procesamiento, requerido para llevar a
cabo una tarea, entre en conflicto con el procesamiento requerido para la realización de
otra tarea (Navon y Miller, 1987). Naturalmente, la interferencia entre tareas generaría
un decremento en la ejecución en la tarea principal.
Esencial para ambas posturas, pero con implicaciones especialmente importantes para
la aproximación de los recursos múltiples, es la diferencia establecida por Norman y
Brobow (1975) entre "procesos limitados por los recursos" y "procesos limitados por los
datos". Según estos autores "si un incremento en la cantidad de recursos de
procesamiento (asignados para la realización de la tarea) da lugar a una mejoría en la
ejecución, la tarea está limitada por los recursos". Cuando la ejecución de la tarea es
independiente de los recursos de procesamiento asignados para su realización, más
concretamente, cuando un incremento en los recursos asignados no se traduce en una
mejoría en la ejecución, las limitaciones se deben a los datos; las limitaciones debidas a
los datos pueden atribuirse a la señal ("limites de los datos por la señal") y a la memoria
("limites de los datos por la memoria"); en el primer caso, el límite para la ejecución
depende de la razón señal-ruido (estímulo crítico-distractores); en el segundo caso, el
límite se debería a la calidad de la representación en memoria.
Se ha afirmado que "percibir es la actividad cognitiva básica" (Neisser, 1967). Esta
afirmación queda plenamente justificada al definirnos la cognición -adquisición,
estructuración y utilización de conocimientos y la percepción -extracción de información
de nuestro entorno-.
Otra cuestión básica en el estudio de la percepción visual es la referente al curso del
proceso perceptivo, es decir, al modo en que se percibe. El problema puede plantearse
de forma simple: al percibir la escena visual, ¿la percepción global de la escena es previa
139
a la percepción de los elementos que integran dicha escena? o, por el contrario,
¿analizamos en primer lugar los elementos y, posteriormente, se percibe la escena
global? En otros términos, el procesamiento, el análisis de la información ¿se realiza de
'arriba-abajo', es decir de lo global a los elementos o de 'abajo-arriba', esto es, se
comienza a procesar los elementos simples que integran la escena y paulatinamente se
construye la escena global?
En este capítulo trataremos de incidir sobre estas relevantes problemáticas planteadas
en el contexto de investigación sobre los fenómenos perceptivos, destacando el papel
crítico que desempeña la atención en dichos fenómenos.
13.2. Procesos automáticos versus procesos controlados
Como consecuencia de disponer de unos recursos de atención limitados, éstos deben
repartirse entre las tareas que, simultáneamente, realizamos en un determinado
momento (Kahneman, 1973). Algunas tareas, al ser repetidas numerosas veces llegan a
no requerir consumo atencional, siendo posible su realización automática (por ejem.,
conducir, tocar el piano, escribir a máquina, etc.); mientras que, otras tareas no pueden
ejecutarse correctamente si no focalizamos la atención sobre ellas, de modo que
controlen su ejecución (por ejem., la lectura, resolver un problema nuevo, etc.). La
psicología cognitiva introdujo la distinción entre esta dicotomía conceptual, considerando
como un recurso para aliviar la sobrecarga del sistema, el hecho de que con la práctica
algunas tareas dejen de requerir el foco atencional y se ejecuten de modo automático,
pasando a denominarse hábitos, automatismos o rutinas sobreaprendidas.
Entre las características atribuidas a los procesos automáticos destacan: necesitar pocos
recursos atencionales, aprenderse por la práctica perseverante, tener escasa conciencia
de su actividad y realizarse involuntariamente, además, operan en paralelo y son
altamente eficaces en situaciones de estrés, dando lugar a escasa interferencia cuando
ejecutamos una doble tarea (LaBerge, 1975; Kahneman y Treisman, 1984).
Por el contrario, los procesos controlados requieren atención, muestran mayor
flexibilidad y capacidad de adaptación, son conscientes y voluntarios, disminuyen la
140
eficacia en situaciones de estrés y sufren interferencias en condiciones de doble tarea,
operando secuencialmente (Shiffrin y Schneider, 1977; Kahneman, 1973).
Estos procesos han sido denominados de diversas maneras, así, Posner (1978) se refiere
a ellos como procesos conscientes e inconscientes y Kahneman (1973) como procesos
'con esfuerzo' o 'sin esfuerzo'.
Para decidir si una tarea requiere procesos controlados o automáticos se han utilizado
estos tres criterios (Logan, 1978):
- Sensibilidad al número de alternativas presentadas.
- Interferencias sobre aprendizajes nuevos, e
- Interferencia entre tareas concurrentes.
En los fenómenos perceptivos interactúan ambos procesos, los que se hallan bajo el
control atencional y los automáticos. No obstante, si los estímulos son familiares
requieren menos recursos atencionales; en tanto que, la no familiaridad del material
hace necesaria la focalización de la atención al objeto de extraer características
informativas.
Asimismo, el estudio de los recursos atencionales nos remite a la distinción entre
atención focalizada o exclusiva y atención dividida. No creemos necesario señalar aquí la
diferencia entre una y otra, ni su manipulación experimental.
13.3. LA INTERACCION SENSORIO COGNITIVA: PROCESAMIENTO GUIADO POR LOS
DATOS VERSUS GUIADO CONCEPTUALMENTE
En términos expresados por Lindsay y Norman (1972), el esquema de patrones de
búsqueda visual y comparación se llama guiado por los datos (Data Driven Processing) si
las operaciones se ponen en acción por la llegada de datos sensoriales, esto es, el
procesamiento se inicia por la llegada de los datos y transcurre en suave y lógica
progresión, elaborándose a través de sucesivas etapas de análisis, hasta el
reconocimiento del ítem.
Para estos autores, nuestro sistema de memoria mantiene un registro de las
experiencias pasadas, un conocimiento general sobre la organización y el formato de los
141
acontecimientos que experimentamos, y un conocimiento del lenguaje. Siempre que el
conocimiento aporta la interpretación o conceptualización posible de algo y nos ayuda a
percibirlo, decimos que el procesamiento está guiado conceptualmente. Aquí el
procesamiento comienza con la conceptualización de lo que puede estar presente
(conocimiento general de los acontecimientos esperados y con expectativas originadas
por ese conocimiento) y luego busca indicios confirmatorios, introduciéndose un sesgo
en los mecanismos procesadores en el sentido de dar el resultado esperado. Las
expectativas son en realidad teorías o hipótesis simples sobre la naturaleza de las señales
sensoriales que se esperan tengan lugar. Estas expectativas guían las fases de análisis en
todos los niveles, desde alertar el sistema analizador del lenguaje (si se espera una
entrada lingüística) hasta disponer los detectores de características para las entradas
específicas esperadas, y dirigir la atención del sistema hacia los detalles de los hechos
particulares.
El procesamiento guiado conceptualmente (Conceptually Driven Processing) es
justamente lo contrario del procesamiento guiado por los datos. Mientras que este
último comienza con las señales sensoriales y acaba por las interpretaciones (ascendente
o "abajo-arriba"), los sistemas guiados conceptualmente van en la dirección opuesta,
esto es, parten de las interpretaciones y expectativas y acaban procesando los detalles o
señales sensoriales.
Ambas direcciones del procesamiento casi siempre tienen lugar juntas y cada una
contribuye al análisis total. Se ha de combinar la información procedente de la memoria
con la información procedente del análisis sensorial, las dos informaciones son necesarias
y ninguna de ellas es suficiente por separado.
De nuevo, Norman y Bobrow, (1979) nos explican estas direcciones del procesamiento,
pero dejemos que sean los propios autores quienes nos lo aclaren:
"Suponemos que cuando la información sensorial ingresa a través del sistema
sensorial, los procesos que operan sobre ella lo hacen automáticamente, a partir de la
extracción de características principales. Después, como resultado de estos procesos, la
memoria sensorial se activa con diferentes regiones que representan los diferentes
conjuntos de características (…) Cada nueva entrada sensorial inicia una nueva
142
actividad, y el sistema debe intentar organizar las estructuras que han sido activadas
en un esquema significativo. Es éste un análisis abajo-arriba: un análisis impulsado por
la entrada sensorial.
Existen otras formas de analizar la información. Consideremos un esquema que ha
sido activado por sugerencia de una entrada o un contexto. ¿Qué otra cosa requiere el
esquema? Utilicemos los requerimientos para guiar una búsqueda del espacio de
características. ¿Necesita el esquema un contorno hacia la izquierda? Preguntémonos
si cualquier procedimiento puede proporcionar datos acerca de uno. ¿Postula el
sistema que está percibiendo una habitación? Busquemos después las esquinas, las
paredes, el techo. Preguntémonos si el espacio-características es consistente con la
interpretación. Estos son análisis arriba-abajo: análisis impulsados por la organización
conceptual". (pag. 133).
En el momento presente se acepta que las operaciones de búsqueda visual o selección
del ítem están dirigidas tanto por los rasgos más salientes de los estímulos sensoriales
(formas definidas, colores vivos, tamaño, etc.) como por las expectativas cognitivas y/o
esquemas anticipatorios del sujeto, aprendidos en su experiencia anterior. Como
consecuencia de esta hipótesis se propuso un modelo de procesamiento híbrido que
tiene lugar en paralelo.
De acuerdo con lo anterior, Hoffman (1980) propuso un modelo en el que se
postulaban dos canales de entrada de la información, uno para la procedente del
procesamiento "abajo-arriba" o guiada por los datos y otro para la procedente del
procesamiento "arriba-abajo" o guiada conceptualmente.
En este modelo se postulan dos canales de entrada de la información, uno para la
proviniente del procesamiento abajo-arriba y otro para la procedente del procesamiento
arriba-abajo. Dicha información es codificada, e inmediatamente identificada en
memoria mediante un procesamiento en serie (Hoffman, 1980). Esta concepción está de
acuerdo con la flexibilidad de la atención para operar centrando el foco según criterios
subjetivos del individuo.
143
13.4. LA PRECEDENCIA PERCEPTIVA: GLOBAL VERSUS LOCAL
13.4.1. ORIGEN DEL DEBATE
En el primer cuarto del siglo XX, los psicólogos de la Gestalt propusieron que la
percepción del todo era diferente de la suma de las partes (Wertheimer, 1923, Kohler,
1929 y Koffka, 1935). Como es sabido, la Psicología de la Gestalt utilizaba el método
fenomenológico-introspeccionista, consistente en describir la experiencia subjetiva
durante la percepción. Sostenían que, si el todo se analiza en sus partes constitutivas se
pierden las propiedades de la totalidad, del mismo modo que un muro no puede ser
explicado mediante las propiedades del cemento, ladrillos, arena y agua. En efecto,
algunas formas absorben sus componentes hasta el punto de no ser reconocibles, como
sucede en la figura 13.1 (utilizada por Wertheimer, 1923), en la que tiende a verse un
rombo encerrado entre barras, en lugar de una 'W' sobre una 'M'.
Figura 13.1. ¿Rombo entre barras o 'W' sobre 'M'?
En este sentido, los psicólogos gestaltistas deben ser considerados los pioneros del
estudio de la precedencia perceptiva, aunque el hecho de demostrar que algunos
componentes se hallen enmascarados en el percepto total, no excluye la posibilidad de
que estos componentes hayan sido utilizados en la génesis del todo.
La polémica, por tanto, se debate en torno a la cuestión de si percibimos antes el todo
(unidad global) o las partes (unidades locales) y a ella se alude bajo el rótulo de
"precedencia global o local". Se considera que existe precedencia tanto si: a) Algunas
unidades (global o locales) son procesadas antes que otras (procesamiento serial), o b)
144
Las diversas unidades (global o locales) son procesadas simultáneamente, pero en una
proporción más rápida a favor de una u otra (procesamiento en paralelo).
El procesamiento serial implica que los productos (outputs) de las primeras fases del
procesamiento son las entradas (inputs) de las fases sucesivas. Sin embargo, en el
procesamiento en paralelo, tanto las propiedades globales como las locales son
procesadas a la vez, pero el procesamiento de un conjunto de propiedades (de lo global o
de los elementos locales) finaliza antes. En consecuencia, las investigaciones sobre la
precedencia se han centrado en estos dos aspectos:
(1) Tipos de unidades (global o local).
(2) Tipo de procesamiento (serial o paralelo) que requieren.
13.4.2. ESTADO ACTUAL DE LA CUESTION
El interés actual por este tema se desencadenó desde la formulación de la hipótesis de
la precedencia global (Navon, 1977) que podemos sintetizar en la frase " una escena más
que construirse se descompone". Es decir, el procesamiento de estímulos visuales se
inicia a partir de estructuras globales que se van analizando de forma cada vez más
detallada (global-to-local), esto es, implica un procesamiento "arriba-abajo" (Top-down).
Por tanto, la percepción es al principio poco diferenciada, pero progresivamente se van
extrayendo más detalles de información al focalizarse la atención, guiada por el análisis
previo (estructura global), que señala las partes más relevantes del estímulo.
Diversos investigadores (por ejem., Palmer, 1975; Navon, 1977; Winston, 1975) han
planteado la percepción como un proceso organizado jerárquicamente en el que las
unidades de orden superior (la escena visual) se procesan como un todo, analizándose
paulatinamente unidades más y más inferiores en la jerarquía (subescenas, elementos
que las integran, etc.); cuanto más se desciende en la jerarquía, más 'minucioso' es el
procesamiento. Según este planteamiento, la escena visual se contempla como un
conjunto de subescenas interrelacionadas espacialmente; dichas subescenas están
integradas por los componentes que, a su vez, se descomponen en elementos cada vez
más simples; por cuanto, desde este punto de vista, se supone que el procesamiento
145
tiene lugar de 'arriba-abajo'.
La investigación de la dirección del proceso perceptivo ('arriba-abajo' o de
'abajo-arriba') se ha llevado a cabo mediante la utilización de estímulos de naturaleza
jerárquica en los que pueden diferenciarse dos niveles estructurales: el local, constituido
por los elementos que integran el patrón y el global, referido a la forma determinada por
la disposición de elementos locales (véase las figuras 1 y 2). El patrón estimular incluye
ambos niveles (Kinchi y Palmer, 1985).
Este tipo de patrones, que duda cabe, son artificiales, pero su simplicidad permite
abordar de forma clara el problema de la dirección del proceso perceptivo.
El trabajo de Navon (1977) dio lugar a un amplio cuerpo de investigaciones sobre los
denominados "efectos de precedencia". Se habla de precedencia cuando ciertas
propiedades (globales o locales) del patrón estimular están disponibles -y por tanto se
identifican antes que otras propiedades (globales o locales); además, cuando hay
conflicto entre ambos (caso de la fig. 1), el nivel que más rápidamente se identifica
interfiere en la identificación del otro. Tal efecto puede producirse, bien porque un tipo
de información se procesa previamente, o porque aunque los diferentes niveles
comienzan a procesarse simultáneamente, el análisis de unas determinadas
146
características se completa antes.
Navon planteó la hipótesis de la precedencia global, según la cual el nivel global se
procesa en primer lugar. Los resultados de sus estudios llevaron a este autor a postular la
prioridad e "inevitabilidad del procesamiento global", es decir, la imposibilidad de ignorar
el nivel global. Para este autor la identificación del nivel global es rápida y obligatoria,
mientras que el procesamiento del nivel local tiene lugar mas lentamente y es de carácter
facultativo.
En subsiguientes investigaciones se obtuvieron resultados contradictorios, que pusieron
de manifiesto la existencia de numerosas variables que afectan al efecto de precedencia
global. En este sentido, se constató que la precedencia no sólo podía ser global, sino
también local; la dominación de uno u otro nivel estructural estaba determinada por
múltiples factores. Martin (1979) mostró que el espaciamiento de los elementos locales
es un factor crítico: con muchos ítems poco espaciados se produce precedencia, pero con
pocos ítems espaciados se obtiene ventaja en el tiempo de reacción (TR) a elementos
locales e interferencia local. Kinchla y Wolfe (1979) observaron que la mayor rapidez en
el procesamiento del nivel global o local estaba determinada por el tamaño de la imagen
visual. Asimismo, se observó (Hoffman, 1980) que la 'calidad' de los niveles estructurales
(distorsión del nivel local o global) determinaba la precedencia local o global. Otros
autores (Hoffman, 1980; Kinchla, Solis-Macias y Hoffman, 1983; Ward, 1982) han
constatado que los factores atencionales juegan un papel decisivo en la dominación de
uno u otro nivel (cuando se atiende a un determinado nivel, dicho nivel interfiere la
identificación del otro). Como conclusión, puede decirse que la prioridad de uno u otro
tipo de procesamiento (globales y locales) es problemática; además, la existencia de
interferencia global y local parece indicar que ninguno de los niveles puede ignorarse
completamente.
Resumidamente, esta hipótesis fue cuestionada, principalmente por haberse utilizado
exclusivamente variaciones del paradigma de interferencia en la tarea, el cual influye
sobre los procesos atencionales y de decisión. Al realizarse nuevas investigaciones,
sustituyendo la tarea por otra de decisión, los resultados permitieron concluir que en
147
algunas ocasiones la tarea induce la precedencia global y en otras la precedencia local.
Por consiguiente, intervienen tanto los sistemas arriba-abajo o "guiados
conceptualmente" (conceptually driven processing) como los sistemas abajo-arriba o
"guiados por los datos" (data driven processing) con los que interactúan. Es decir, las
operaciones de búsqueda visual estarían dirigidas tanto por los rasgos más salientes de
los estímulos sensoriales (formas definidas, colores vivos, tamaño, etc.) como por las
expectativas cognitivas y/o esquemas anticipatorios del sujeto, aprendidos
anteriormente.
Miller (1981), planteó una explicación distinta a la propuesta por Navon (1977). Para
Miller, el efecto de precedencia está determinado por factores atencionales y de
decisión. Según este autor, el nivel global y local se analizan a través de canales o
mecanismos distintos. Este autor presupone que el sistema de procesamiento posee un
conjunto de recursos atencionales que puede repartirse entre los dos canales, de forma
que, en cada uno de los dos canales, pueda registrarse la aparición de un objetivo.
Cuando el objetivo se reconoce en algún canal, comienza a activar la decisión apropiada;
la decisión se emite cuando la activación alcanza un determinado grado o nivel crítico. El
canal global posee mayor fuerza que el local. Debido a su mayor fuerza, el canal global
activa las decisiones más rápidamente que el nivel local; si los objetivos se presentan en
ambos canales (supongamos una 'H' formada por haches pequeñas), la decisión se activa
simultáneamente, por lo que el tiempo requerido para alcanzar el nivel de activación
crítico es menor.
13.5. TEORIA DE LA INTEGRACION DE CARACTERISTICAS
Tomando como punto de partida el señalar la controversia existente entre teorías
analíticas y sintéticas de la percepción, Treisman y Gelade (1980) propusieron un nuevo
modelo que denominaron "teoría de la integración de las características". Esta teoría
asume que la escena visual, inicialmente, se codifica automáticamente y en paralelo, bajo
una serie de dimensiones disociables (color, brillo, orientación, dirección del movimiento,
148
etc.) y, en un estado posterior, que requiere atención, se identifican los objetos
separadamente. El principio fundamental de esta teoría sostiene que las características o
propiedades de los objetos (color, tamaño, forma, orientación, etc.) únicamente pueden
relacionarse unas con otras, para lograr la integración perceptiva, bajo el control
atencional, lo que confirmaba experimentalmente lo anticipado por Neisser, (1967). La
atención focal, por consiguiente, actúa como si se tratase de un "pegamento" que junta
las características disociadas anteriormente en la codificación, al objeto de obtener una
unidad psíquica coherente. Sin embargo, la interferencia o el desvanecimiento de la
huella de memoria puede motivar una desintegración de las características, quedando
disociadas o, tal vez, se recombinan para formar "conjunciones ilusorias" (Treisman,
1977; Treisman y Smidth, 1982).
Conscientes de la necesidad de probar sus predicciones en diferentes paradigmas
experimentales, Treisman y Gelade (1980) sometieron a prueba sus hipótesis acerca de
que las características totales son conjuntadas automáticamente, mientras que las
características disociadas requieren atención para su integración, mediante una serie de
nueve experimentos independientes pero convergentes. Los tres primeros experimentos
se referían al paradigma de "búsqueda visual", comparando conjunciones de color y
forma con disjunciones de estas características. Investigaron los efectos de la práctica y el
papel de la discriminabilidad de características en búsqueda de conjunción. El
experimento IV trataba de explicar la posibilidad de que los elementos locales de formas
compuestas (ejem. letras) servirían como características disociadas, requiriendo
búsqueda serial cuando pudieran formarse conjunciones incorrectas. Los experimentos
V, VI y VII, se referían a la segregación de textura. Y, finalmente, los experimentos VIII y IX
estudiaban la relación entre identificación y localización espacial, mediante dianas
definidas por una característica simple o por una conjunción.
Los resultados obtenidos probaron la mayoría de sus predicciones, lo que validaba la
teoría de la integración de las características. Las conclusiones afirmaban la posibilidad de
detectar e identificar características diferentes en paralelo y sugería que este proceso de
registro de características debe ser mediado por la segregación de textura y el
agrupamiento figura-fondo. Localizar una característica individual requiere una operación
149
adicional, además, si se desvía o sobrecarga la atención pueden ocurrir conjunciones
ilusorias. Las conjunciones de características correctas requieren enfocar la atención y
están dirigidas serialmente, estas no necesitan la mediación de la segregación de textura
y sólo pueden ser identificadas al ser localizadas espacialmente. La atención visual puede
ser utilizada como una lente zoom, aplicándose sobre un área pequeña con alta
resolución,o extendiéndose sobre una amplia área con alguna pérdida de detalle. Los
resultados con las dianas de características disjuntivas sugieren que estas operaciones
son posibles sin procesamiento serial o atención focal.
150
Capítulo XIV Las teorías de esquemas
"Donde nuestra ignorancia empieza, donde ya no llegamos con la vista, ponemos una palabra; por ejemplo, la palabra 'yo', la palabra 'acción', la palabra 'pasión', que son quizá líneas del horizonte de nuestro pensamiento, pero de ninguna manera verdades". (F. Nietzsche, 1.887)
14.1. INTRODUCCION
Si bien el concepto de Esquema deriva de una tradición filosófica, teórica y
metodológica (el constructivismo) muy distante de la Hipótesis del procesamiento de
información (descendiente de la escuela del aprendizaje verbal), ambas coinciden y son
compatibles en algunas nociones. Por ejemplo, en las Teorías del Esquema, la memoria es
un subproducto de la comprensión (codificación en la terminología de los niveles de
procesamiento de información) y/o la situación de prueba.
Las Teorías del Esquema asumen como propios muchos datos procedentes de la
perspectiva del procesamiento de información: dirección del procesamiento, procesos de
control, etc.
El grupo de autores que desarrolló el proyecto LNR (Rumelhart, Norman y Lindsay,
1971-1975) en la Universidad de California (San Diego) defendió la unidad del sistema
cognitivo humano, al establecer la unicidad de principios entre los procesos perceptivos y
los procesos del conocimiento y su representación.
Este grupo se proponía entender los mecanismos del sistema de procesamiento
humano. Declaran: "el hombre es un mecanismo de procesamiento de información,
construido sobre un sustrato biológico, como resultado de muchos años de evolución y
cambio, que suceden dentro y son influidos por un entorno social y cultural. Queremos
comprender cuales son los mecanismos básicos de procesamiento de información que
recogen la información del medio, la almacenan, recuperan, reconstruyen, infieren,
deducen y, en definitiva, como procesamos ésta información (Norman y Rumelhart,
1981).
151
14.2. ORIGEN Y DEFINICIONES
El concepto de Esquema, tan vigente y de interés en la Psicología cognitiva, tiene
profundas raíces que se pierden en la historia del pensamiento humano.
El uso del término "esquema-cognitivo" (al que nos referiremos en lo sucesivo) fue
acuñado en Europa, hace ya más de medio siglo con el objetivo de explicar los procesos
del pensamiento infantil (Piaget, 1926) y los procesos de comprensión y memoria en el
ámbito socio-cultural (Bartlett, 1932). Si bien la concepción actual del Esquema difiere
notablemente de sus orígenes, haremos una brevísima reseña histórica que profundice
en el término para seguir sus pasos hasta nuestros días.
Señala J.L. Phillips (1969) que el desarrollo cognitivo consciente, para Piaget, es una
sucesión de cambios, esencialmente estructurales. Suele referirse a las estructuras
individuales con el nombre de esquema. Considera al esquema como una especie de
minisistema: "es aquella determinada propiedad de una acción que puede generalizarse
a otros contenidos". Y comprende también los estímulos que desencadenan los procesos
mediadores y la conducta abierta. que presupone está organizada por ellos. Cita como
ejemplo el esquema "mirar y coger". Puede haber interacciones entre esquemas, es
decir, pueden asimilarse entre si. Los define como una unidad genérica de estructura;
"todo aquello que es repetible o generalizable" (Piaget, 1950). Considera que las
estructuras primeras son relativamente sencillas, generalmente la gente se refiere a ellas
como reflejos. Los esquemas posteriores son más complejos (más mentales) y cada vez
resulta más apropiado pensar en ellos como estrategias, planes, reglas de
transformación, expectativas, etc.
"Sean cual fuere las etiquetas que se les aplique, constituyen una suerte de armazón
en el que pueden encajarse los datos sensoriales que se van aportando, puesto que de
hecho deben encajar si han de tener algún efecto; con todo, es un armazón que cambia
continuamente de forma para que encajen en él, el mayor número de datos posible"
(Phillips, 1969).
Otro de los pioneros del concepto de esquema cognitivo fue el británico Bartlett (1932),
quien en su obra "Remembering" describió una investigación que mostraba los efectos
del conocimiento previo (esquema) sobre la comprensión de la memoria. Un grupo de
152
estudiantes ingleses recibió un relato correspondiente a una leyenda de una tribu india,
sometiéndose posteriormente a pruebas de memoria, a los pocos minutos y al cabo de
meses. En opinión de Bartlett, la lectura del citado relato, perteneciente a una cultura
ajena, resultaría de difícil comprensión y recuerdo para los sujetos occidentales, ya que
no disponían de estructuras mentales adecuadas para extraer su significado.
La Psicología norteamericana interesada en el campo de la IA, redescubriría 30 años
más tarde el concepto de esquema, poniéndola de actualidad (Schank y Abelson, 1977).
Estos autores observaron que no era suficiente para que los programas de ordenador
comprendiesen textos, fuera de un dominio temático muy reducido (micromundo), el
implementar algunas destrezas sintácticas y un conocimiento léxico. Para lograr la
eficiencia deseada en la comprensión, es preciso disponer de un conocimiento del
mundo almacenado en su memoria. Así, la comprensión resulta de un producto
construido a partir de la información del input y el conocimiento previo.
Más próximas a nuestro tiempo encontramos otras concepciones que definimos
básicamente:
En palabras de U. Neisser (1976, pag. 67, trad. cast.) "un esquema es aquella porción del
ciclo perceptivo que es interno al perceptor, modificable por la experiencia y de algún
modo específico con respecto a lo que se percibe".
Para Norman y Bobrow (1975) "un esquema consiste en un sistema de ligar la
información acerca de un concepto o hecho dado, con especificaciones acerca de los
tipos de interrelaciones y restricciones sobre la forma en que se corresponden las cosas.
Los esquemas pueden activar procedimientos capaces de operar sobre información local
y sobre el recipiente común de datos." Señala también que " el problema de los
problemas perceptivos consiste en determinar el esquema apropiado y aparear los
acontecimientos actuales con la construcción prevista para ellos. Si se plantean muchas
discrepancias, deberá seleccionarse un nuevo esquema o reorganizarse el que se tiene a
mano". De acuerdo con Palmer (1975) considera que el esquema representativo de un
objeto en la memoria debe contener información sobre las relaciones entre las partes del
objeto y apenas se observen en un input sensorial alguna de las subpartes o relaciones
entre éstas, debe activarse el esquema organizando la entrada y guiando el
153
procesamiento. Además, entiende este autor que el procesamiento sensorial
interacciona con el procesamiento conceptual organizado en esquemas, de manera que,
cuanta más información conceptual dispongamos de una escena, menos información
sensorial se requerirá. Norman también se refiere a los esquemas bajo el rótulo de
construcciones estructurales o construcciones del conocimiento.
Rumelhart, define "un esquema es una estructura de datos para representar conceptos
genéricos almacenados en la memoria (Rumelthart, 1980). Considera que los esquemas
organizan la memoria y guían la percepción, las acciones y el pensamiento. Este autor y
sus colaboradores representan el esquema mediante una red semántica de relaciones
entre todo lo que se conecta con el concepto representado, llamado Retícula Estructural
Activa (Active Structural Network) o prototipo de esquema (Norman y Rumelhart, 1975).
En nuestros días, M. de Vega (1984) sintetiza algunos de los rasgos comunes a las
diversas Teorías de Esquemas existentes, considerando a los esquemas como entidades
conceptuales complejas, compuestas de unidades más simples (subesquemas), a modo
de paquetes de conocimientos prototípicos, cuyos componentes o variables no están
especificados; que son actualizados en determinadas condiciones, generando inferencias
temáticas mediante el mecanismo de rellenar "valores ausentes". Tienen un carácter
multifuncional y se integran encajando unos en otros.
14.3. CARACTERISTICAS Y ELEMENTOS DEL ESQUEMA
Recopilaremos aquí las características comunes que presentan las diversas Teorías de
Esquemas, hoy en día no del todo sistematizadas o integradas en un marco de referencia
unificado. Las más representativas son:
a) Los Esquemas sirven para representar conocimientos. son paquetes de
conocimientos prototípicos, cuyos componentes o variables no están especificados. Los
conocimientos no están aislados como en un diccionario, sino más bien interrelacionados
unos conceptos con otros.
b) Estructuralmente constan de variables interrelacionadas y valores. Los valores
especifican los datos de las variables, en función del contexto. Las variables se asignan a
154
diferentes aspectos del medio; estando limitadas a intervalos de valores impuestos por el
entorno. Cuando no existe información suficiente,realizan inferencias temáticas
mediante el mecanismo de rellenar "valores ausentes". De modo ilustrativo,
expondremos el esquema "DAR", ofrecido por Rumelhart y Ortoni (1977).
En el presente esquema intervienen las variables: donante, receptor y objeto donado.
Se puede observar que las relaciones entre éstas permanecen invariables, aunque
cambien sus valores.
c) Son unidades cognitivas de alto nivel, que comprenden diversos niveles de
abstracción del conocimiento. Los esquemas son entidades conceptuales complejas
constituidas por unidades más simples. Ejemplo, el esquema "comprar" incluye:
personajes (comprador, vendedor), objetos (dinero, mercancía, establecimiento),
acciones (transferir una propiedad o un servicio, pagar) y metas (beneficiarse el
vendedor, disfrutar de la propiedad o del servicio).
d) Presentan una organización jerárquica, encajando unos esquemas en otros, hasta
llegar a los esquemas atómicos o primitivos, que ya no pueden ser englobados en otros
subesquemas. Los esquemas integran esquemas más elementales, y constituyen a su vez
subesquemas de otros. Por ejemplo, Palmer (1975) propone el esquema "rostro", que
posee como subesquemas: ojo, nariz, oreja, boca, etc. El subesquema "ojo" contiene
otros subesquemas: pupila, iris, cornea, etc., pero el subesquema "pupila" es ya un
concepto elemental, átomo o primitivo, que no incluye otros subesquemas (para los no
155
especialistas en el tema).
e) Los esquemas poseen un carácter multifuncional. Guían los procesos de
comprensión, de percepción (marcos o frames), han significado una importante
concepción de la memoria y su organización, en la que el recuerdo es un subproducto de
la activación de esquemas durante la recuperación. Y también controlan el
comportamiento estableciendo metas y secuencias de acciones (planificación).
f) Los esquemas se adquieren mediante experiencias recurrentes. En opinión de U.
Neisser (1976) el desarrollo del esquema procede de lo general a lo particular, de lo
indiferenciado a lo preciso.
14.4. MULTIFUNCIONALIDAD DE LOS ESQUEMAS Y AREAS DE APLICACION
Vamos a penetrar en el uso que hace el sistema cognitivo humano de los esquemas
para el procesamiento de información, donde juegan un papel de gran versatilidad,
interviniendo activamente en numerosas funciones cognoscitivas. Entre las que
resaltamos las siguientes:
1) La comprensión de narraciones. En opinión de Rumelhart (1979) ésta es en realidad
un proceso constructivo, fruto de la interacción de tres factores: el texto, el contexto y
los esquemas cognitivos. Cuando un esquema ha sido activado, desempeña las siguientes
funciones:
* Integración de varias cláusulas en una unidad de significado superior y elaboración
del texto.
* Infiere y predice, permitiendo que el lector entienda mucho más de lo que está
explícito, por medio del relleno de "valores ausentes".
* Guía y controla la comprensión, determinando que información es relevante y cual
relativamente marginal para el lector.
2) La memoria es considerada en la tradición de Bartlett, como un subproducto de la
comprensión. El individuo recuerda el significado construido a partir del texto, el
contexto y su propio conocimiento del mundo.
3) La percepción. Afirma Neisser (1976) "la percepción es el resultado de la interacción
156
del esquema y la información accesible. Más aún, es ésa interacción". "Los esquemas
perceptivos son planes para buscar detalles sobre objetos y eventos, para obtener más
información que complete el formato". Concibe los esquemas como "formatos"
(terminología de programación de ordenadores) que especifican de que tipo debe ser la
información para que sea interpretada de modo coherente. La información que no se
ajusta al formato no se llega a utilizar (selectividad perceptiva) [pag. 68-70, trad. cast.].
4) La atención. Neisser (1976) representa aquí la postura más radical cuando asegura
que una vez activado un esquema, éste opera como un dispositivo de selección
atencional, de manera que el individuo procesa, sobre todo, la información que encaja en
él, e ignora el resto. Kintsch y Van Dijk (1978) sostienen una opinión similar al considerar
que es desechada la información irrelevante desde el punto de vista del esquema,
formándose un extracto compuesto con información congruente con el esquema
directivo.
5) La organización de la conducta. Si bien todos los esquemas tienen un carácter
procedimental, hay algunos que están especialmente dirigidos a la acción. Estos
esquemas de acción o planes tienen en común las siguientes notas:
a) Requieren un agente. b) Se dirigen a metas ambientales. c) Se activan
intencionalmente. d) Se organizan jerárquicamente en metas, submetas, etc. e) Incluyen
métodos de planificación de la acción, formados por secuencias de acciones motrices
requeridas para alcanzar la meta. f) Son guiados, básicamente, por los datos, por lo que
requieren de una retroalimentación continuada.
6) El aprendizaje. En este campo, los esquemas han servido para ayudar a desentrañar
el mecanismo que regula la formación de nuevos esquemas. Hay tres formas básicas
(Rumelhart y Ortoni, 1977): i) Mediante la acumulación de conocimientos que hacen
crecer el esquema. ii) Mediante la práctica en la utilización del esquema. iii) Mediante
procesos de reestructuración.
7) El razonamiento y la solución de problemas. Funcionan como un plan del tipo
descrito por Miller, Galanter y Pribram(1960). Los esquemas han servido para conocer los
mecanismos que conducen a la solución, al aplicar unas reglas generales a un problema
concreto. Los procesos de razonamiento están mediatizados por nuestro conocimiento
157
general del mundo, y por tanto se les puede considerar esquemáticos.
8) El lenguaje oral y escrito está también guiado por la activación de esquemas (Kintsch,
1980). Norman y Rumelhart (1981) explican la paráfrasis (expresar una frase con distintas
palabras) en base al concepto de esquema. Esta se debe a que en la memoria (y por
tanto en los esquemas) representamos proposiciones y no palabras (proposicionalistas).
9) La categorización Un esquema puede considerarse de hecho como una categoría
cognitiva (Abelson, 1981). Presentan siguientes coincidencias con las categorías
naturales:
Son difusos y existen en ambos (conceptos y esquemas) objetos más prototípicos y
otros menos representativos.Son jerárquicos, al igual que las categorías. Probablemente
los esquemas se generen por abstracción de prototipos a partir de experiencias
recurrentes, de modo análogo a la formación de prototipos conceptuales.
14.5. CONTENIDOS REPRESENTADOS POR LOS ESQUEMAS
Queremos resaltar aquí la gran variedad de dominios del conocimiento que pueden ser
representados mediante esquemas. Desde el punto de vista de las Teorías de Esquemas,
prácticamente todos los contenidos de la memoria humana están organizados total o
parcialmente en esquemas.
Los esquemas son representaciones, en principio válidas para todo tipo de áreas del
conocimiento. Entre las que han sido representadas en el devenir de ésta noción
destacamos:
A)Escenas visuales: marcos (frames). M.L. Minsky (1975) ofreció un influyente estudio
teórico de tales esquemas conceptuales, que él llama "frames". Se refiere al uso de
marcos (concebidos generalmente como modelos internos del mundo, o
representaciones epistemológicas sistemáticas) en una amplia variedad de dominios,
como los contextos visuales, de resolución de problemas y semánticos. Cada marco
representa información prototípica desde cierto punto de vista, de modo que una escena
determinada requiere un sistema de marcos que se van activando sucesivamente, a
medida que el observador se desplaza en el medio. Estos marcos funcionan de modo
158
análogo a los esquemas: generan expectativas, permiten interpretar o comprender la
experiencia visual, hacen posible la inferencia de detalles que no hemos visto mediante el
relleno de valores ausentes, ayudan a memorizar y recordar escenas visuales, etc.
Además, este concepto de "marco" es tan explícito como para poder ser simulado en
programas de ordenador.
B)Situaciones: guiones (scripts). Un guión es una sucesión coherente de temas, donde
cada tema conduce al siguiente conforme cambia continuadamente la relación temática
entre los actores (Schank y Abelson, 1977). Abelson se pregunta en qué grado son
compartidos por la gente estos guiones o pequeñas narraciones, en cuyos términos las
personas conceptualizan, explican y predican el mundo social.
A modo de ilustración citaremos el guión "ir al médico", el cual consta de las siguientes
escenas: llegar a la consulta, decir el nombre a la enfermera, entrar en la sala de espera,
saludar, tomar asiento, esperar turno, tomar una revista, hablar con otros pacientes, etc.
C)Dominios temáticos. Kintsch y Van Dijk (1978), en su modelo de comprensión de
textos, introducen otro tipo de esquemas muy abstractos que, en su opinión, guían la
comprensión y la producción del discurso oral y escrito, especialmente cuando éste es
muy largo. Por ejemplo, cuando nos disponemos a leer un informe experimental,
esperamos una introducción al problema, una hipótesis, unas variables, una descripción
del método (con: sujetos, material, equipo, diseño, etc.), los resultados y una discusión
teórica.
D)Esquemas de autoconcepto o autorreferenciales. La mayoría de las personas poseen
un conocimiento muy articulado sobre si mismos, sus habilidades, debilidades, logros y
fracasos, preferencias, temperamento, etc. El autoesquema es una estructura cognitiva
muy diferenciada y articulada, y por tanto permite una mayor elaboración de la
información, cuando ésta se integra en dicho esquema (Bower y Gilligan, 1979, citado por
M. de Vega, 1984).
14.6. LA TEORIA DE ESQUEMAS
Hasta el momento presente, han aparecido numerosas Teorías de Esquemas, cada una
159
con sus peculiaridades. Hasta aquí hemos intentado extraer las características generales
que comparten de algún modo.
En opinión del profesor de Vega (1984), la Teoría de Esquemas en su estado actual es
una formulación algo tosca. Sin embargo, su poder explicativo acompañado de una
indudable plausibilidad psicológica, la convierten en un núcleo teórico que por primera
vez nos permite vislumbrar la posibilidad de una Teoría Cognitiva unificada.
Así lo entendió el grupo LNR de la Universidad de California, dirigido por Rumelhart,
Norman y Lindsay, quienes integraron la Hipótesis del procesamiento de información con
la Teoría del Esquema propuesta por ellos mismos, señalando que no hay discontinuidad
entre percepción y comprensión (recordemos, una vez más, que la memoria es para ellos
un subproducto de la comprensión y/o la situación de prueba), sino que ambas se
insertan en un continuum que abarca desde un nivel de abstracción bajo hasta otro más
elevado. Percibir es comprender el estímulo sensorial (Rumelhart y Ortoni, 1977).
Por último señalaremos que las Teorías de Esquemas no sólo aportan principios
generales para explicar los fenómenos de la percepción, comprensión, memoria,
razonamiento, comportamiento, etc., sino que también permiten interpretar fenómenos
anómalos o atípicos que las teorías convencionales trataban de eludir o considerar
aberrantes. Citemos, entre éstos, la comprensión no literal que tiene lugar en la
metáfora, o el estudio de actos fallidos desde el punto de vista de esquemas o planes de
acción.
Con las ideas hasta aquí expuestas esperamos haber logrado mostrar una visión general
de este ascendente enfoque teórico, de modo que nos permita interpretar las
implicaciones teóricas sobre el ámbito de los fenómenos perceptivos y, concretamente,
la interacción sensorio-cognitiva que tiene lugar entre la información procedente del
estímulo y la almacenada en las estructuras del conocimiento.
160
Capítulo XV: Marcos perceptuales (Frames)
Cuando percibo una casa, no veo una imagen que me entra en el ojo. Al contrario, veo un sólido en el que puedo entrar." (V. Weizsäcker, s. XX)
15.1. DEFINICION DE TERMINOS
Inicialmente es preciso establecer ciertas distinciones entre términos básicos que
abundan en el terreno del procesamiento visual no verbal, nos referimos a los términos
dibujo (picture), realidad y escena.
En opinión de Haber (1980), algunos autores consideran los dibujos como
construcciones artificiales y simplificadas de la realidad. En efecto, un dibujo reduce lo
tridimensional a bidimensional, lo que supone disminuir la complejidad y, en este
sentido, resultará más sencilla la percepción de un dibujo que la de su correlato real. En
consecuencia, consideran que en base a la experiencia se aprende a percibir qué es lo
que representan. El problema radica en que los datos empíricos recogidos, en lugar de
apoyar, contradicen esta hipótesis (Nelson, Metzler y Reed, 1974). Haber (1980) concluye
que resulta innecesario postular nuevos procesos, y un aprendizaje especial en la
percepción de dibujos, puesto que los sujetos pueden utilizar idénticos procesos y
estrategias que en la percepción de la realidad. Así, el sistema visual extrae información
sobre la profundidad de un dibujo en dos dimensiones (2D) a través de la interpretación
de un número determinado de pistas (Ejem.: gradiente de textura, tamaño, distancia,
solapamiento, etc.), aunque se pierdan otras claves, que se utilizan en la percepción de la
realidad, derivadas de la presencia física y activa del perceptor, tales como las
relacionadas con los movimientos corporales (cabeza, ojos) y la disparidad retiniana de la
visión binocular. Por consiguiente, dado que las pistas nos permiten percibir los dibujos
con profundidad (3D) puede admitirse cierta equivalencia funcional entre la percepción
de un dibujo y la percepción de la realidad que este representa, de modo que la
experiencia perceptual en la visión de la realidad puede extrapolarse, analógicamente, en
la identificación y reconocimiento de dibujos.
161
No obstante, la equivalencia funcional entre dibujo y realidad no debe entenderse
como una correspondencia total. En esta línea, señala Gibson (1954) que, mientras en la
percepción de una escena natural (real) el sujeto utiliza abundante procesamiento
sensorial, periférico, en la percepción de un dibujo o fotografía no lo hace.
El término escena, que ordinariamente se refiere al espacio que simula el lugar donde
transcurre la acción teatral, en el ámbito del procesamiento visual se emplea para
designar la representación, mediante dibujo o fotografía, de un determinado lugar en el
plano (por ejem., dormitorio, cocina, granja, calle, etc.). Las unidades componentes de
una escena son los objetos,
dispuestos según relaciones espaciales (Mandler, 1984). En el procesamiento de una
escena interactúan la información sensorial, procedente del estímulo, con las estructuras
del conocimiento almacenadas en memoria; por tanto, se trata de una interacción
sensorio-cognitiva, que resultará más o menos automática según intervengan procesos
periféricos o centrales.
15.2. EXPLORACION DE ESCENAS
Al iniciar el procesamiento de escenas, acaecen unos procesos de atención selectiva de
los estímulos que la constituyen. La exploración del material pictórico, por los seres
humanos, no se realiza practicando un barrido exhaustivo, que comienza en un
determinado punto y sigue una cierta dirección, sino que, al contrario, transcurre según
estrategias de exploración que pueden estar guiadas por las propiedades más
sobresalientes del estímulo (data driven processing), por los conocimientos almacenados
en MLP a lo largo de experiencias pasadas (conceptually driven processing), o por la
interacción de ambos. El registro de los movimientos oculares durante la exploración de
una escena permite obtener una medida objetiva (VD experimental) del enfoque
atencional en un instante preciso, a la que han recurrido algunos investigadores (Loftus,
1972; Friedman, 1979). En tales movimientos oculares se distinguen dos componentes
diferenciados:
a) Las fijaciones oculares, en la cual los ojos permanecen casi estáticos durante periodos
162
alrededor de los 300 msg. y en los que suele tener lugar la extracción de información.
b) Los movimientos sacádicos, en los que el sujeto desplaza, entre 5 y 10 grados, los
ojos sobre la escena, invirtiendo tiempos más breves (alrededor del 5% del tiempo de
exploración, Yarbus, 1967) y durante los cuales no se extrae información del estímulo
(Latour, 1962).
Estos movimiento oculares permiten conocer el lugar, el tiempo y la frecuencia con que
un sujeto centra su mirada sobre una escena, siendo posible establecer la amplitud de los
movimientos sacádicos o distancias que median entre dos fijaciones oculares
consecutivas. Los intereses, motivos y propósitos establecidos espontáneamente o
mediante instrucciones son factores relevantes en la exploración del dibujo (Yarbus,
1967) y, en general, las personas suelen fijar primero la mirada con más frecuencia y
duración en las áreas de mayor valor informativo (Mackworth y Morandi, 1967; Antes,
1974) y, posteriormente, examinan los detalles con más minuciosidad.
Loftus (1975) estableció 'a priori' una definición del valor informativo de un dibujo,
según la cual, este valor es inversamente proporcional a la probabilidad de verse incluido
en una escena, lo cual depende del efecto contextual y la tipicidad o experiencia del
sujeto. Ulteriormente, Loftus y Mackworth (1978) diseñaron un experimento para
someter a prueba su definición, llegando a la conclusión de que el número de fijaciones
oculares y el tiempo invertido en estas éstas era mayor en los objetos atípicos o de baja
probabilidad (altamente informativos) que en los objetos predecibles, además, los
primeros eran detectados antes.
Finalmente, Friedman (1979) estudió la relación entre fijaciones oculares y tipicidad,
encontrando que los objetos muy típicos de una escena se examinan más rápidamente
que los atípicos.
En resumen, las investigaciones revisadas hasta aquí nos permiten afirmar que las
personas detectan muy tempranamente los elementos que poseen mayor valor
informacional mediante procesos periféricos y, en base a estos procesos, determinan la
estrategia de exploración que provoca una mayor focalización de la atención sobre
ciertas áreas de la escena.
163
15.3. IDENTIFICACION DE ESCENAS VERSUS RECONOCIMIENTO
En una investigación que evidenció la sorprendente capacidad humana para reconocer
estímulos anteriormente presentados, Shepard (1967) puso de relieve esta notable
capacidad al presentar secuencialmente a los sujetos 612 cuadros, a un promedio de 6
seg./imagen, aplicando pruebas de reconocimiento en distintos intervalos de retención.
Los resultados obtenidos indicaron un correcto reconocimiento inmediato del 97% de las
imágenes (9 de 35 sujetos obtuvieron el 100%); una semana después e la prueba el
reconocimiento se mantenía por encima del 90% y sólo después de haber transcurrido
cuatro meses el reconocimiento no difería del esperado al azar (58%).
Los hallazgos de Standing, Conezio y Haber (1970), todavía causan mayor admiración.
Hicieron estudiar 2560 diapositivas de escenas comunes a razón de 10 seg./imagen,
empleando de dos a cuatro días, y obtuvieron una retención inmediata del 90%, siendo el
máximo del 95% y el mínimo del 85%).
No obstante, si bien es elevada la capacidad de reconocimiento humana, debe tenerse
en cuenta que cuando se presentan las escenas con una tasa entre 3-8 imágenes por
seg., que se aproxima a la de las fijaciones oculares, el reconocimiento no es significativo
(Potter y Levy, 1969). Una aceptable interpretación que se dio a este hecho fue que los
sujetos no llegan a identificar las imágenes. Sin embargo, otros experimentos (Potter,
1975, 1976) sugirieron que, si bien las escenas lograban identificarse los sujetos no
conseguían recordarlas. Ulteriormente, Intraub (1979), mediante un paradigma
experimental denominado de "detección negativa" concluyó que la superioridad de la
detección sobre el reconocimiento podía atribuirse, no a la falta de tiempo para
identificarlo, sino al hecho de no disponer suficiente tiempo para codificar la información,
por lo que ésta era olvidada. Según Loftus (1972, 1976) la codificación de los detalles
tiene lugar en las sucesivas fijaciones oculares sobre el dibujo; sin embargo, el hecho de
que una demora interestimular en torno a 5 seg. aumente el reconocimiento, sugiere
que la codificación de detalles no sólo acontece durante el tiempo de exposición del
estímulo, sino que prosigue hasta que el icón se desvanece (Intraub, 1980).
164
15.4. VARIABLES QUE INFLUYEN EN EL RECONOCIMIENTO
Reconocer significa decidir que un estímulo se ha experimentado anteriormente
(Mandler, 1981). El reconocimiento es función de numerosas variables, entre las que
destacan las seis que a continuación describimos:
1) La familiaridad, es la operación básica para el reconocimiento y se refiere a la
experiencia sensorial con el estímulo. Cuanto mayor es el tiempo de exposición de dicho
estímulo, mayor es el reconocimiento. Según Loftus (1972), no es meramente el tiempo
de exposición del estímulo el que debe asociarse a la experiencia de familiaridad, sino la
frecuencia y tiempo invertido en las fijaciones oculares.
2) La mediación verbal, que afecta al reconocimiento mediante la aplicación de
etiquetas verbales y/o almacenando una descripción verbal del estímulo durante el
tiempo de exposición.
3) El intervalo interestímulos, o período de tiempo transcurrido entre la exposición
secuencial de dos estímulos sucesivos, que permite una codificación de mayor número de
detalles, cuanto más prolongado es.
4) La demora temporal o intervalo de retención, que provoca un decaimiento del
reconocimiento a medida que aumenta. Si bien el reconocimiento disminuye con el
tiempo, cuando los estímulos son familiares, el decaimiento es menor (Shepard, 1967;
Bahrik, 1975).
5) La similitud interestímulos u homogeneidad de los estímulos de prueba, que hacen
disminuir el reconocimiento hasta no ser significativo respecto al azar. Goldstein y
Chance (1970) estudiaron el reconocimiento de diversos materiales, concluyendo que a
mayor homogeneidad (o similitud) implicaba un menor reconocimiento.
6)Los cambios estimulares o transformaciones de detalles en el estímulo original.
Baddeley y Patterson (1977) investigaron el reconocimiento de rostros de actores,
llegando a la conclusión de que el reconocimiento sin cambios era muy alto (98%),
mientras que con cambios (peinado, barba, gafas, bigote, etc.) descendía por debajo del
azar (45%).
165
15.5. MARCOS PERCEPTUALES
En términos generales, las teorías del esquema sostienen que los sujetos van
construyendo estructuras de conocimientos (esquemas) a lo largo de su desarrollo
cognitivo, de manera que, posteriormente, estos esquemas guíen el procesamiento
perceptivo de manera cada vez más automática.
Las teorías del esquema han ido surgiendo como teorías sobre la representación del
conocimiento y resultan de un intento de ofrecer una explicación acerca de como utilizar
estos conocimientos en el reconocimiento de estímulos.
Una de estas teorías, que permiten interpretar contextos relativos a escenas visuales,
generan expectativas, contribuyen a la organización del recuerdo, etc., es la de los
"marcos perceptivos" (frames), la cual fue propuesta por Minsky (1975), trabajando en el
campo de la IA.
En un marco se halla representada información prototípica según un determinado
criterio y se hallan organizados jerárquica o heterárquicamente, en función de ciertos
niveles de abstracción o submarcos, los cuales se irán activando sucesivamente conforme
el sujeto interactúe con el medio. Así, por ejemplo, el marco 'casa' puede componerse de
los submarcos: pisos, escalera, ascensor, patio, garaje, etc.; el submarco piso se
compone, también, de otros submarcos de nivel inferior, tales como: cocina, dormitorio,
salón, baño, etc. y, cada uno de éstos, a su vez, se halla constituido por objetos más o
menos prototípicos.
Un sólo objeto o un reducido número de objetos puede activar un determinado marco
contextual y, viceversa, a partir de un marco se activan las expectativas de los objetos
típicos en él.
Con el fin de obtener una medición del grado de control que ejercen los marcos sobre la
información contenida en las escenas, Mandler y colaboradores (Mandler y Johnston,
1976; Mandler y Parker, 1976) clasificaron en cuatro grupos los 'tipos de información'
que contienen los esquemas. Estos son:
- Inventarial, encargada de especificar los objetos susceptibles de incluirse en el
marco, es decir, los que hay o puede haber.
166
- De localización espacial, se ocupan de la información relativa a la posición de los
objetos y sus relaciones espaciales, esto es, donde están colocados.
- Descriptiva, contienen información sobre cómo son los objetos.
- De composición espacial, indican qué áreas del dibujo están rellenas y cuales vacías.
Para cuantificar estos tipos de información, registraron el TR o latencia de
reconocimiento y la precisión de las respuestas (número de aciertos y errores). Las
escenas presentadas a los sujetos, a razón de 5 seg./dibujo, podían ser organizadas o
desorganizadas y éstas, a su vez, podían ser originales o transformadas según ciertas
reglas relativas al tipo de información que controla el esquema (sustitución de un objeto,
supresión, movimiento lateral, intercambio de posición, etc.).
Los resultados obtenidos evidenciaban que el factor organizacional no influía sobre la
información inventarial, ni sobre la descriptiva; sin embargo, este factor organizativo
daba lugar a diferencias en el reconocimiento, al interactuar sobre la información de
localización, de modo que, si la escena era organizada, el reconocimiento era mayor y,
contrariamente, actuaba sobre la información de composición espacial, en el sentido de
que en las escenas desorganizadas el reconocimiento era superior.
Posteriores investigaciones (Mandler y Ritchey, 1977) pusieron de manifiesto que, en
pruebas de reconocimiento a largo plazo (intervalo de retención prolongado), el
reconocimiento en los ensayos relativos a información inventarial era más elevado en las
escenas organizadas que en las desorganizadas. Además, sugerían que, utilizando
escenas más complejas, o bien disminuyendo el tiempo de exposición de éstas,
probablemente, se incrementaría el acceso a la información inventarial en las escenas
organizadas. Respecto a la información descriptiva, los datos parecen insinuar que este
tipo de información no parece estar bajo control del esquema.
Friedman (1979) verificó, mediante una serie de experimentos, las predicciones de la
teoría de marcos, encontrando que la probabilidad de identificación de un objeto
contenido en una escena es inversamente proporcional a la probabilidad de hallarse este
objeto en el inventario del esquema, en otros términos, comprobó que el
reconocimiento era mayor cuando los objetos eran poco probables que cuando eran muy
probables. Interpretó que si los objetos encajan en las expectativas del esquema, la
167
identificación es automática, pero si los objetos no son prototípicos del contexto de una
escena, requieren mayor focalización de la atención.
Por último, los trabajos experimentales de Goodman (1980), en relación con el
recuerdo, le llevan a afirmar que los sujetos primero recuerdan el tema del dibujo o
escena, luego los objetos más prototípicos en ese contexto y, finalmente, los de escasa
tipicidad, verificando así los supuestos de la teoría del esquema, que predicen un mejor
recuerdo para los objetos representativos del esquema y el olvido o recuperación tardía
de la información irrelevante para el esquema. Resumiendo lo hasta aquí expuesto, se
han verificado las funciones que cumplen los esquemas, guiando los procesos de
codificación contenidos en un esquema, así como la recuperación selectiva de la
información contenida, permitiendo predecir la probabilidad de reconocer la información
que alberga.
168
Bibliografía ABELSON, R.P. (1981). Psychological status of the script concept. American Psychologist. Vol 36, 7, 715-729. ALLPORT, F.H. (1955) Theories of perception and the concept of structure. Nueva York: Wiley. AMES, A. (1946). Some demostration concerned with the origin and nature of our sensation: a lab manual.Dartmouth Eye Inst., Hanover, N.H. AMON, J. (1978). Estadística para psicólogos. Madrid: Pirámide, vol. 1. ANTES, J.R. (1974). The time course of picture viewing. Journal of Experimental Psychology, 103, 1, 62-70. ANDERSON, J.R. y BOWER, G.H. (1973). Human Associative Memory Ed. Winston & Sons. (Trad. cast. Memoria Asociativa. (1977). México: Limusa). ANDERSON, J.R. (1976). Language, Memory and Thought. Hillsdale, New Jersey: Lawrwnce Erlbaum Associates. ARDILA, A. (1980). Psicología de la percepción. México: Trillas. ATKINSON R.C. y SHIFFRIN R.M. (1968).Human Memory: A proposed system and its control processes. The Psychology of Learning and Motivation, 2, 2, 89-195. ATKINSON R.C. y SHIFFRIN R.M. (1971). The control of short-term memory. Scientific American, 225, 82-90. AVERBACH, E. y CORIEL, A.S. (1961). Short-Term memory in vision. Bell System Technical Journal, 40, 309-328. AVERBACH, E. y SPERLING, G. (1961). Short-Term storage of information in vision. En C. Cherry (Ed.): Information Theory. Butterworth. AZNAR, J.A. (1989): El continuum de eficacia en la recuperación: un marco integrador para el estudio de los comporta mientos mnémicos. Tesis doctoral no publicada. Universidad de Barcelona. BAHRICK, H.P.; BAHRICK, P.O. y WITTLINGER, R.P. (1975). Fifty years of Memory for Names and Faces: a cross-sectional approach. Journal of Experimental Psychol.: General, 104, 54-75. BARTLETT, F.C. (1932). Remembering. A study in experimental and social psychology. (reedic. 1977), Cambridge, Cambridge University Press. BARON, J. y THURSTON, I. (1973). Ananalysis of the word superiority effect. Cognitive Psychology, 4, 207-228. BLAKEMORE, C. y COOPER, G.F. (1970). Development of the brain de pends on the visual environment. Nature (Londres) 228, 477-478. BODEN, M.A. (1977). Artificial Intelligence and Natural Man. Brighton, Sussex: Harverter Press Limited. [Trad. cast. Madrid: Ed. Técnos, 1984]. BOWER, T.G.R. (1966). The visual world of infants. Scientifics American, 215, 80-92. BOWER, T.G.R. (1967). Phenomenal identity and form perception in an infant. Perception and Psychophysics, 2, 74-76. BOWER, T.G.R. (1971). The object in the world of the infant. Scientifics American, 225, 30-35. BRUNER, J.S. y POSTMAN, L. (1949). Perception Cognition and Behaviour. Journal of Peraonality, 18, 14-31. BRUNER, J.S.; GOODNOW, J. y AUSTIN, G.A. (1956 ). A Study of thinking. New York: Wiley & Sons. [Trad. cast. "El proceso mental en el aprendizaje". Madrid: Ed. Narcea S.A., 1978]. BRUNER, J.S. (1983). In search of mind. New York: Harper & Row. BRUNSWIK, E. (1955). Representative design and probability theory in a functional psychology. Psychological Review, 62, 193-217. CAPARROS, A.(1976). Historia de la Psicología. Tomos I-II. Barcelona: C.E.U. CAPARROS, A.(1977). El resurgir de la percepción en la Psicología contemporánea. Anuario de Psicología, 16, 63-94. CAPARROS, A.(1980). Los paradigmas en Psicología. Sus alternativas y sus crisis. Barcelona: Ed. Horsori. COLLINS, A.M. (1977). Why Cognitive Science. Cognitive Science, 1, 3-4.
169
COLLINS, A.M. y LOFFTUS, E.F. (1975). A Spreading-Activation Theory of Semantic processing. Psychological Review, 82, 6, 407-428. CROWDER, R.G. (1982). The Psychology of Reading, an Introduction. Oxford University Press, Inc. (Trad. cast, Ed. Alianza, 1985). DAY, R.H.(1969). Human Perception. Australasia: Wiley & Sons. (Trad. cast., 1ª edic., 2ª reimpres.: Psicología de la percepción humana. México: Limusa DONCHIN, E. (1982). Cognitive Psychophysiology. Hillsdale, Nueva Jersey: L.E.A. DONCHIN, E.; RITTER, W. y McCALLUM, W.C. (1978). Cognitive Psy- chophysiology: the endogenous components of the ERP. En E. Callaway, P. Tueting y S. Koslov (Eds.) Event-Related Brain Potentials in Man. Nueva York; Academic Press. DONDERS, F.C. (1968). La vitesse des actes psychiques. Archives Néerlandaises. (Reedición en Acta Psychologica,30 1969, 412-431. FANTZ, R.L. y NEVIS, S. (1967). Pattern preferences and perceptual-cognitive development in early infancy. Merril-Palmer Quaterly, 13, 77-108. FERNANDEZ TRESPALACIOS, J.L.(1989). Object Perception and Pheno- menology. En B.E. Shepp y S. Ballesteros (Eds.). Object Perception: structure and process. Hillsdale New Jersey: L.E.A. (pp 1-17). FIRTH (1964). R. Austin and the argument from ilusion. Philosophical Review, 73, 372-382. FODOR, J.A. (1980). Methodological Solipsism Considered as a Research Strategy in Cognitive Psychology. Behavioral and Brain Sciences, 3, 63-110. FODOR, J.A. y PHYLYSHYN, Z.W. (1981). How Direct is Visual Perception: some reflections on Gibson's "ecological approach". Cognition, 9, 139-196 FORGUS, R.(1972). Percepción. Proceso básico en el desarrollo cognoscitivo. Mexico: Ed. Trillas, 2ª edición. FORGUS, R. y MELAMED, L.E.(1976). Perception: a Cognitive Stage Approach (2ª edic.). Nueva York: McGraw -Hill. (Trad. cast. 2ª edic. 1989. Percepción: estudio del desarrollo cognoscitivo. Mexico: Trillas). FRIEDMAN, A. (1979). Framing Pictures: the role of knowledge in automatized encoding and memory for gist. Journal of Experimental Psychology: General, 108, 3, 316-355. GALAMBOS, R. y HILLYARD, S.A. (1981). Electrophysiological approaches to human cognitive processing. Neuroscience Research Program Bulletin, 20, 141-265. GARDNER, H. (1975). The Shattered Mind: The Person after Brain Damage. Nueva York: Alfred A. Knopf. GARDNER, H.(1985). The Mind's New Science. A History of the Cognitive Revolution. New York: Basic Books, Inc. [trad. cast. (1988). Barcelona: Paidós]. GAZZANIGA, M.S. (1981). Nobel Prize for Physiology or Medicine. Science, 214, 517-518. GAZZANIGA, M.S. (1983). Right Hemisphere Language Following Com- misorotomy: a twenty-year perspective. American Psychologist, 38, 525-537. GIBSON, J.J. (1950). The Perception of the visual World. Boston: Houghton-Mifflin. GIBSON, J.J. (1954). A theory of pictorial perception. Audio-visual Comunications Review, 1, 1-23. GIBSON, J.J. (1959). Perception as a function of stimulatión. En S.Koch (Ed.), Psychology a study of a science. Vol.I. Sensory, perceptual, and physiological formulation. New York: McGraw-Hill, pag. 456-501. GIBSON, J.J. (1966). The Senses Considered as Perceptual Systems Boston: Houghton-Mifflin. GIBSON, J.J. (1967). New Reasons for Realism. Synthese, 17,162-72 GIBSON, J.J. (1969).Perceptual learning and development. New York Appleton-Century-Crofts. GIBSON, J.J. (1974). A note on ecological optics. En E.Carterette y M.Friedman (Eds.). Handbook of perception, vol. 1, pag. 335-340. Nueva York: Academic Press. GIBSON, J.J. (1979). The ecological approach to visual perception. Boston: Houghton-Mifflin. GIBSON, E.J. y WALK, R.D. (1960). The visual cliff. Scientific American, 202, 64-71. GIBSON, E.J.(1969). Principles of perceptual learning and development. Nueva York: Appleton. GLANZER, M. (1972). Storage Mechanisms in recall. The Psychology of Learning and Motivation, 5, 129-193.
170
GOLDSTEIN, A.G. y CHANCE, J.E. (1970). Visual recognition memory for complex configuration. Perception and Psychophysics, 9, 237-241. GREEN, D.M. y SWETS, J.A. (1966). Signal Detection Theory and Psychophysics. New York: John Wiley. GREGORY, R.L. (1966). Eye and Brain. London: Weidenfeld and Nicolson. HABER, R.N. (1974). Procesamiento de información. En E.C. Carterette y M.P. Friedman (Eds.). Handbook of perception. [trad. cast. (1982), pag. 340-362. Mexico: Trillas]. HABER, R.N. (1980). Perceiving space from pictures: a theoretical analysis. En M.A. Hagen (Ed.). The perception of pictures. Vol. 1, New York: Academic Press. HEBB, D.O. (1949). The organization of behaviour. New York: Wiley HELSON, H. (1959). Adaptation-Level Theory. En S.Koch(Ed.). Psychology: a study of a science. New York:McGraw-Hill, 1, 565-621. HELSON, H. (1964). Adaptation-Level Theory: an experimental and systematic approach to behaviour. New York: Harper & Row. HILLYARD, S.A. y KUTAS, M. (1983). Electrophysiology of cognitive processing. Annual Review of Psychology, 34, 33-61. HINTON, G.E. y ANDERSON, J.A. (1981). Parallel Models of Associative Memory. Hillsdale, Nueva Jersey: L.E.A. HOFFMAN, J.E. (1980). Interaction Between Global and Local Levels of a Form. Journal of Experimental Psychology: Human Perception & Performance, 6 (2), 222-234. HUBEL, D.H. y WIESEL, T.N.(1959). Receptive Fields of Single Neurones in the Cat's Striate Cortex. Journal of Psychology, 148, 574-591. HUBEL, D.H. y WIESEL, T.N.(1962). Receptive Fields, Binocular interaction and Functional Architecture in the Cat's Visual Cortex. Journal of Psychology, 160, 106-154. HUBEL, D.H. y WIESEL, T.N.(1963). Receptive Fields of cells in striate cortex of very young, visually inexperienced kittens. Journal Neurophysiol., 26, 994-1002. HUBEL, D.H. y WIESEL, T.N.(1979). Mecanismos cerebrales de la visión. Investigacion y Ciencia Scientific American, 38, 100-115. INTRAUB, H. (1979). The role of implicit naming in pictorial en coding.Journal of Experimental Psychology: Human Learning and memory, 5, 2, 78-87. INTRAUB, H. (1979). Presentation rate and the representation of briefly glimpsed pictures in memory. Journal of Experimental Psychol.: Human Learn. and mem., 6, 1, 1-12. JOHNSON, R.A. (1986). A Triarchic Model of P300 Amplitude. Psy chophysiology, 23, 4, 367-384. JOHNSON-LAIRD, P.N. (1982). Propositional Representations, Procedural Semantics, and Mental Models. En J. Mehler, E.C.T. Walker y M. Garret (Comps.). Perspectives on mental representations: experimental and theoretical studies of cognitive processes and capacities. Hillsdale, N.J.: L.E.A. JOHNSTON, J. y McCLELLAND, J.L. (1974). Perception of letters in words: Seek not and eye shall find. Science, 184, 1192-1193. JOHNSTON, W.A. y HEINZ, S.P.(1978): Flexibility and capacity and demands of attention. Journal of Experimental Psychology: General, 107, 4, 420-435. KAHNEMAN, D.(1973): Attention and effort. Prentice-Hall. Englowood Clifts. N.J. KAHNEMAN, D. y TREISMAN, A.(1984). Changing views of attention and automaticity. En R. Parasuraman y D.R. Davies (Eds.): Varieties of attention. New York: Academic Press. KANIZSA, G. (1974). Contours Without Gradients or Cognitive Contours? Italian J. Psychol, 1, 93-112. KANIZSA, G. (1980). Gramatica del vedere. Bolonia: Societa Editrice Il Mulino. (Trad. cast., 1ª edic. 1986, Gramática de la visión. Percepción y Pensamiento. Barcelona: Paidós. KEATING, D.P. y BOBBITT, B.L. (1978). Individual and developmental differences in cognitive-processing components of mental ability. Child Development, 49, 155-167. KIMCHI, R. y PALMER, S.E. (1985): Separability and integrality of global and local levels of hierarchical patterns. Journal of Exp. Psychol.: Human Perception and Performance, 11, 673-688. KINCHLA, R. A. y WOLFE, J.M. (1979): The order of visual processing: "top-down", "bottom-up", or "middle-out". Perception and Psychophisics, 25, 225-231.
171
KINCHLA, R. A., SOLIS-MACIAS, V. y HOFFMAN, J. (1983): Attending to levels of structure in a visual image. Perception and Psychophisics, 33, 1-10. KINTSCH, W. (1967): Memory and decision aspects of recognition learning. Psychological Review, 74, 496-504. KINTSCH, W. (1970). Memory and Cognition. (1ª edicion). New York: Wiley & Sons. KINTSCH, W. Y VAN DIJK, T.A. (1978). Toward a Model of Text Comprehension and Production. Psychological Rewiew, 85, 5, 363-394. KINTSCH, W. (1980). Psychological Processes in Discourse Production. Technical Report, Institute of Cognitive Science University of Colorado, 99. KOFFKA, K. (1935). The principles of gestalt psychology. Nueva York: Harcourt. KORCHIN, S.J. (1982): The legacy of H.A. Witkin. Contemporary Psychology, 27, (8), 602-604. KOSSLYN, S.M. (1978). Imagery and Internal Representation. En E. Rosch y B.B. Lloyd (Eds.). Cognition and Categorization. Hillsdale, N.J.: L.E.A. LaBERGE, D. (1975). Adquisition of automatic processing in perceptual and associative learning. En P.M.A.Rabbitt y S. Dornic (Eds.). Attention and Performance V. New York: Academic Press. LATOUR, P. (1962). Vision Thresholds during eye movements. Vision Research, 2, 261-262. LECOCQ, P. y TIBERGHIEN, G. (1981): Memoire et Decision. Lille: Presses Universitaires de Lille. LETTVIN, J.Y.; MATURANA, H.R.;McCULLOCH, W.S. y PITTS, W.H.(1959) What the frog's eye tells the frog's brain. Proceedings of the Inst. Radio Engr., 47, 1940-51. LINDSAY, P.H. y NORMAN, D.A. (1972). Human Information Processing. New York: Academic Press. (Trad. Cast. en Tecnos, 1976) LOFTUS, G.R. (1972). Eye fixations and recognition memory for pictures. Cognitive Psychology, 3, 525-551. LOFTUS, G.R. y BELL, S.M. (1975). Two types of information in picture memory. Journal of Exper. Psychol.: Human Learning and Memory, 104, 2, 103-113. LOFTUS, G.R. (1976). A framework for a Theory of picture memory. En J.W.Senders y R. Monty (Eds.). Eye movements and cognitive processes. Hillsdale, New Jersey: LEA. LOFTUS, G.R. y MACKWORTH, N.H. (1978). Cognitive determinants of fixation location during picture viewing. Journal of Experimental Psychology: Human Perception and Performance, 4, 565-572. LOGAN, G.D. (1978). Attention in character-classification tasks: evidence for the automaticity of component stages. Jour. of Exper. Psychol.: General, 107, 1, 32-63. LURIA, A.R. (1966). Higher cortical Function in Man. Tavistock Publications. MACKWORTH, N.H. y MORANDI, A.J. (1967). The gaze selects informative details within pictures. Perception and Psychophysics, 2, 547-551. MALAPEIRA, J.M., HONRUBIA, M.L. y VIADER, M. (1990). Psicología experimental: conceptos básicos. Esplugues (Barcelona): Edit. Gráficas signo, S.A. MANDLER, J.M. y JOHNSON, N.S. (1976). Some of the thousand words a pictures worth. Journal of Experimental Psychology: Human Learn. and mem., 2, 5, 529-540. MANDLER, J.M. y PARKER, R.E. (1976). Memory for descriptive and spatial information in complex pictures. Journal of Exper. Psychol.: Human Learn. and mem., 2, 1, 38-48. MANDLER, J.M. y RITCHEY, G.H. (1977). Long-Term Memory for pictures. Journal of Experimental Psychology: Human Learn. and mem., 3, 4, 386-396. MANDLER, G. (1981). The Recognition of Previous Encounters. American Scientist. 69, 211-217. MANDLER, G.(1985). Cognitive Psychology. An Essay In Cognitive Science. Hillsdale, New Jersey: LEA Inc. Publishers. MANDLER, J.M.(1984). Stories, scripts and scenes: aspects of schema theory. Hillsdale, New Jersey: L.E.A. MANKELIUNAS, M.V. (1980). Los modelos en psicofísica. En A. Ardila (dir.). Psicología de la percepción. Mexico: Trillas. MARTIN, M. (1979): Local and global processing: The role of sparsity. Memory and Cognition, 7, 476-484. MARR, D. (1975). Analysing natural images. A computacional theory of texture vision. MIT A.I. Lab.,
172
memo 334. MARR, D. (1982). Vision. San Francisco, New York: W.H. Freeman & company. (trad. cast. 1985. Visión. Madrid: Alianza). McCLELLAND, J.L. (1979). On the time Relations of Mental Processes. An Examination of Systems of Processes in Cascade. Psychological Review, 86, 4, 287-330 McCLELLAND, J.L.; RUMELHART, D.E. (1981). An Interactive Activation Model of Context Effects in Letter Perception: Part 1. An Account of Basics Findings. Psychological Review, 88, 375-407. McCLELLAND, J.L.; RUMELHART, D.E. (1985). Parallel distributed processing: Explorations on the microstructure of cognition. Vol.2-Aplications. Cambridge, MA: MIT P. MEYER D.E., OSMAN A.M., IRWIN D.E. y KOUNIOS J. (1988): The Dynamics of Cognition and Action: Mental Processes Inferred From Speed-Accuracy Descomposition. Psychological Review, 95, 2, 183-237. MICHIE, D. (1974). On Machine Intelligence. Edimburgo: Edinburgh University Press. MILLER, G.A. (1956). The magical number seven, plus or minus two: some limits on our capacity for processing information. Psychological Review, 63, 81-97. MILLER, G.A.; GALANTER, E. y PRIBRAM, K.H. (1960). Plans and the structure of behaviour. Holt, Rinehart & Winston, Inc. MILLER, J. (1981): Global precedence in attention and decision. Journal of Exp. Psychol.: Human Perception and Performance, 7, 1161-1174. MILLER, J. (1979). Cognitive influences on perceptual processing. Journal of Exper. Psychol.:Human Perception and Performance, 5, 546-562. MILLER, J. (1982): Discrete Versus Continuous Stage Models of Human Information Processing: In Search of Partial Output. Journal of Experimental Psychology: Human Perception and Performance, 8, 2, 273-296. MINSKY, M. (1975). Frame-system theory. En R.C. Schank y B.L. Nashwebber (Eds.): Theorical issues in natural language processing.Preprints of a conferencia at MIT. MURDOCK, B.B.,Jr. (1962): The serial position effect of free recall. Journal of Exp. Psych., 64, 482-488. NÄÄTÄNEN, R.; GAILLARD, A. y MÄNTYSALO, S. (1977). Early selective-attention effect on evoked potential reinterpreted. Acta Psychologica (Neederlan), 42, 313-329. NAVON, D. (1977). Forest Before Trees: The Precedence of Global Features in Visual Perception. Cognitive Psychology, 9, 353-383. NAVON, D. (1981). The Forest Revisited: More on Global Precedence. Psychological Research, 43, 1-32. NAVON, D. (1984): Resources-A theoretical souf stone? Psychological Review. 91, 216-234. NAVON, D. y GOPHER, D. (1979): On the economy of the human-processing system. Psychological Review. 86, Nº 3, 214-255. NAVON, D. y MILLER, J. (1987): Role of outcome conflict in dualtask interference. Journal of Experimental Psychologi: Human Perception and Performance. 13, Nº 3, 435-438. NEISSER, U. y WEENE, P. (1960).A note on human recognition of hand-printed characters. Inform. & Control, 3,191-6. NEISSER, U. (1963). Decision-time without reaction-time: Experiments in visual scanning. American Jour. Psychol., 76, 376-385. NEISSER, U. (1967). Cognitive Psychology. New York: Meredith Publishing Company. [Trad. cast. Mexico: Ed. Trillas 1976]. NEISSER, U. (1976). Cognition and Reality. Principles and implications of cognitive psychology. San Francisco: W. H. Freeman and Co. [Trad. cast. Madrid: Ed. Marova, 1981]. NEISSER, U. (1982). Memory: What are the important questions? En U.Neisser (ED.), Memory Observed. Remembering in natural contexts. San Francisco: Freeman & Cia. NEISSER, U. (1984). Toward an Ecologically Oriented Cognitive Science. Memory Cognition Project. Atlanta, Georgia. Report I, Enero-84. NELSON, T.O.; METZLER, J. y REED, D.A. (1974). Role of details in the long-term recognition of
173
pictures and verbal descriptions. Journal of Exper. Psychol., 102,1, 184-186. NORMAN, D.A. (1968). Toward a Theory of Memory and Atention. Psy chological Review, 75, 6, 522-536. NORMAN, D.A. y BOBROW, D.G. (1975): On data-limited and resource limited processes. Cognitive Psychology. 7, 44-64. NORMAN, D.A y BOBROW, D.G. (1979). Sobre el papel de los procesos activos de la memoria en la Percepción y la cognición. En Cofer, C.H. (Ed.), The structure of human memory. San Francisco: Freeman & Company. (Trad. cast. , Barcelona: Omega, S.A.). NORMAN, D.A. (1980). Twelve Issues for Cognitive Science. Cognitive Science, 4, 1-32. NORMAN, D.A. (1981). Perspectives on cognitive science. Norwood, New Jersey: Ablex Publishing. NORMAN, D.A. y RUMELHART, D.E. (1975). El LNR Research group (1981). Explorations in cognitions. San Francisco: Freeman. NORMAN, D.A. y RUMELHART, D.E. (1981). El LNR aproach to Human Information Processing. Cognition, 10, 235-240. NORMAN, D.A. (1982-1987). Perspectivas de la Ciencia Cognitiva. Barcelona: Ed. Paidós. PACHELLA, R.G. (1974): The interpretation of rection time in information processing research. En Kantowitz, B.H. (Ed.): Human Information Processing. Hillsdale, New Jersey: L.E.A. PALMER, S.E. (1975). Visual Perception and World Knowledge: Notes on a Model of Sensori-Cognitive Interaccion. En Norman, D.A. y Rumelhart, D.E. (Eds.) Explorations in cognition. San Francisco: Freeman and Co. PALMER, S.E. (1977). Hierarchical Structure in Perceptual Representation. Cognitive Psychology, 9, 441-474. PATTERSON, K.E. y BADDELEY, A.D. (1977). When face recognition fails. Journal of Exper. Psychol.: Human Learning and Memory, 3, 406-417. PHILLIPS, J.L. (1969). The Origins of intellect Piaget's Theory. San Francisco: W.H. Freeman and Company. [Trad. cast. Barcelona: Ed. Fontanella, 1977). PIAGET, J. (1926). La representation du monde chez l'enfant. Paris: PUF. (Trad. cast. Madrid: Morata, 4ª ed., 1978. PIAGET, J. (1950). Introduction á l` epistemologie genetique. P.U.F., Paris. [Trad. cast. Buenos Aires: Paidós, 1975]. PINILLOS, J.L. (1975). Principios de Psicología. Madrid: Alianza Editorial. 12ª edición. POSNER, M.I.; GOLDSMITH, R. Y WELTON, K.E.(1967). Perceived distance and the classification of distorted patterns. Journal of Experimental Psychologye, 73, 28-38. POSNER, M.I. Y KEELE, S.W.(1968). On the genesis of abstract ideas. Journal of Exper. Psychology, 77, 353-363. POSNER, M.I. (1969). Abstraction and the process of recognition. En Bower, G. y Spence, J.T. (Eds.): Psychology of learning and motivation.(vol 3) New Yorh: Academic Press POSNER, M.I. y BOIES, S. (1971). Components of attention. Psychological Review, 78, 5, 391-408. POSNER, M.I. (1978). Chronometric Explorations of mind. Hillsdale, New Jersey: Lawrence Erlbaum Associates. POTTER, M.C. y LEVY, E.I. (1969). Recognition memory for a rapid sequence of pictures. Journal of Experimental Psychology, 81, 1, 10-15. POTTER, M.C. (1975). Meaning in visual search. Science, 187, 165-166. POTTER, M.C. (1976). Short-Therm Conceptual Memory for pictures. Journal of Experimental Psychology: Human Learning and memory, 2, 5, 509-522. PRIBRAM, K.H. (1971). Languages of the Brain Experimental Paradoxes and Principles in Neuropsychology. Englewood Cliffs, New Jersey: Prentice-Hall. RATCLIFF, R. (1978): A Theory of Memory retrieval. Psychological Review, 85, 2, 59-108. RATCLIFF, R. (1985): Theoretical Interpretation of the Speed and Accuracy of Positive and Negative Responses. Psycological Review, 92, 2, 212-225. RATCLIFF, R. (1988): Continuous versus Discrete Information Processing: Modeling Acumulation of
174
Partial Information Psychological Review, 95, 2, 238-255. RATCLIFF, R. y MURDOCK, B.B.,Jr.(1976): Retrieval Processes in recognition memory. Psychological Review, 83, 3, 190-214. REICHER, G.M. (1969). Perceptual Recognition as a function of the meaningfulness of the stimulus material. Journal of Experimental Psychology, 81, 275-280. ROCK, I. (1983). The logic of Perception. Cambridge, Massachusetts: The M.I.T. Press. ROSCH, E. (1973). Natural Categories. Cognitive Psychology, 4, 328-350. RUMELHART, D.D. y SIPLE, P. (1974). Process of recognizing tachistoscopically presented word. Psychologycal Review, 81, 99-118. RUMELHART,D. (1977). Introduction to human information processing. New York: John Wiley & Sons. [Trad. castell. "Introducción al proceso de información". Mexico: Ed. Limusa, 1983]. RUMELHART, D.E. y ORTONY, A. (1977). The representation of knouledge in memory. En Anderson, R.J.; R.J. Spiro y W.E. Montague (Eds.). Schooling and the adquisition of knowledge. Hillsdale, New Jersey: L. Erlbaum Asoc. RUMELHART, D.E. (1979). Some problems with the notion of literal meaning. En A. Ortony (Ed.) Metaphor and Thought. Cambridge: Cambridge University Press. RUMELHART, D.E. (1980). Schemata: The Building Blocks of Cognition. En Spiro, R.J.; Bruce, B.C. y Brewer, (Eds.) Theoretical Issues in reading comprehension. Hillsdale, New Jersey: Lawrence Erlbaum Associates. RUMELHART, D.E. y McCLELLAND, J.L. (1981). Interactive processing through Spreading Activation. En Lesgold, M.A. y Perfetti, C.D. (Eds.): Interactive processes in reading. Hillsdale, New Jersey: LEA. RUMELHART, D.E. y McCLELLAND, J.L. (1982). An interactive activation model of context effects in letter perception: Part 2. The contextual enhancement effect and some test and extensions of the model. Psychologycal Review, 89, 60-94. RUMELHART, D.E. y McCLELLAND, J.L. (1986). Parallel Distributed Processing. Exploration in the microstructure of cognition. Vol 1. Cambridge, MA.: MIT Press. SCHANK, R.C. Y ABELSON, R.P. (1977). Scripts, plans, goals and understanding. An inquiry into human knowledge structures. New Jersey: Lawrence Erlbaum Associates. SCHNEIDER, W. y SHIFFRIN, R.M. (1977): Controlled and automatic human information processing: I. Detection, search, and attention. Psychological Review. 84, 1, 1-66. SELFRIDGE, O.G. (1959). Pandemonium: a paradigm for learning. Londres: H.M. Stationery Office. SHEPARD, R.N. (1967). Recognition Memory for Words, Sentences and Pictures. Journal of verbal learning and verbal behavior, 6, 156-163. SHIFFRIN, R.M. (1970). Memory Search. En D.A. Norman (Ed.), Models for memory. New York: Academic Press. SHIFFRIN, R.M. y SCHNEIDER, W. (1977): Controlled and automatic human information processing: II. Perceptual Learning automatic attending and general theory. Psychological Review. 84, 2, 127-189. SIMSON, R.; VAUGHAN, H.G. y RITTER, W. (1977). Scalp topography of potentials in auditory and visual go Negotasks. Electroencephalografy and clinical Neurophysiology. SPERLING, G. (1960). The information available in brief visual presentations. Psychological monographs General and Applied, 74, 11, p. 29. SPERLING, G. (1963). A model for visual memory task. Human Factors, 5, 19-31. SPERRY, R.W. (1974). Lateral Specialization in the Surgically Separated Hemispheres. En F.Schmitt y F.G. Worden (Ed.) The Neurosciences: Third Study Program. Cambridge, Massachusset: MIT Press. STANDING, L.; CONEZIO, J. y HABER, R.N. (1979). Perception and memory for pictures: single-trial learning of 2500 visual stimuli. Psychonomic Science, 19, 73-74. STERNBERG, S. (1966): High speed scanning in human memory. Science, 153, 654. STERNBERG, S. (1967): Retrieval of contextual information from memory. Psychonomic Science, 8, 55-56. STERNBERG, S. (1969): Memory scanning: mental processes by reaction time experiments. American Scientist, 57, 4, 421-457. STERNBERG, S. (1975). Memory Scanning: New Finding and current controversies. Quaterly Jour. of
175
Exper. Psychology, 27, 1-132. STERNBERG, S. (1975). Memory Scanning: New findings and current controversies. Quaterly J. of Experimental Psichology, 27, 1-32. STEVENS, S.S. (1957). On the Psychophysical law. Psychological Review, 64, 153-181. SUTTON, S.; BRAREN, M.; ZUBIN, J. y JOHN, E.R. (1965). Evoked-Potential correlates of stimulus uncertainly. Science, 150, 1187-1188. TANNER, W.P. y SWETS, J.A. (1954). Decision-Making Theory of Visual Detection. Psychological Review, 61, 401-409. THURSTONE, L.L. (1929). Fechner's law and the method of equal appearing intervals. Journal of Exp. Psychol, 12, 214-24. TREISMAN, A. (1977). Focused attention in the perception and retrieval of multidimensional stimuli. Perception and Psychophisics, 22, 1-11. TREISMAN, A. Y GELADE, G. (1980). A feature-integration theory of attention. Cognitive Psychology, 12, 97-136. TREISMAN, A. Y SCHMIDT, H. (1982). Illusory conjuntions in the perception of objects. Cognitive Psychology, 14, 1, 107-141. TVERSKY, A. y KAHNEMAN, D. (1983). Extensional vs. Intuitive reasoning: The conjunction fallacy in probability judgment. Psychological Review, 90, 293-315. VEGA, M. de (1984). Introducción a la Psicología cognitiva. Madrid: Ed. Alianza D.L. WALDROP, M. (1984). Artificial Intelligence (I): Into the world. Science, 223, 802-805. WARD, L.M. (1982): Determinants of attention to local and global features of visual form. Journal of Exp. Psychol.: Human Perception and Performance, 8, 562-581. WERNER, H. y WAPNER, S. (1952). Toward a general theory of perception. Psychological Review, 59, 324-338. WICKELGREN, W.A. (1977). Speed-accuracy tradeoff and information processing dynamics. Acta Psychologica, 41, 67-85. WICKENS, D.D. (1970). Encoding categories of words: an empirical approach to meaning. Psychological Review, 77, 1-15. WICKENS, D.,D. (1980). The structure of attentional resources. En Nickelson (Ed.). Attention and Performance VIII. Hillsdale, N.J. LEA. WINOGRAD, T. (1972). Understanding Natural Language. Nueva York Academic Press. WINSTON, P. H. (1.975): Artificial intelligence. Reading, Massa chuset, Addison-Wesley. WITKIN, H.A. y ASCH, S.E. (1948). Studies in space orientationIII. Perception of the uprigth in the absence of a visual field. Journal of Experimental Psychol., 38, 762-782 WITKIN, H.A. (1950). Individual differences in ease of perception of embedded figures. Journal of Personality, 19, 1-15 WITKIN, H.A.; DIK, R.B.; FATERSON,H.F.; GOODENOUGH y KARP.(1962): Psychological Diferentiation: studies of develop ment. New York, Wiley and Sons. WITKIN, H.A. y GOODENOUGH, D.R. (1977). Field Dependence and In terpersonal Behaviour. Psychological Bulletin, 84, 4, 661-689. YARBUS, A.L. (1967). Eye movements and vision. New York: Plenum.