GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES...

22
GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES • Universidad Pontificia Comillas • Madrid • Facultad de Ciencias Humanas y Sociales Pedro Morales Vallejo (última revisión, 13, Dic. 2006) 1 INDICE 1. Por qué construimos una escala (o un test) en vez de limitarnos a una sola pregunta .................... 2 2. Proceso de construcción de una escala de actitudes................................................................... 3 3. Definición de la actitud que se desea medir .............................................................................. 3 4. Redacción de los ítems ........................................................................................................... 4 5. Redacción y número de respuestas .......................................................................................... 5 a) Redacción de las respuestas .............................................................................................. 5 b) Número de respuestas ....................................................................................................... 6 c) Número par o impar de respuestas .................................................................................... 6 6. Preparar la clave de corrección ............................................................................................... 6 7. Preparar preguntas o instrumentos adicionales .......................................................................... 7 8. Obtener datos de una muestra ................................................................................................. 8 9. Análisis de ítems y comprobación de la fiabilidad...................................................................... 8 9.1. Análisis de ítems ............................................................................................................ 9 9.1.1. Correlación ítem-total .......................................................................................... 9 9.1.2. Contraste de medias en cada ítem de los dos grupos con puntuaciones mayores y menores en el total de la escala .................................. 10 9.2. Comprobación de la fiabilidad y selección de los ítems definitivos .................................... 12 10. Otras consideraciones en torno a la elección de los ítems definitivos ........................................... 15 1º Equilibrio entre ítems positivos y negativos ......................................................................... 15 2º Cuidar más la representatividad del contenido de las formulaciones de los ítems.................... 15 3º Incluir de manera equilibrada aspectos distintos (subescalas) del mismo rasgo general ............. 15 4º Incorporación de nuevos ítems........................................................................................... 16 5º Preparación de dos versiones, corta y larga, de la misma escala ............................................ 16 6º Explicación o redefinición del rasgo medido por nuestro instrumento .................................... 16 11. Comprobación de la validez y otros análisis posteriores.............................................................. 16 12. Sugerencias para obtener datos adicionales que faciliten la validación de la escala ......................... 18 12.1. Confirmación del significado pretendido (validez de constructo)...................................... 18 12.1.1. Análisis correlacionales .................................................................................. 18 Relación con otros modos de medir el mismo rasgo......................................... 18 Comprobación de relaciones esperadas (positivas o negativas) con otros rasgos distintos.............................................................................. 19 Comprobar que no existe relación donde no esperamos que la haya ................. 19 1.2.1.2. Comparaciones entre grupos ........................................................................... 19 12.2. Confirmación de la utilidad del instrumento (validez predictiva)...................................... 20 13. Bibliografía............................................................................................................................ 21 13.1. Referencias bibliográficas citadas ................................................................................... 21 13.2. Bibliografía sobre construcción de instrumentos .............................................................. 21 13.3. Bibliografía sobre colecciones de instrumentos ................................................................ 22 1 Una guía más extensa sobre construcción de escalas y que incluye cómo utilizar el programa SPSS puede verse en Morales, Urosa y Blanco (2003) (referencia completa en la bibliografía).

Transcript of GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES...

Page 1: GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES …blog.uca.edu.ni/kurbina/files/2011/06/Guiaparaconstruirescalasdeac... · escala de 1 a 6 (poco o muy… en cualquier rasgo: conservador,

GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES

• Universidad Pontificia Comillas • Madrid • Facultad de Ciencias Humanas y Sociales

Pedro Morales Vallejo (última revisión, 13, Dic. 2006)1

INDICE 1. Por qué construimos una escala (o un test) en vez de limitarnos a una sola pregunta .................... 2 2. Proceso de construcción de una escala de actitudes................................................................... 3 3. Definición de la actitud que se desea medir .............................................................................. 3 4. Redacción de los ítems........................................................................................................... 4 5. Redacción y número de respuestas .......................................................................................... 5

a) Redacción de las respuestas .............................................................................................. 5 b) Número de respuestas....................................................................................................... 6 c) Número par o impar de respuestas .................................................................................... 6

6. Preparar la clave de corrección ............................................................................................... 6 7. Preparar preguntas o instrumentos adicionales .......................................................................... 7 8. Obtener datos de una muestra................................................................................................. 8 9. Análisis de ítems y comprobación de la fiabilidad...................................................................... 8

9.1. Análisis de ítems ............................................................................................................ 9 9.1.1. Correlación ítem-total .......................................................................................... 9 9.1.2. Contraste de medias en cada ítem de los dos grupos

con puntuaciones mayores y menores en el total de la escala .................................. 10 9.2. Comprobación de la fiabilidad y selección de los ítems definitivos.................................... 12

10. Otras consideraciones en torno a la elección de los ítems definitivos ........................................... 15 1º Equilibrio entre ítems positivos y negativos ......................................................................... 15 2º Cuidar más la representatividad del contenido de las formulaciones de los ítems.................... 15 3º Incluir de manera equilibrada aspectos distintos (subescalas) del mismo rasgo general............. 15 4º Incorporación de nuevos ítems........................................................................................... 16 5º Preparación de dos versiones, corta y larga, de la misma escala ............................................ 16 6º Explicación o redefinición del rasgo medido por nuestro instrumento .................................... 16

11. Comprobación de la validez y otros análisis posteriores.............................................................. 16 12. Sugerencias para obtener datos adicionales que faciliten la validación de la escala......................... 18

12.1. Confirmación del significado pretendido (validez de constructo)...................................... 18 12.1.1. Análisis correlacionales .................................................................................. 18

1º Relación con otros modos de medir el mismo rasgo......................................... 18 2º Comprobación de relaciones esperadas (positivas o negativas)

con otros rasgos distintos.............................................................................. 19 3º Comprobar que no existe relación donde no esperamos que la haya ................. 19

1.2.1.2. Comparaciones entre grupos........................................................................... 19 12.2. Confirmación de la utilidad del instrumento (validez predictiva)...................................... 20

13. Bibliografía............................................................................................................................ 21 13.1. Referencias bibliográficas citadas ................................................................................... 21 13.2. Bibliografía sobre construcción de instrumentos .............................................................. 21 13.3. Bibliografía sobre colecciones de instrumentos ................................................................ 22

1 Una guía más extensa sobre construcción de escalas y que incluye cómo utilizar el programa SPSS puede verse

en Morales, Urosa y Blanco (2003) (referencia completa en la bibliografía).

Page 2: GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES …blog.uca.edu.ni/kurbina/files/2011/06/Guiaparaconstruirescalasdeac... · escala de 1 a 6 (poco o muy… en cualquier rasgo: conservador,

Guía para construir escalas de actitudes

2

1. Por qué construimos una escala (o un test) en vez de limitarnos a una sola pregunta.

Construimos escalas de actitudes (o tests de personalidad e instrumentos semejantes) para medir determinados rasgos. Aquí entendemos por medir, de una manera muy genérica, el apreciar cuantitativamente si un sujeto tiene poco o mucho del rasgo en cuestión, el ver dónde se sitúa un sujeto en un continuo de menos a más. Podemos preguntarnos por qué tenemos que construir una escala compuesta de varios ítems en vez de hacer una sola pregunta, clara y bien pensada, con un número de respuestas adecuado.

Lo primero que hay que decir es que también se pueden medir actitudes con una sola pregunta, y esto es común en muchos cuestionarios sociológicos. A un sujeto se le puede preguntar que se sitúe en una escala de 1 a 6 (poco o muy… en cualquier rasgo: conservador, extravertido, amigo de los animales…). Así se miden actitudes con frecuencia, tenemos numerosos ejemplos y está bien hecho. Con frecuencia es lo más conveniente o al menos suficiente, sobre todo cuando no se pretende obtener una información muy precisa sobre cada sujeto (no es lo mismo describir grupos que hacer un diagnóstico individual). A veces el medir actitudes (u otros rasgos psicológicos) con una sola pregunta es muy útil como medida complementaria de instrumentos más complejos2.

Sin embargo aun en el caso de los cuestionarios sociológicos, que no son escalas en sentido propio, puede ser útil y conveniente el disponer de varios indicadores de una misma actitud (o de una misma variable, como nivel socioeconómico) que van a ser sumados después como indicador de esa actitud o variable.

Tenemos varias razones para construir escalas, o simplemente para disponer de varios indicadores del mismo rasgo.

1º Con una serie de ítems describimos y medimos mejor constructos relativamente complejos. De hecho en la vida cotidiana juzgamos sobre cómo es una persona (si tiene más o menos de una determinada variable, como gusto por el deporte, religiosidad, conservadurismo, asertividad…) en función de varios indicadores (como pueden ser diversas conductas o diversas opiniones sobre aspectos distintos referidos a la misma actitud). Una única pregunta frecuentemente simplifica en exceso el concepto que vamos a medir. De manera análoga en la consulta de un médico nos hacen muchas preguntas, y no una solamente, que pueden ser indicadores o síntomas de una determinada patología.

2º En conjunto una medida compuesta por varios ítems es más válida, no solamente porque describe mejor un constructo complejo, sino porque una única pregunta puede de hecho ser poco afortunada, o equívoca o ser mal entendida por muchos sujetos. Cuando hay varios indicadores de la misma actitud (o rasgo en general) se obvian mejor las limitaciones de cada ítem en particular. Además una única pregunta puede distorsionar la información que el sujeto aporta de sí mismo; por ejemplo uno puede definirse como muy liberal en una única pregunta, porque esa es la imagen que tiene de sí mismo, pero puede no aparecer tan liberal ante cuestiones más específicas.

De manera análoga podemos pensar en la medida del rendimiento académico que quizás es un ejemplo más claro: si queremos saber si un alumno sabe química, no le hacemos una sola pregunta porque puede saber esa pregunta pero no otras muchas posibles preguntas, o esa pregunta puede ser de hecho ambigua o muy difícil, etc.; una serie de preguntas sobre el mismo tema o asignatura nos da una idea más certera sobre si sabe más o menos. Después de todo nuestra conclusión y nuestro juicio no va a ser sobre si sabe o no sabe unas preguntas concretas, sino sobre si sabe o no sabe en general… de unas pocas preguntas extrapolamos nuestras conclusiones a otras muchas preguntas semejantes. Algo análogo hacemos con las escalas de actitudes, tests de inteligencia, etc.; una muestra relativamente amplia de preguntas (ítems) constituye una mejor base para formarnos un juicio más preciso y fundado sobre cómo está una persona en un rasgo concreto.

2 También hay investigaciones que muestran que utilizar un solo ítem puede ser útil (Gardner, Cummings; Dunham

and Pierce (1998).

Page 3: GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES …blog.uca.edu.ni/kurbina/files/2011/06/Guiaparaconstruirescalasdeac... · escala de 1 a 6 (poco o muy… en cualquier rasgo: conservador,

Guía para construir escalas de actitudes

3

Este tipo de razones tiene más peso cuando se van a tomar decisiones sobre los sujetos o interesa un buen diagnóstico individual.

3º Aumenta la fiabilidad de la medida y por las razones dichas: se minimizan las limitaciones de cada ítem en particular; merecen más confianza varias preguntas que una sola. Un solo ítem está más sujeto a los errores de medición, que tienden a cancelarse mutuamente si sumamos varios ítems. En un sentido más psicométrico, si disponemos de una serie de ítems podemos calcular el coeficiente de fiabilidad como veremos más adelante. La fiabilidad puede ser alta o baja, pero eso es algo que podemos verificar, de la misma manera que podemos analizar la calidad de cada ítem.

4º Una razón de peso para sumar varios indicadores del mismo rasgo es que las diferencias entre los sujetos van a quedar más nítidas; va ser más fácil clasificarlos; en definitiva va a aumentar la varianza.

El detectar diferencias es de interés en cualquier estudio o investigación porque sin diferencias claras es muy difícil encontrar relaciones entre variables. De nuevo esto es importante incluso en cuestionarios más de corte sociológico: diferenciamos mejor a las personas en un determinado rasgo si disponemos de varios indicadores y consecuentemente detectaremos mejor las relaciones de ese rasgo con otras variables.

De los diversos tipos de escalas nos limitamos aquí al denominado escalas tipo-Likert. Son las más conocidas y se denominan así por el autor que sistematizó el proceso de construcción (en 1932).

En conjunto es el sistema más sencillo y de características no inferiores a los otros tipos de escalas (o son incluso mejores) por lo que es posiblemente el más utilizado. Lo que hizo Likert fue extender a la medición de las actitudes lo que ya era común en la medición de los rasgos de personalidad: la suma de una serie de respuestas a ítems supuestamente homogéneos (que expresan el mismo rasgo) sitúa al sujeto en la variable medida.

2. Proceso de construcción de una escala de actitudes Es conveniente tener desde el principio una ida general de los pasos que integran el proceso de

construcción de una escala de actitudes (o en general de cualquier tipo de test, aunque aquí tratamos de manera más explícita de las escalas de actitudes que de los tests de personalidad o de otro tipo)3.

El proceso se puede describir de varias maneras, pero básicamente se puede concretar en los pasos enunciados a continuación (en un orden lógico más que estrictamente cronológico).

1. Definir la actitud que se desea medir 2. Redactar los ítems 3. Determinar el modo de respuesta y el número de respuestas 4. Preparar la clave de corrección 5. Preparar preguntas o instrumentos adicionales 6. Obtener datos de una muestra 7. Analizar los ítems: ver si discriminan y se pueden considerar indicadores del mismo rasgo 8. Comprobar la fiabilidad 9. Seleccionar los ítems definitivos en función de los análisis anteriores

10. Comprobar de la validez y otros análisis posteriores

La validez y la fiabilidad van a ser dos consideraciones importantes en todo el proceso, por esta razón son conceptos que debemos tener suficientemente claros desde el principio.

3. Definición de la actitud que se desea medir El primer paso es siempre clarificar el rasgo que se desea medir; una definición o explicación previa

da coherencia al resto del proceso. Puede ayudar el hacer previamente una descripción de la persona que supuestamente tenga de manera clara la actitud que se desea medir; la descripción puede ser tanto del que 3 Una exposición más detallada de este proceso puede verse en Morales (2006), sobre todo en el capítulo II, y en

Morales, Urosa y Blanco (2003). En la bibliografía indicamos otras publicaciones que orientan sobre la construcción de escalas de actitudes y de tests en general, y también se enumeran una serie de obras en las que se reproducen muchas escalas e instrumentos semejantes.

Page 4: GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES …blog.uca.edu.ni/kurbina/files/2011/06/Guiaparaconstruirescalasdeac... · escala de 1 a 6 (poco o muy… en cualquier rasgo: conservador,

Guía para construir escalas de actitudes

4

tenga una actitud positiva como negativa. Si, por ejemplo, se desea construir una escala para medir actitud hacia el estudio, uno puede preguntarse qué caracteriza al que tiene una actitud muy favorable o muy desfavorable tal como conceptualizamos nosotros esa actitud: le gusta estudiar, tiene un nivel alto de aspiraciones, no confía en la suerte, etc.

No hay que olvidar que las actitudes, como cualquier otro rasgo que queramos medir, se pueden concebir en diversos grados de abstracción, y pueden ser muy genéricos (como actitud general hacia el estudio) o muy específicos (como nivel de aspiraciones o actitud hacia el estudio de un determinado tipo de materias, etc.).

Este retrato robot ayudará a redactar los ítems en torno a un plan coherente; interesa desde el principio asegurar la validez conceptual y poder justificarla. Este retrato robot se puede pensar en función de supuestas características personales, de opiniones con las que estaría de acuerdo, de actividades que le gustaría hacer, etc.

Puede ayudar también el revisar otros instrumentos ya hechos. Si se utiliza una escala ya hecha (o varias) como fuente de inspiración, o se toman determinadas ideas de un autor, etc., esto se debe hacer constar.

4. Redacción de los ítems Pueden redactarse de diversas maneras, pero en general y tratándose de escalas de actitudes, suelen

formularse en forma de opiniones con las que se puede estar o no de acuerdo. Una opinión es una actitud verbalizada, y a través de las opiniones podemos inferir la actitud subyacente.

Los ítems deben tener estas características:

a) Deben ser relevantes, claramente relacionados con la actitud que se desea medir.

b) Deben ser opiniones (o rasgos y conductas personales, según lo que se desee medir) con las que se pueda estar o no estar de acuerdo, no hechos o datos que se pueden saber o no saber, pues no se trata de medir ciencia.

c) Deben redactarse con claridad, de manera que todos los entiendan de la misma manera (en la medida de lo posible). Por esta razón:

1º Hay que tener cuidado con expresiones como no, nunca, etc. que pueden crear confusión en la respuesta;

2º Deben contener una única idea, pues cuando hay más de una idea se puede estar de acuerdo con una y no con la otra. Es conveniente que la redacción provisional la revise más de una persona. Una misma idea se puede formular de más de una manera para comprobar después qué formulación es más eficaz.

d) Deben ser discriminantes, es decir, se deben redactar los ítems de tal manera que previsiblemente unos sujetos estarán de acuerdo y otros no, o no tanto. Para medir debemos encontrar diferencias; los ítems que todos o casi todos acepten o rechacen no van a contribuir a la fiabilidad de la escala y serán eliminados en el análisis de ítems. Además tenemos más garantía de que los ítems miden lo mismo (expresan el mismo rasgo) si simultáneamente diferencian a los mismos sujetos. Naturalmente verificaremos después, en el análisis de ítems, si discriminan o no discriminan, pero ya en al redactarlos debemos procurar que sean discriminantes.

e) Cabe formular ítems repetitivos, la misma idea dicha de diversas maneras: frecuentemente una manera de decir las cosas resulta de hecho más discriminante que otra. Luego nos quedaremos con la formulación que más nos convenza si no queremos que haya varios ítems excesivamente semejantes. Con ítems muy similares se consiguen fácilmente coeficientes de fiabilidad altos, pero el constructo queda expresado de una manera muy simple (a veces eso es lo que interesa, por lo que no hay que sostener por principio que los ítems deben ser muy variados).

f) Es preferible redactar los ítems en las dos direcciones positiva y negativa, es decir, que unas veces el estar de acuerdo manifieste una actitud favorable (estudiar es divertido) y otras manifieste una actitud

Page 5: GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES …blog.uca.edu.ni/kurbina/files/2011/06/Guiaparaconstruirescalasdeac... · escala de 1 a 6 (poco o muy… en cualquier rasgo: conservador,

Guía para construir escalas de actitudes

5

desfavorable (estudiar es aburrido) pero sin introducir palabras negativas, como no o nunca, que se prestan a confusiones al responder. Esta redacción bipolar tiene estas ventajas4:

1. Obliga a una definición previa más matizada del rasgo o constructo. 2. Requiere una atención mayor por parte del que responde; 3. Permite comprobar la coherencia de las respuestas, verificando si hay contradicciones

sistemáticas. Si hay un número aproximado de ítems positivos y negativos, y sumamos a cada sujeto sus respuestas a los dos tipos de ítems, podemos calcular la correlación entre los dos totales parciales como si se tratara de dos subescalas. Esta correlación debe alcanzar un valor de .50 o más, y mostrará en este caso una coherencia global en las respuestas.

4. Comprobar la coherencia es prácticamente lo mismo que comprobar que no se da la aquiescencia o tendencia a mostrar acuerdo casi con cualquier afirmación, incluso con afirmaciones que se contradicen (cuando se da esta aquiescencia suele deberse a ambigüedad en la redacción, falta de claridad; se da más en niveles educacionales bajos)5.

Los errores y ambigüedades en la formulación de los ítems suelen manifestarse en el análisis. La irrelevancia o ambigüedad puede sospecharse cuando demasiados sujetos escogen la respuesta central o los ítems no discriminan; también la no discriminación puede indicar que un ítem no mide lo mismo que los demás o que los sujetos lo entienden de hecho de otra manera. Si un ítem discrimina en sentido contrario (puntúan más alto en ese ítem los que en el conjunto de la escala puntúan más bajo) puede haber un error en la clave de corrección.

Sobre el número inicial de ítems que deben redactarse: no hay un número óptimo, pero a mayor número inicial de ítems, mayor probabilidad de encontrar en el análisis un conjunto de ítems definitivos con una fiabilidad suficiente. A mayor número de ítems buenos (que no tienen que ser muchos) también será mayor la fiabilidad.

5. Redacción y número de respuestas a) Redacción de las respuestas

Las respuestas más habituales en las escalas de actitudes suelen expresar grado de acuerdo con el contenido del ítem, pero puede haber otro tipo de respuestas más adecuadas a la formulación del ítem (como grado de interés, de importancia, etc.). Respuestas típicas, según el número de respuestas que se empleen, son, por ejemplo, las puestas en el cuadro 1.

de acuerdo en desacuerdo

de acuerdo indiferente en desacuerdo

de acuerdo más bien de acuerdo

más bien en desacuerdo

en desacuerdo

muy de acuerdo más bien de acuerdo

indiferente más bien en desacuerdo

muy en desacuerdo

muy de acuerdo de acuerdo más bien de acuerdo

más bien en desacuerdo

en desacuerdo muy en desacuerdo

Cuadro 1

Caben otros formatos en las respuestas, como utilizar números especificando con palabras el significado de los extremos (muy de acuerdo y muy en desacuerdo o expresiones equivalentes), o se pueden redactar las respuestas en términos de una mayor o menor importancia, frecuencia, etc. Es útil ver modelos antes de hacer nuestra redacción y presentación definitiva de la escala6.

4 Las ventajas de una formulación de los ítems pero en ambas direcciones y eliminando expresiones negativas está

muy investigada, por ejemplo Barnette (2000). 5 Un tratamiento amplio de la aquiescencia y otros problemas metodológicos puede verse en Morales (2006) 6 En general las diversas maneras de expresar las respuestas (todas con expresiones verbales, o describiendo

solamente las dos respuestas extremas, o utilizando números, etc.) dan resultados semejantes por lo que respecta

Page 6: GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES …blog.uca.edu.ni/kurbina/files/2011/06/Guiaparaconstruirescalasdeac... · escala de 1 a 6 (poco o muy… en cualquier rasgo: conservador,

Guía para construir escalas de actitudes

6

Las respuestas en términos de frecuencia están especialmente avaladas por la investigación experimental y en concreto se han propuesto las posibles respuestas indicadas en el cuadro 27.

casi nunca a veces normalmente casi siempre siempre

casi nunca ocasionalmente ordinariamente

con frecuencia muchísimas veces siempre

casi nunca de vez en cuando a veces normalmente muy a menudo muchísimas veces

siempre

Cuadro 2

Las respuestas pueden indicarse también con números (1= en desacuerdo, 2 = indiferente, 3= de acuerdo, etc. ) o con palabras y con números, o con letras, pero siempre debe estar muy claro para el que responde el significado de sus respuestas. En general parece preferible el empleo de letras o de palabras (al menos cuando se juzgue que los números pueden condicionar la respuesta).

Cuando se ponen números, todos deben ir en la misma dirección (muy de acuerdo siempre tiene el valor máximo), aunque después se cambien estos valores en la clave de corrección como indicamos más adelante.

b) Número de respuestas

El número habitual de respuestas es de cinco, pero pueden ser más o pueden ser menos. En general, y aunque esto no sucede siempre, a mayor número de respuestas en los ítems, suele haber en toda la escala una mayor fiabilidad, con tal de que el número de respuestas no supere la capacidad de discriminación de los que responden; en torno a seis o siete respuestas puede ponerse el número máximo, y en tres el mínimo (en cualquier caso con tres respuestas suele subir la fiabilidad con respecto a dos nada más).

c) Número par o impar de respuestas

Una cuestión distinta es si se debe incluir un número par o impar de respuestas (con o sin una respuesta central de indecisión). No hay normas claras sobre este punto; lo más claro es que son preferibles tres respuestas a dos (la fiabilidad es casi siempre mayor con tres respuestas que con dos, y además con sólo dos respuestas los que responden pueden sentirse incómodos).

El incluir un número par de respuestas (4 ó 6) tiene la ventaja de que siempre cabe la posibilidad de agruparlas en dos categorías (se hace fácilmente con ordenador), de acuerdo y en desacuerdo, y esto puede ser útil para determinados análisis. Además se elimina la posibilidad de que los sujetos se evadan escogiendo la respuesta central (casi nunca hay verdadera indecisión si la actitud medida y los ítems son relevantes para que los que responden porque realmente expresan esa actitud).

6. Preparar la clave de corrección Las respuestas se codifican siempre con números íntegros sucesivos. Si por ejemplo las respuestas

son cuatro, se pueden codificar de 0 a 3 o de 1 a 4. En principio es preferible evitar el 0 y comenzar a partir de 1 (aunque cuando sólo hay dos respuestas suelen codificarse como 0 ó 1).

La clave en números debe hacerse de acuerdo con el sentido del ítem, de manera que la respuesta más favorable a la actitud tenga el número mayor, tal como puede verse en el ejemplo del cuadro 3.

a la validez y fiabilidad (por ejemplo Chang, (1997). La fiabilidad test-retest suele ser mayor cuando todas las categorías de respuesta están expresadas verbalmente (Weng, 2004, con una muestra de 1247 estudiantes universitarios).

7 La justificación de estas categorías de respuesta, y un listado mayor, puede verse en Cañadas y Sánchez Bruno, (1998).

Page 7: GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES …blog.uca.edu.ni/kurbina/files/2011/06/Guiaparaconstruirescalasdeac... · escala de 1 a 6 (poco o muy… en cualquier rasgo: conservador,

Guía para construir escalas de actitudes

7

respuestas y clave de codificación

ítems:

Me gusta estudiar

Estudiar es aburrido

de acuerdo

4 1

más bien de acuerdo

3 2

más bien en desacuerdo

2 3

en desacuerdo

1 4

Cuadro 3

7. Preparar preguntas o instrumentos adicionales Cuando se construye una escala de actitudes, la atención se centra en la redacción de los ítems, pero

esto no es suficiente. Además de la escala que se está construyendo se deben preparar otras preguntas, o incluso otras escalas o instrumentos que pueden estar ya hechos, y que los sujetos responderán al mismo tiempo, para recoger datos adicionales8. Esto se suele hacer después de haber redactado los ítems de la escala. Estos nuevos datos o preguntas tienen que ver con la verificación de la validez del instrumento9 y además nos permitirán hacer otras investigaciones sin limitarnos a la mera construcción del instrumento.

El obtener datos adicionales de interés es importante por varias razones:

1º El buscar más datos hipotéticamente relacionados con lo que queremos medir contribuye a que nos hagamos una idea más clara del rasgo o actitud que nos interesa medir; como dijimos antes además de pensar en un rasgo hay que pensar simultáneamente en una teoría o red de relaciones de la que forma parte el rasgo que vamos a medir. Es además… mucho más interesante.

2º La experiencia nos dice que el recoger datos adicionales al mismo tiempo que se prueba el instrumento en una primera muestra, supone un considerable ahorro de tiempo y esfuerzo, en vez de construir primero el instrumento, y luego, con la versión definitiva, volver a buscar otros datos en otros sujetos.

3º Las relaciones que vamos encontrando con otras variables se pueden incorporar de alguna manera al proceso de construcción del instrumento, en el sentido de que nos pueden sugerir ideas válidas como criterio en la misma selección de los ítems, en la búsqueda de muestras determinadas, etc.

4º Sobre todo el pensar en otros datos tiene que ver con la comprobación de la validez de nuestro instrumento y de los datos que con él recojamos.

Cuando se va a construir un instrumento, como una escala de actitudes, conviene repasar los temas referidos a la validez y su comprobación. Comprobar la validez de un instrumento tiene que ver con la comprobación o confirmación del significado de lo que medimos, y también con su utilidad. El primer control de la validez está en la misma redacción de los ítems.

El tener previsto desde el comienzo qué vamos a hacer para confirmar la validez de nuestro instrumento (o al menos cómo vamos a apoyar el significado previsto o la utilidad del instrumento) nos sugerirá qué otros datos conviene recoger, y por qué.

Es útil tener desde el principio una idea clara no solamente del rasgo que queremos medir, sino también con qué otros rasgos puede estar relacionado ese rasgo, a qué grupos puede diferenciar, etc. Más que pensar en un rasgo, conviene pensar desde el comienzo en toda una teoría, aunque sea muy modesta, en torno a ese rasgo.

El recoger este tipo de datos al mismo tiempo que los sujetos responden a la escala en construcción, ahorra tiempo y obliga a matizar y explicar mejor lo que queremos medir con nuestro instrumento.

8 En Morales (2006, en los anexos) pueden verse numerosos ejemplos de escalas junto con preguntas

adicionales para hacer estudios de validación y otros análisis; también hay ejemplos de estas preguntas en Morales, Urosa y Blanco (2003).

9 Hablando con propiedad la validez no es una propiedad del instrumento, sino de las inferencias e interpretaciones que hagamos con los datos obtenidos.

Page 8: GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES …blog.uca.edu.ni/kurbina/files/2011/06/Guiaparaconstruirescalasdeac... · escala de 1 a 6 (poco o muy… en cualquier rasgo: conservador,

Guía para construir escalas de actitudes

8

La conveniencia de obtener más o menos información adicional variará según la situación y la finalidad. Podemos limitarnos a construir una escala y en un momento posterior obtener nuevos datos, pero siempre es útil obtener información adicional de los sujetos (además de los datos que podemos denominar censales o muy obvios: sexo, curso o profesión, etc.).

Más adelante presentamos sugerencias sobre cómo recoger datos adicionales, pero básicamente estos datos son de dos tipos:

1. Datos censales o sociológicos, como edad, sexo, ocupación o curso, estado civil, etc. Estos datos servirán para describir la muestra y para hacer análisis adicionales (como exponer datos descriptivos por sexos, comparar subgrupos, preparar normas de interpretación individual como los percentiles, para los distintos subgrupos, etc.).

2. Datos de otro tipo, como pueden ser preguntas relacionadas con lo que se pretende medir, u otros tests o escalas que pueden estar relacionados con la variable que estamos midiendo, etc.; el objetivo de estos datos adicionales es facilitar la comprobación de la validez de nuestra escala.

8. Obtener datos de una muestra Una vez preparada la versión inicial del instrumento, se recogen las respuestas de una muestra para

poder hacer los análisis correspondientes, sobre todo el análisis de ítems y el cálculo de la fiabilidad. Estos análisis nos van a permitir dar forma al instrumento definitivo; la primera redacción de los ítems tiene un carácter en principio hipotético (suponemos que todos los ítems redactados en primer lugar describen bien un determinado rasgo o actitud, pero esta hipótesis hay que verificarla analizando las respuestas de los sujetos).

1. El tipo de muestra elegido debe ser semejante al tipo de población con el que se va a utilizar después. A mayor heterogeneidad en la muestra obtendremos son mayor facilidad una fiabilidad alta, pero no es legítimo forzar la heterogeneidad de la muestra en esta primera prueba.

2. Sobre el número de sujetos necesario: para que los análisis tengan suficiente consistencia y sean extrapolables a muestras semejantes, conviene que haya al menos cinco sujetos por ítem inicial (si partimos de 40 ítems nos harán falta 5x40 = 200 sujetos aproximadamente)10. Si se piensa hacer después un análisis factorial debe haber unos 10 sujetos por ítem y en cualquier caso no deben ser menos de 200. Con muestras más reducidas los análisis pueden presentarse como tentativos que se pueden confirmar (o no) en otras muestras. En cualquier caso siempre es preferible un número grande de sujetos.

Los instrumento hechos con muestras pequeñas, lo mismo que los análisis de ítems, fiabilidad, etc., que hagamos, pueden también ser informativos y útiles con la muestra que nos ha servido para construir el instrumento. El problema está en utilizar este instrumento en otras muestras. Aun así un instrumento construido con una muestra pequeña puede convertirse en un buen estudio piloto, y además también se pueden ir acumulando datos y análisis de muestras pequeñas (y semejantes) hasta llegar a un número de sujetos apropiado.

Un problema que puede surgir es cuando los sujetos omiten sus respuesta a algunos ítems. Hay varios procedimientos para sustituir los valores que faltan que más o menos dan los mismos resultados; el más recomendable parece ser el sustituir los valores que faltan por el valor de la respuesta media del sujeto11.

9. Análisis de ítems y comprobación de la fiabilidad En primer lugar y una vez obtenidos los datos calculamos: 1º la media y la desviación de los totales

(cada sujeto tiene una puntuación total, que es la suma de todas sus respuestas a los ítems) y 2º la media y la desviación de cada ítem. A continuación llevaremos a cabo el análisis de ítems y calcularemos la fiabilidad.

10 Esta recomendación es de Nunnally (1978). 11 Puede verse tratado este tema en Dodeen (2003).

Page 9: GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES …blog.uca.edu.ni/kurbina/files/2011/06/Guiaparaconstruirescalasdeac... · escala de 1 a 6 (poco o muy… en cualquier rasgo: conservador,

Guía para construir escalas de actitudes

9

9.1. Análisis de ítems

Los ítems, tal como los hemos redactado, constituyen una definición operativa, provisional e hipotética, del rasgo que vamos a medir. Ahora tenemos que comprobar si cada ítem mide lo mismo que los demás, y por lo tanto es sumable en una puntuación total que supuestamente mide el rasgo y que es la que después interpretamos y utilizamos. Esta comprobación la hacemos mediante el análisis de ítems.

Lo que queremos comprobar es si las respuestas tienden a covariar, es decir, si los sujetos tienden a responder de manera coherente, de manera que podamos deducir que todos los ítems expresan el mismo rasgo. En definitiva comprobamos si los ítems tienden a diferenciar a los sujetos, si discriminan adecuadamente.

Los procedimientos que podemos utilizar son dos, la correlación ítem-total y el contraste de medias de los grupos extremos. Con ambos métodos llegaremos a resultados muy parecidos.

9.1.1. Correlación ítem-total

Propiamente no se trata de la correlación de cada ítem con el total, sino de la correlación de cada ítem con la suma de todos los demás (o correlación de cada ítem con el total menos el ítem). Lo que deseamos comprobar es en qué medida el puntuar alto en un ítem supone de hecho obtener un total alto en el resto de la escala (en todos los demás ítems).

Estos coeficientes de correlación deben ser al menos estadísticamente significativos (o distintos de cero en la población). Los ítems con una mayor correlación con el total (o suma de todos los demás) son los que tienen más en común y por lo tanto podemos pensar que miden lo mismo que los demás. Los ítems con correlaciones no significativas o muy bajas con respecto a las de los otros ítems, los eliminaremos de nuestra escala.

Cuando se calcula la correlación con el total (y no con el total menos el ítem), que es lo más sencillo con un programa de ordenador o con una hoja de cálculo, hay una fórmula que convierte esta correlación ítem-total en la correlación ítem-total menos el ítem, que es la que nos interesa.

Hay programas de ordenador (como el SPSS) que dan rutinariamente para cada ítem la correlación ítem-total (menos el ítem) y la fiabilidad de todo el test o escala si suprimimos ese ítem y se puede apreciar rápidamente qué ítems se pueden eliminar para que suba la fiabilidad. Esta información es útil y acelera el proceso, pero hay que tener presentes otras consideraciones:

En el cuadro 4 tenemos un ejemplo de la información que nos da el SPSS12.

RELIABILITY ANALYSIS - SCALE (ALPHA) Item-total Statistics

Scale Mean if Item Deleted

Scale Variance if Item Deleted

Corrected Item Total Correlation

Alpha if Item Deleted

V1 11,8156 11,4695 3618 ,6177 V2 11,9798 9,5754 ,5028 ,5207 V3 12,5663 9,3022 ,5548 ,4835 V4 12,9524 10,0684 ,3131 ,6695

Reliability Coefficients

N of Cases = 694 N of Items = 4

Alpha = ,6450

Cuadro 4

12 Una explicación detallada sobre cómo utilizar el SPSS en la construcción de escalas en Morales, Urosa y

Blanco (2003). Este programa nos hecho el análisis de ítems (correlación ítem-total), la fiabilidad de toda la escala y la fiabilidad si suprimimos un ítem.

Page 10: GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES …blog.uca.edu.ni/kurbina/files/2011/06/Guiaparaconstruirescalasdeac... · escala de 1 a 6 (poco o muy… en cualquier rasgo: conservador,

Guía para construir escalas de actitudes

10

En este ejemplo metodológico tenemos el análisis de una breve escala de sólo cuatro ítems. Las columnas que nos interesa examinar son las dos últimas: la correlación ítem-total (menos el ítem) y la fiabilidad de todo el test o escala si suprimimos ese ítem. En este ejemplo la fiabilidad obtenida es de .645, pero si suprimimos el ítem 4 (es el que tiene una menor correlación con el total), sube a casi .67; si suprimimos cualquier otro ítem, baja la fiabilidad; habría que suprimir por la tanto el ítem 4.

Estos programas facilitan notablemente el proceso, pero conviene hacer algunas observaciones (aplicables también si utilizamos el contraste de los grupos extremos que veremos a continuación).

a) Es cuestionable seguir cuasi mecánicamente procedimientos automáticos; el constructor del instrumento debe intervenir con sus propios criterios sobre lo que quiere medir y sobre las características del instrumento (por ejemplo, incluir un número idéntico de ítems positivos y negativos)13.

b) Por otra parte estos programas nos dan la fiabilidad si suprimimos ítems de uno en uno, pero no si suprimimos más de uno a la vez, y normalmente no interesa ir eliminando ítems uno a uno sino en bloques escogidos con algún criterio (como el tener una casi idéntica correlación ítem-total, o buscando que haya un número idéntico de ítems positivos y negativos).

c) Además es normal que varios subconjuntos de ítems tengan un fiabilidad idéntica o similar, por lo que habrá que acudir a otros criterios en la selección definitiva de los ítems (como consideraciones conceptuales y resultados del análisis factorial).

La correlación ítem-total que podemos encontrar ya programada es sumamente útil, pero en principio no debe ser la única consideración en la selección de los ítems definitivos. Por esta razón en un apartado posterior añadimos algunas consideraciones sobre la elección definitiva de los ítems.

9.1.2. Contraste de medias en cada ítem de los dos grupos con puntuaciones mayores y menores en el total de la escala.

El procedimiento anterior es muy laborioso si no se hace con un programa de ordenador; un procedimiento más sencillo, y que aporta una información semejante, es comparar en cada ítem el 25% con puntuación total más alta con el 25% con puntuación total más baja14. Para esto:

1º Ordenamos a los sujetos de más a menos, según el total obtenido en toda la escala, y seleccionamos dos subgrupos: grupo superior, el 25% con total más alto, y grupo inferior, el 25% con puntuación total más bajo; el 50% central no entra en este análisis.

2º Calculamos la media y la desviación típica en cada ítem de cada uno de los dos grupos, superior e inferior;

3º Contrastamos las medias de estos dos grupos mediante la t de Student.

Lo que esperamos es que el 25% con una puntuación total superior tenga una media significativamente más alta en cada ítem que el 25% inferior. Podremos en este caso concluir que los ítems que simultáneamente diferencian a los mismos sujetos están midiendo lo mismo. Prescindiremos de los ítems que no discriminan (valores de t no significativos), y si son muchos o demasiados los que discriminan (y esto sucede con frecuencia), podemos quedarnos con los más discriminantes; siempre hay ítems mejores que otros en términos relativos.

En la elección definitiva de los ítems pueden intervenir además otros criterios, como ya hemos indicado y explicamos después con más detenimiento, pero en cualquier caso debe estar claro su poder discriminatorio que a su vez nos confirma que los ítems miden básicamente lo mismo.

Para hacer estos análisis conviene disponer los datos de manera clara y tener a al vista algún modelo (no hay un modo único de presentar los datos). Aunque hagamos todo el proceso con ordenador es

13 Ya hemos indicado que es útil calcular la correlación entre los dos subtotales (sumando por separado las

respuestas a los ítems positivos y negativos); si la correlación está en torno a .50 podemos excluir el influjo de la aquiescencia en las respuestas.

14 Este análisis se hace muy fácilmente con una hoja de cálculo tipo EXCEL.

Page 11: GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES …blog.uca.edu.ni/kurbina/files/2011/06/Guiaparaconstruirescalasdeac... · escala de 1 a 6 (poco o muy… en cualquier rasgo: conservador,

Guía para construir escalas de actitudes

11

importante saber qué estamos haciendo, y además, tal como nos vienen los resultados del ordenador, no es siempre la mejor manera de presentarlos.

En este ejemplo (ficticio y con resultados muy exagerados, cuadro 5) de un total de 40 sujetos (número muy bajo si se tratara de un caso real) comparamos las respuestas de los 10 sujetos (25%) con totales más altos y más bajos. También es útil calcular la media y la desviación típica de cada ítem en toda la muestra; las desviaciones típicas de los ítems en toda la muestra nos harán falta después para calcular la fiabilidad.

También se podrían poner como ejemplos correlaciones ítem-total, pero el contraste de medias de los grupos extremos resulta más gráfico y es muy fácilmente comprensible.

ítem 5 4 3 2 1 diferencia

nº 1 en toda la muestra:

25% Superior

|| (2) ||||| (5) ||| (3) X s =3.9 σ = .70

X s - X i= 2.50

X = σ =

25% Inferior

| (1) || (2) ||||||| (7) X i = 1.4 σ = .66

t = 7.79 p < .001

nº 2 en toda la muestra:

25% Superior

|||| (4) |||||| (6) X s = 4.4 σ = .49

X s - X i= .3

X = σ =

25% Inferior

||| (3) ||||| (5) || (2) X i = 4.1 σ = .70

t = 1.05 p > .05

nº 3 en toda la muestra:

25% Superior

|| (2) ||||| (5) || (2) | (1) X s = 2.8 σ = .49

X s - X i= - 1.1

X = σ =

25% Inferior

||| (4) || (2) ||| (3) | (1) X i = 3.9 σ = 1.04

t = p

Cuadro 5

En este ejemplo ficticio (cuadro 4; con datos exagerados, de fácil interpretación):

• El ítem nº 1 discrimina bien, el valor de t nos muestra que la diferencia entre los grupos superior e inferior es muy superior a lo puramente aleatorio; este ítem habría que retenerlo.

• El ítem nº 2 discrimina poco, la diferencia no es significativa y habrá que eliminarlo en la escala definitiva.

• El ítem nº 3 tiene discriminación negativa, los del grupo inferior superan a los del grupo superior; claramente este ítem no es sumable con los demás, no mide lo mismo y hay que rechazarlo. En este caso también puede suceder que esté mal la clave de corrección.

Con cualquiera de los dos procedimientos (correlación ítem-total y contraste de medias entre los dos grupos extremos) obtenemos un dato (r ó t) sobre la calidad del ítem; ambos tipos de información nos dicen si podemos considerar que el ítem discrimina adecuadamente y consecuentemente si podemos considerar que mide lo mismo que los demás.

¿Cuál de los dos análisis es preferible?

Los dos análisis aportan información semejante; un ítem que diferencia adecuadamente a los grupos con total mayor y menor está claramente relacionado con el total de la escala; prácticamente con los dos procedimientos se llega a la misma selección de ítems, sobre todo si nos vamos a quedar con los mejores ítems. En la práctica el escoger un método u otro es cuestión de conveniencia. Si disponemos de un programa de ordenador como el SPSS, con la correlación ítem-total y la fiabilidad ya programados, es el procedimiento más cómodo y el que hoy día suele seguirse. En procesos de aprendizaje sobre cómo construir escalas quizás el contraste de medias entre los grupos extremos es intuitivamente más claro15.

15 El autor del procedimiento (Likert) recomienda y utiliza el contaste de medias, pero en su época no se disponía

de los programas de ordenador con los que contamos hoy día.

Page 12: GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES …blog.uca.edu.ni/kurbina/files/2011/06/Guiaparaconstruirescalasdeac... · escala de 1 a 6 (poco o muy… en cualquier rasgo: conservador,

Guía para construir escalas de actitudes

12

9.2. Comprobación de la fiabilidad y selección de los ítems definitivos Después del análisis de ítems calculamos la fiabilidad (consistencia interna). Las fórmulas más

apropiadas son el coeficiente α de Cronbach (o Kuder-Richardson 20 si se trata de ítems dicotómicos; los resultados son los mismos):

σ

σΣ

−−

=α2t

2i

11k

k

k = número de ítems Σσ i

2 = suma de las varianzas de todos los ítems σ t

2 = varianza de las puntuaciones totales

Aunque llevemos a cabo todo el proceso con un programa de ordenador, debemos tener muy claro qué es lo que estamos haciendo. Lo que vamos a hacer es calcular la fiabilidad con distintos subconjuntos de ítems para quedarnos finalmente con la selección de ítems que más nos convenza como versión definitiva de nuestro instrumento.

El proceso es el siguiente:

1º En primer lugar calculamos la fiabilidad de la escala inicial con todos los ítems,

2º En un segundo lugar:

a) Eliminamos los ítems que con más claridad no son discriminantes (no diferencian bien a los dos grupos extremos, o tienen las correlaciones ítem-total más bajas);

b) De nuevo recontamos a los sujetos su nueva puntuación total (pues hemos eliminado algunos ítems)

c) Volvemos a calcular la fiabilidad de la nueva versión de la escala más reducida.

3º Vamos repitiendo el proceso del paso anterior, calculando la fiabilidad cada vez con menos ítems, hasta que la fiabilidad empieza a bajar.

4º Nos quedamos en principio con la versión de la escala que tiene una fiabilidad óptima.

Los ítems los vamos suprimiendo de uno en uno, o en pequeños bloques. No se trata de un proceso totalmente mecánico, pues como comentaremos después, pueden entrar otras consideraciones en la elección de los ítems, pero los ítems que vamos reteniendo deben ser ítems que correlacionan bien con el total (o que diferencian bien a los sujetos en los grupos extremos).

En cualquier caso la norma de retener el subconjunto de ítems que nos de una máxima fiabilidad es válida en principio, aunque siguiendo este criterio de manera literal no obtendremos necesariamente el mejor instrumento posible.

Para calcular estos coeficientes de fiabilidad necesitamos estos datos que son los que entran en las fórmulas:

1. El número de ítems, que irá variando cada vez según vamos eliminando algunos.

2. La varianza de cada ítem en toda la muestra, que debe estar calculada previamente; se suman las varianzas de los ítems que componen cada versión de la escala pues la suma de las varianzas de los ítems entra en la fórmula el coeficiente de fiabilidad (α de Cronbach).

3. La varianza de los totales. Ésta es la parte más laboriosa si no se hace con un programa de ordenador, pues a cada sujeto hay que recontarle su nueva puntuación según se van eliminando ítems. De estos nuevos totales se calcula la varianza (y la media, que siempre será un dato descriptivo importante aunque no sea necesaria en el cálculo de la fiabilidad).

Aunque no dispongamos de un programa de ordenador, estos cálculos resultan más sencillos si tenemos los datos bien organizados, y siempre es útil tener algún modelo a la vista. Una manera de ir controlando el proceso es preparar un cuadro en el que se van viendo las sucesivas versiones de la escala

Page 13: GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES …blog.uca.edu.ni/kurbina/files/2011/06/Guiaparaconstruirescalasdeac... · escala de 1 a 6 (poco o muy… en cualquier rasgo: conservador,

Guía para construir escalas de actitudes

13

según se va calculando la fiabilidad con unos ítems y otros (como figura en el cuadro 6). Aunque utilicemos un programa de ordenador es conveniente entender lo que realmente estamos haciendo, y además un cuadro como éste es una buena manera de presentar el proceso.

ítems en las versiones sucesivas

número de ítems de cada versión

k

media de los totales

X

desviación típica de los totales

σ

Suma de las varianzas de los

ítems Σσ i2

coeficiente de fiabilidad

α

todos los ítems

eliminamos ítems nº

eliminamos ítems nº

eliminamos ítems nº

Cuadro 6

En la tabla vamos colocando los datos que intervienen en la fórmula. La media de los totales (de cada nueva versión) no es necesaria para calcular la fiabilidad, pero conviene ponerla como dato descriptivo de interés.

Si utilizamos este cuadro para presentar el proceso seguido, podría sobrar la columna de la suma de las varianzas de los ítems, porque este dato no es especialmente informativo aunque entra en la fórmula de la fiabilidad.

El proceso, como vamos viendo, es éste:

1º Calculamos el coeficiente de fiabilidad con todos los ítems iniciales;

2º Eliminamos los peores ítems y volvemos a calcular la fiabilidad… y así sucesivamente hasta que nos quedamos con el conjunto de ítems que nos da la mayor fiabilidad.

Los datos de la fórmula del α de Cronbach van variando según vamos eliminando ítems. Cada vez que eliminamos algún ítem hay que contar a cada sujeto su nueva puntuación total, pues necesitamos conocer la varianza de los nuevos totales.

3º Cuando al eliminar ítems vemos que baja la fiabilidad, damos por terminado el trabajo. Al final nos quedamos con el subconjunto de ítems que forme una escala con una fiabilidad óptima.

Este proceso, seguido de manera casi automática, nos lleva a construir instrumentos (escalas de actitudes en nuestro caso) de una calidad adecuada: la validez, al menos conceptual, la hemos ya procurado al redactar los ítems, y con un análisis de ítems que nos permite a desechar los peores, podemos garantizar una fiabilidad aceptable (al menos la mayor posible en nuestro caso).

Sin embargo en estos procesos caben niveles de perfeccionismo, y a partir del mismo conjunto inicial de ítems cabe llegar a instrumentos mejores o peores. La inversión en tiempo, análisis, confección y comparación de versiones distintas del mismo instrumento, etc., puede depender del uso pretendido del mismo; no es lo mismo preparar una escala para una evaluación sencilla de actitudes sin muchas pretensiones, que para hacer una investigación más seria en torno a la actitud medida por nuestro instrumento (no es lo mismo construir un instrumento como un simple ejercicio académico, o para una experiencia didáctica o para aportar un feedback a unos sujetos en una determinada situación, que construir una escala para medir un rasgo que va ser central en una tesis doctoral o en una investigación más seria o que pensamos publicar). El rigor metodológico no tiene que ser siempre el mismo, con tal de garantizar siempre un rigor suficiente.

Si pretendemos construir un instrumento de una calidad superior, o simplemente deseamos hacerlo lo mejor posible, ya hemos repetido que este proceso no tiene por qué ser automático. También tienen su lugar nuestras propias ideas sobre lo que queremos medir, nuestra propia concepción del rasgo. En la elección definitiva del conjunto de ítems que van a formar la escala deben entrar también otros criterios más

Page 14: GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES …blog.uca.edu.ni/kurbina/files/2011/06/Guiaparaconstruirescalasdeac... · escala de 1 a 6 (poco o muy… en cualquier rasgo: conservador,

Guía para construir escalas de actitudes

14

conceptuales que modulen esta selección; con frecuencia tendremos versiones con distinto número de ítems que apenas difieren en fiabilidad.

En principio deben eliminarse aquellos ítems que hacen que la fiabilidad sea menor, pero a veces eliminando un ítem apenas baja la fiabilidad y si no lo eliminamos la escala puede quedar menos coherente con otros criterios (una idea o aspecto del constructo puede quedar mal representada o de manera muy incompleta).

Otras veces entre los ítems que contribuyen a una mejor fiabilidad hay alguno que, una vez eliminados otros previamente, puede tener poco sentido porque desequilibra el significado, etc., y puede ser mejor eliminarlo también. El que la fiabilidad varíe en el tercer decimal importa poco.

También puede suceder que con menos ítems obtengamos una fiabilidad igual o semejante que con un número mayor de ítems. Frecuentemente tendremos más ítems de los que necesitamos para llegar a una escala con una fiabilidad más que aceptable.

Además, y a la vista de lo que va sucediendo, podremos probar qué sucede si incluimos o excluimos algunos ítems en particular, o podemos ir comprobando la estructura factorial de las distintas versiones.

Es normal que de un conjunto de ítems amplio nos pueda quedar más de una escala, sobre todo si el constructo medido tiene cierta complejidad. En estos casos la escala prevista puede quedar dividida en subescalas, o podemos tener un instrumento largo que mide el rasgo más general y que a la vez se puede dividir en subescalas que dan puntuaciones de los componentes. Para este proceso (que aquí no tratamos de manera específica) suele utilizarse el análisis factorial, que además puede ser un buen método complementario para seleccionar los ítems16.

Como estamos tratando del análisis de ítems y de la fiabilidad como criterios (no únicos) de calidad, no debemos olvidar que aunque es verdad que en general a mayor número de ítems tendremos una mayor fiabilidad, también es verdad que con más respuestas en los ítems también aumenta la fiabilidad.

Procedimiento inverso, recomendado por algunos autores, y que puede ser preferible.

En vez de calcular la fiabilidad primero con todos los ítems y de nuevo eliminando progresivamente los que menos discriminan, podemos seguir el proceso inverso:

1º Calculamos la fiabilidad con el subconjunto de ítems que más discriminan (mayor correlación con el total o mayor diferencia entre los grupos extremos).

2º Añadimos unos pocos ítems, los más discriminantes de los que nos quedan y volvemos a calcular la fiabilidad.

3º Damos la tarea por terminada cuando la fiabilidad empieza a bajar.

Con este procedimiento nos quedará normalmente una escala más breve, sobre todo si partimos de muchos ítems. Los ítems se pueden ir añadiendo de uno o en uno, o de cinco en cinco, o en pequeños bloques de ítems de discriminación parecida. Como antes, se pueden tener también criterios más conceptuales, para que nos quede un instrumento equilibrado y a nuestro gusto.

Una alternativa más sencilla (no siempre, depende de los medios disponibles) al cálculo del coeficiente α (que en principio es el preferible) es utilizar alguna de las fórmulas basadas en la partición del test o escala en dos mitades. Para esto:

1º Al corregir la escala a cada sujeto se le calculan dos puntuaciones totales, una en los ítems pares y otra en los ítems impares (y la suma de los dos subtotales será el total de cada sujeto);

2º Después se calcula la correlación entre las dos mitades pues esta correlación entra en estas fórmulas de la fiabilidad basadas en la partición del test en dos mitades17.

Conviene repasar en otro lugar todo lo referente a estas fórmulas; en principio es preferible utilizar las fórmulas del coeficiente α de Cronbach o Kuder-Richardson 20. 16 Ejemplos de análisis factoriales de diversas escalas e instrumentos en Morales (2005). 17 Hay varias fórmulas de la fiabilidad basadas en la partición del test en dos mitades y conviene revisarlas antes

de escoger una, pero en cualquier caso siempre es preferible calcular el coeficiente α de Cronbach.

Page 15: GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES …blog.uca.edu.ni/kurbina/files/2011/06/Guiaparaconstruirescalasdeac... · escala de 1 a 6 (poco o muy… en cualquier rasgo: conservador,

Guía para construir escalas de actitudes

15

10. Otras consideraciones en torno a la elección de los ítems definitivos Ya hemos indicado que todo el proceso (calcular la fiabilidad con diversos conjuntos de ítems) puede

hacerse también con programas de ordenador, pero la decisión sobre qué ítems hay que ir excluyendo (o incluyendo) supone también valoraciones racionales; las soluciones automáticas que nos puede dar un programa de ordenador no son necesariamente las mejores. Por eso concretamos aquí algunas orientaciones más específicas.

En la elección de los ítems de la versión definitiva de la escala, el valor de t ( o de rit) es importante (indica discriminación y sin discriminación no hay medida), pero supuesto un valor significativo y alto (alto en términos relativos), pueden entrar otros criterios en la elección de los ítems (incluso aunque baje algo la fiabilidad de toda la escala), como los que exponemos a continuación.

1º Equilibrio entre ítems positivos y negativos

Podemos incorporar un número más o menos igual de ítems positivos y negativos (con la clave de corrección controlamos que todas las respuestas se puedan sumar: el máximo acuerdo en unos ítems será equivalente al máximo desacuerdo en otros ítems).

Esta es una buena práctica como ya indicamos al principio al tratar de la redacción de los ítems, porque con ítems en las dos direcciones se controlan mejor las respuestas aquiescentes, y además el constructo suele quedar mejor expresado. Lo que no es tan fácil ni frecuente es que en la edición final haya un número de ítems idéntico en cada dirección (tampoco es especialmente necesario).

Si tenemos un número de ítems aproximadamente idéntico en ambas direcciones (favorables y desfavorables a la actitud medida) es útil calcular a cada sujeto dos puntuaciones parciales sumando por separado ambos tipos de ítems, y calcular después la correlación entre estas dos subescalas o totales parciales; si esta correlación es del orden de .50 tenemos una garantía razonable que ambos tipos de ítems miden lo mismo y que no está operando la aquiescencia (tendencia a responder preferentemente de acuerdo a cualquier ítem).

2º Cuidar más la representatividad del contenido de las formulaciones de los ítems

En le selección definitiva de los ítems que van a conformar nuestra escala, podemos buscar una homogeneidad conceptual más nítida. Quizás veamos, por ejemplo, que al eliminar dos ítems que discriminan poco, nos sobra un tercer ítem que sí discrimina y que incluye la misma idea que los dos eliminados, pero el conjunto de la escala puede quedar muy desequilibrado en cuanto al significado global. Todo esto puede depender de apreciaciones personales; siempre hay que tener claro que es importante la interpretabilidad de los datos en función de un rasgo o actitud bien definida (aunque un rasgo se puede definir bien de manera muy genérica o compleja y también de manera muy específica).

Un ejemplo posible: en una escala de actitud hacia el estudio incluimos cuatro ítems en torno a la idea de competitividad. Si dos o tres de estos ítems no discriminan en el conjunto de la escala, puede ser preferible no incluir en la escala la idea de competitividad (aunque baje algo la fiabilidad) y medirla de otra manera si nos interesa, con otro instrumento o con unas preguntas adicionales. Nos quedará un concepto de actitud hacia el estudio con un significado más restringido que el que buscábamos en primer lugar.

3º Incluir de manera equilibrada aspectos distintos (subescalas) del mismo rasgo general

También nos puede interesar que estén representados con idéntico número de ítems (o en número suficiente) ideas que reflejan matices distintos (subrasgos) dentro del rasgo general. En ocasiones un instrumento, además de medir un rasgo general, se puede subdividir en subescalas para medir por separado aspectos distintos. Un instrumento que mida, por ejemplo, autoestima o asertividad, etc., se puede dividir en subescalas que midan por separado aspectos distintos de la autoestima o de la asertividad. En este caso tanto las subescalas como la escala formada por todos los ítems, deben tener una fiabilidad aceptable. Si se pretende construir un instrumento de este estilo, es útil estudiar las posibilidades del análisis factorial como ya se ha indicado; este tipo de escalas suelen denominarse escalas factoriales.

Page 16: GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES …blog.uca.edu.ni/kurbina/files/2011/06/Guiaparaconstruirescalasdeac... · escala de 1 a 6 (poco o muy… en cualquier rasgo: conservador,

Guía para construir escalas de actitudes

16

4º Incorporación de nuevos ítems

Cuando con pocos ítems que en principio nos convencen porque expresan bien lo que deseamos medir, no alcanzamos una fiabilidad adecuada, podemos acudir a las fórmulas que nos dicen cuántos ítems del mismo estilo (de formulaciones parecidas) deberíamos añadir para alcanzar una fiabilidad determinada18. También puede suceder que algunos de los ítems eliminados en el análisis, y que conceptualmente nos parezcan adecuados, simplemente estén mal formulados y haya que hacer una redacción nueva.

5º Preparación de dos versiones, corta y larga, de la misma escala

Con frecuencia podremos observar que un número reducido de ítems nos da una fiabilidad aceptable. Puede ser interesante hacer dos versiones, una la versión normal o larga, y otra breve, quizás con una fiabilidad menor, pero apta para muchos de los usos de estos instrumento. Podemos verificar qué fiabilidad obtenemos seleccionando solamente los mejores ítems, que pueden ser muy pocos (cinco o seis, por ejemplo).

Estas versiones breves suelen ser útiles como instrumentos complementarios en investigaciones en las que el énfasis o el interés del investigador está en otro rasgo distinto, pero le interesa además medir otras variables con suficiente precisión pero utilizando instrumentos breves y económicos.

6º Explicación o redefinición del rasgo medido por nuestro instrumento

En esta observación no nos referimos a la selección definitiva de los ítems, sino a las consecuencias de esta selección. A veces, y a la vista de los ítems que han sido retenidos en la escala definitiva, habrá que redefinir lo que pretendemos medir o al menos explicarlo adecuadamente aunque se mantenga el nombre del instrumento.

Los términos para designar los rasgos suelen ser muy genéricos, y de hecho instrumentos con el mismo nombre (como actitud hacia el estudio, autoestima, etc.) pueden no coincidir en lo que de hecho miden, que puede ser definido con unos límites más ajustados. Podemos comenzar, por ejemplo, construyendo una escala de actitud hacia el estudio, pero al eliminar una serie de ítems y fijarnos en los que nos quedan, puede ser preferible hablar de nivel de aspiraciones, o de constancia en el estudio, etc. (lo que de hecho estemos midiendo). Al menos debe quedar explicado de alguna manera.

11. Comprobación de la validez y otros análisis posteriores Una vez que tenemos ya la versión definitiva de la escala, se hacen los demás análisis según los datos

de que dispongamos.

a) Se pueden calcular datos descriptivos (medias y desviaciones) de las diversas submuestras si las hay,

b) Podemos construir baremos o normas de interpretación (como los percentiles, estaninos, u otro tipo de puntuaciones).

c) Se pueden comprobar diferencias entre grupos, correlaciones con otras variables, etc.; según los datos que hayamos obtenido simultáneamente; o podemos pasar la escala a muestras nuevas obteniendo a la vez otros datos que nos permitan hacer más análisis.

d) Sobre todo podemos comprobar de manera más específica y planificada la validez del nuevo instrumento con los datos obtenidos simultáneamente (o ya en estudios posteriores y con otras muestras, pero esto es más laborioso).

La confirmación de la validez más que un cálculo es un proceso (los llamados coeficientes de validez son simples correlaciones con un determinado criterio que no confirman necesariamente la validez de un instrumento, sino una interpretación específica de los datos obtenidos con ese instrumento)

18 Estas fórmulas que relacionan la longitud de un test y su fiabilidad suelen encontrarse en textos en los que se

trata de la fiabilidad de manera más específica y en la obra citada de Morales, Urosa y Blanco (2003).

Page 17: GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES …blog.uca.edu.ni/kurbina/files/2011/06/Guiaparaconstruirescalasdeac... · escala de 1 a 6 (poco o muy… en cualquier rasgo: conservador,

Guía para construir escalas de actitudes

17

No tratamos aquí de manera específica sobre la validez, pero es útil recordar ahora algunas ideas básicas sobre la validez y cómo probarla. No hay una prueba de validez en sentido estricto, pero sí podemos tener datos que apoyen una determinada interpretación, avalen la utilidad del instrumento, etc.19

Una visión de conjunto de lo que entendemos por validez y de los modos de comprobarla está resumida en el cuadro 7.

Cómo comprobamos el significado y la utilidad

Las interpretaciones se pueden reducir a dos grandes tipos: analizando el contenido con métodos experimentales

a) Interpretaciones sobre el

significado de lo que medimos (validez de constructo)

A pesar de la ‘validez aparente’ de los ítems, podemos medir, al menos parcialmente, algo distinto de lo que pretendemos, como capacidad lectora, deseo de presentar una buena imagen, etc.; además los que responden pueden entender otra cosa distinta o no entender lo que se les pregunta, etc.

Necesario pero no siempre suficiente… Más fácil en pruebas de rendimiento escolar (nos ajustamos a un plan, a una tabla de especificaciones); Más difícil o más limitado: a) Cuando tratamos de medir rasgos

más abstractos (como son los rasgos de personalidad);

b) Cuando queremos ampliar el significado, o generalizarlo a otras situaciones;

c) Cuando en las respuestas es más probable que influyan otras variables (aquiescencia, deseo de quedar bien, etc.)

Estrategias: comprobar hipótesis sobre el significado de la variable que medimos;

dos estrategias básicas:

Validación convergente;

Validación divergente

b) Interpretaciones sobre la utilidad del instrumento (validez predictiva, en sentido amplio)

No es una estrategia válida o al menos es insuficiente; pero el análisis del contenido ayuda a formular hipótesis predictivas

Necesario siempre; Métodos correlacionales; Problemas posibles: validez y fiabilidad del criterio que se pretende predecir

Cuadro 7

Con los estudios de validación pretendemos, sobre todo, dos finalidades (que se apoyan mutuamente):

1º Confirmar el significado previsto de la variable (de la actitud o rasgo) que pretendemos medir.

Se trata de verificar que la interpretación es correcta (si, por ejemplo, decimos que estamos midiendo actitud hacia el estudio, verificamos que es eso, y no otra cosa, como inteligencia, lo que de hecho medimos). Este tipo de validez suele denominarse validez de constructo (constructo = rasgo). Confirmamos el significado comprobando hipótesis basadas en el mismo significado; podemos utilizar dos tipos de estrategias que se complementan:

1. Validez convergente: por ejemplo comprobando relaciones esperadas y plausibles (positivas o negativas) con otras medidas:

a) unas pueden ser otros instrumentos que pretendidamente miden lo mismo (si hacemos una escala de autoconcepto esperaremos una correlación significativa con otras escalas de autoconcepto);

b) otras pueden medir otras cosas pero con las que esperamos que haya relación (como entre actitud hacia el estudio y calificaciones escolares).

19 Sobre la validez las normas de la American Educational Research Association (A.P.A.) dicen que la validez se

refiere al grado en el que la evidencia y la teoría apoyan (support) las interpretaciones de los tests de acuerdo con el uso que se va a hacer de estos tests.

Page 18: GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES …blog.uca.edu.ni/kurbina/files/2011/06/Guiaparaconstruirescalasdeac... · escala de 1 a 6 (poco o muy… en cualquier rasgo: conservador,

Guía para construir escalas de actitudes

18

2. Validez divergente: comprobando que el rasgo no tiene relación con otros con los que no esperamos que la tenga o que se diferencia de otros del mismo ámbito (la asertividad de la agresividad, puede haber relación pero no tan alta que nos permita concluir que ambos instrumentos miden lo mismo); podemos también comprobar si la escala diferencia grupos que ya sabemos que son diferentes en esa variable.

Hay otros métodos para confirmar, matizar, describir mejor o explorar el significado de lo que medimos, como es el análisis factorial y otros tipos de análisis.

2º Comprobar la utilidad práctica del instrumento

En este caso verificamos, por ejemplo si existen correlaciones apreciables con determinados criterios (como rendimiento académico, éxito en una tarea, etc.; se trata de validez predictiva en sentido amplio). Esta comprobación de la utilidad también aporta datos a la comprobación del significado.

12. Sugerencias para obtener datos adicionales que faciliten la validación de la escala

Las sugerencias puestas a continuación están estructuradas pensando en los posibles análisis sobre la validez, pero en cualquier caso siempre es útil e informativo hacer algún estudio de tipo correlacional o de comparación de grupos.

12.1. Confirmación del significado pretendido (validez de constructo)

Los análisis pueden tener dos enfoques básicos (hay más), como son 1º los estudios correlacionales y 2º las comparaciones entre grupos.

Por lo que respecta a los análisis correlacionales, y para tener una visión de conjunto, vamos a pensar en tres tipos de relaciones (o en su caso, de no relaciones):

1º con instrumentos que miden el mismo rasgo (más o menos)

2º con instrumentos que no miden el mismo rasgo, pero sí otros rasgos que están relacionados (al menos como hipótesis razonable) con el que medimos nosotros

3º con instrumentos que miden otros rasgos con los que esperamos que no haya relación (o menor que si midieran el mismo rasgo).

12.1.1. Análisis correlacionales

Podemos distinguir tres estrategias basadas en estudios correlacionales.

1º Relación con otros modos de medir el mismo rasgo

Comprobamos la relación entre nuestro instrumento y otros modos de medir el mismo rasgo.

Otros modos de medir lo mismo pueden ser:

a) Una pregunta amplia (¿hasta qué punto crees que eres así: etc.?) y sigue una descripción de un par de líneas del que supuestamente tiene el rasgo en un grado alto.

b) Otro mini-test de pocos ítems que más o menos mida lo mismo, por ejemplo:

1. Desde otra perspectiva (por ejemplo conductas probables en vez de opiniones),

2. Con un instrumento que mide el mismo rasgo pero construido con una técnica distinta (por ejemplo elección entre alternativas o un Semántico Diferencial)

c) Otra escala o test (o factor, o subescala, o selección de ítems, etc.) de otro autor y que supuestamente comprueba lo mismo (o muy parecido)

d) Si es posible, se puede comprobar la relación entre autoevaluación (si se trata de la medición de un rasgo propio más que la actitud hacia otra cosa) y héteroevaluacion.

Page 19: GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES …blog.uca.edu.ni/kurbina/files/2011/06/Guiaparaconstruirescalasdeac... · escala de 1 a 6 (poco o muy… en cualquier rasgo: conservador,

Guía para construir escalas de actitudes

19

Estos nuevos instrumentos tienen un valor complementario, pueden ser muy breves y también pueden ser simples preguntas.

2º Comprobación de relaciones esperadas (positivas o negativas) con otros rasgos

Podemos comprobar también la relación entre lo que mide nuestro instrumento y otros rasgos o características distintas con las que esperamos que haya relación (positiva o negativa):

a) Una lista de adjetivos o rasgos autodescriptivos que podrían equivaler a una serie de tests de personalidad; también se pueden sumar adjetivos que reflejen más o menos el mismo rasgo (mediante el análisis factorial se pueden encontrar grupos de adjetivos relacionados entre sí y que reflejan un mismo rasgo subyacente a todos ellos).

b) Tests de personalidad (completos o en parte, subtests, etc. ),

c) Preguntas sueltas sobre diversos temas, otras actitudes, preferencias, etc. que, como hipótesis, puedan tener relación con la actitud medida; (por ejemplo preguntas de este estilo: de estas profesiones ¿cual te hubiera gustado más para ti? Se escoge una entre varias, o se escoge una de cada par, o se valoran todas independientemente, etc.).

3º Comprobar que no existe relación donde no esperamos que la haya

Esta no relación nos ayuda a distinguir unos rasgos de otros, sobre todo cuando pertenecen al misma ámbito conceptual y es fácil confundirlos.

La no relación no hay que entenderla de manera literal; puede tratarse de relaciones, incluso estadísticamente significativas, pero menores que con otros rasgos, y de acuerdo con un razonamiento plausible.

1.2.1.2. Comparaciones entre grupos

El otro enfoque mencionado al principio de este apartado consiste en comparar grupos supuestamente distintos en aquello que estamos midiendo.

a) Todas las comparaciones entre grupos equivalen a análisis correlacionales (como en definitiva todos los análisis estadísticos): nos da lo mismo, por ejemplo, preguntarnos si los niños superan a las niñas en el rasgo o actitud A (y haremos un contraste de medias), que preguntarnos si el sexo está relacionado o tiene que ver con la actitud A (y calcularemos un coeficiente de correlación entre el género, 1 ó 0, y la actitud medida). Es más, no sólo hay una obvia relación conceptual entre las dos preguntas (diferencia entre medias o relación), sino que mediante las fórmulas oportunas podemos transformar un valor de la t de Student en un coeficiente de correlación.

b) Aun así nuestras preguntas espontáneas son unas veces en términos de relación, y otras en términos de diferencias; ambos enfoques nos ayudan a formular hipótesis que podemos intentar confirmar, y además los procedimientos de análisis son en principio distintos aunque en última instancia aporten la misma información.

c) Al preparar nuestro instrumento de recogida de datos, debemos pensar qué preguntas podemos hacer que identifiquen a los sujetos según grupos de pertenencia (según profesiones, edades, sexos, etc.) o según características personales de interés que permitan subdividir la muestra en subgrupos (preferencias por A ó B, preguntas en relación con el estilo de vida, valores, etc.)

d) El análisis estadístico obvio será un contraste de medias, o análisis de varianza si las muestras son más de dos.

Resumiendo

Los análisis sugeridos (correlaciones y comparaciones de grupos) no agotan todos los análisis posibles en relación con la validez, pero sí son los más obvios y con frecuencia suficientes. Como ya hemos indicado antes se trata en todos los casos de obtener datos para poder verificar hipótesis (y también para explorar…):

Page 20: GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES …blog.uca.edu.ni/kurbina/files/2011/06/Guiaparaconstruirescalasdeac... · escala de 1 a 6 (poco o muy… en cualquier rasgo: conservador,

Guía para construir escalas de actitudes

20

a) El instrumento mide algo relacionado (positiva o negativamente) con otras cosas con las que lógicamente esperamos que haya relación (validación convergente).

Unas veces comprobamos relación con el mismo rasgo medido de otra manera (o por otras personas, por ejemplo auto y hétero-evaluacion);

Otras veces comprobamos relación con rasgos distintos pero lógicamente relacionados.

b) El instrumento mide algo que no está relacionado con lo que no se espera que lo esté (validación divergente). La no relación también es útil para ver que no confundimos unas cosas con otras, y porque también son datos informativos.

12.2 Confirmación de la utilidad del instrumento (validez predictiva)

Básicamente se trata de calcular coeficientes de correlación entre el instrumento (lo que mide el test o escala) y determinados criterios (como rendimiento académico, determinadas habilidades, etc.). Estos son los coeficientes que suelen denominarse coeficientes de validez.

También cabe hacer estudios meramente exploratorios o que respondan a hipótesis no directamente relacionadas con la validez.

El complemento de la construcción de un instrumento pueden ser además unas normas de interpretación (baremos), para los sujetos individuales que respondan: percentiles, estaninos, etc.

Page 21: GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES …blog.uca.edu.ni/kurbina/files/2011/06/Guiaparaconstruirescalasdeac... · escala de 1 a 6 (poco o muy… en cualquier rasgo: conservador,

Guía para construir escalas de actitudes

21

13. Bibliografía

13.1. Referencias bibliográficas citadas

AMERICAN EDUCATIONAL RESEARCH ASSOCIATION, AMERICAN PSYCHOLOGICAL ASSOCIATION and NATIONAL COUNCIL ON MEASUREMENT IN EDUCATION (1999). Standards for Educational and Psychological Testing. Washington DC: American Educational Research Association

BARNETTE, JACKSON J. (2000). Effects of stem and Likert response option reversals on survey internal consistency: if you feel the need, there is a better alternative to using those negatively worded stems. Educational and Psychological Measurement, 60 (3), 361-370.

CAÑADAS OSINSKI, ISABEL y SÁNCHEZ BRUNO, ALFONSO (1998), Categorías de respuesta en escalas tipo Likert. Psicothema, vol. 10, nº 3, 623-631.

CHANG, LEI (1997). Dependability of Anchoring Labels of Likert-Type Scales. Educational and Psychological Measurement, 57 (5), 800-807.

DODEEN, HAMZEH M. (2003). Effectiveness of Valid Mean Substitution in Treating Missing Data in Attitude Assessment. Assessment & Evaluation in Higher Education. Vol. 28, nº 5, 505-513.

GARDNER, DONALD G.; CUMMINGS, L.L.; DUNHAM, RANDALL B. and PIERCE, JON L. (1998). Single-item versus multiple item measurement: an empirical comparison. Educational and Psychological Measurement, 58 (6), 898-915.

MORALES VALLEJO, PEDRO (2005). Análisis factorial en la construcción e interpretación de tests, escalas y cuestionarios. http://www.upcomillas.es/personal/peter/

MORALES VALLEJO, PEDRO (2006). Medición de actitudes en Psicología y Educación, construcción de escalas y problemas metodológicos, tercera edición revisada. Madrid: Universidad Comillas.

MORALES VALLEJO, PEDRO; UROSA SANZ, BELÉN y BLANCO BLANCO, ÁNGELES (2003). Construcción de escalas de actitudes tipo Likert. Una guía práctica. Madrid: La Muralla.

NUNNALLY, JUM C. (1978). Psychometric Theory. Second Edit. New York: McGraw-Hill.

WENG, LI-JEN (2004). Impact of the Number of Response Categories and Anchor Labels on Coefficient Alpha and Test-Retest Reliability. Educational and Psychological Measurement, 64, 6, 956-972.

13.2. Sobre construcción de instrumentos

DEVELLIS, ROBERT (1991). Scale Development, Theory and Applications. Newbury Park: Sage.

EDWARDS, A.L., (1957a). Techniques of Attitude Scale Construction. New York: Appleton-Century-Crofts.

GABLE, ROBERT K. AND WOLF, MARIAN B. (1986). Instrument Development in the Affective Domain. Boston/Dordrecht/Lancaster: Kluwer-Nijhoff Publishing.

HENERSON, M.E., MORRIS, L.L. AND FIZT-GIBBON, C.T. (1978). How to Measure Attitudes, Beverly Hills: Sage.

KING, M. AND ZIEGLER, M. (1975). Research Projects in Social Psychology. Monterrey: Brooks-Cole.

KLINE, P. (1986). A Handbook of Test Construction. New York: Methuen.

Page 22: GUÍA PARA CONSTRUIR ESCALAS DE ACTITUDES …blog.uca.edu.ni/kurbina/files/2011/06/Guiaparaconstruirescalasdeac... · escala de 1 a 6 (poco o muy… en cualquier rasgo: conservador,

Guía para construir escalas de actitudes

22

LIKERT, R. (1932). A Technique for the Measurement of Attitudes, Archives of Psychology, 140, 44-53 [en español en WAINERMAN, C.H. (Ed.), (1976). Escalas de medición en las ciencias sociales. Buenos Aires: Nueva Visión, 199-260 y en SUMMERS, GENE F. (Ed.) (1976). Medición de actitudes. México: Trillas, 182-193].

MORALES VALLEJO, PEDRO (2006). Medición de actitudes en Psicología y Educación, construcción de escalas y problemas metodológicos, tercera edición revisada. Madrid: Universidad Comillas.

MORALES, PEDRO (2005). Análisis factorial en la construcción e interpretación de tests, escalas y cuestionarios. http://www.upcomillas.es/personal/peter/

MORALES VALLEJO, PEDRO; UROSA SANZ, BELÉN y BLANCO BLANCO, ÁNGELES (2003). Construcción de escalas de actitudes tipo Likert. Una guía práctica. Madrid: La Muralla.

MORRIS, LYNN LYONS, FIZT-GIBBON, CAROL TAYLOR, AND LINDHEIM, ELAINE (1987). How to measure attitudes. Newbury Park & London: Sage.

NUNNALLY, JUM C. (1978). Psychometric Theory. New York: McGraw-Hill.

SPECTOR, PAUL E. (1992). Summating Ratings Scale Construction: An Introduction. Newbury Park & London: Sage.

WAINER, HOWARD AND MESSICK, SAMUEL (Eds.) (1983). Principals of Psychological Measurement. Hillsdale, N. J.: Lawrence Erlbraun.

13.3. Colecciones de instrumentos

BEARDEN, WILLIAM O.; NETEMEYER, RICHARD G. AND MOBLEY, MARY E. (1993). Handbook of Marketing Scales. Newbury Park: Sage.

BORICH, G.D., AND MADDEN, S.K. (1977). Evaluating Classroom Instruction, A Sourcebook of Instruments. Reading, Mass.: Addison-Wesley.

COHEN, L. (1976). Educational Research in Classrooms and Schools. London: Harper & Row.

FISHER, JOEL AND CORCORAN, KEVIN J. (1994). Measures for Clinical Practice: A Sourcebook; Couples, Families and Children. Portland: Portland State University, Oregon.

LAKE, D.G., MILES, M.B. AND EARLE JR., R.B. (1973). Measuring Human Behavior. New York: Teachers College, Columbia University

MILLER, D.C. (1977). Handbook of Research Design. New York: David McKay.

NEWMARK, CHARLES S. (Ed.) (1996). Major Psychological Assessment Instruments. Second Edition. Boston: Allyn & Bacon.

ROBINSON, JOHN P. AND SHAVER, PHILLIP R. (1980). Measures of Social Psychological Attitudes. Ann Arbor, Mich.: Institute of Social Research, the University of Michigan.

ROBINSON, JOHN P.; SHAVER, PHILLIP R. AND WRIGHTSMAN, LAWRENCE S. (Eds.) (1991). Measures of Personality and Social Psychological Attitudes. New York: Academic Press.

ROBINSON, JOHN P.; SHAVER, PHILLIP R. AND WRIGHTSMAN, LAWRENCE S. (Eds.) (1999). Measures of Political Attitudes. New York: Academic Press.

SCHUESSLER, K.F. (1982). Measuring Social Life Feelings. San Francisco: Jossey-Bass

SHAW, M.E. AND WRIGHT, J.M. (1967). Scales for the Measurement of Attitudes. New York: McGraw-Hill.

STRAUSS, M.A. AND BROWN, B.W. (1978). Family Measurement Techniques, Abstracts of Published Instruments, 1935-1974. Minneapolis: University of Minnesota Press.